Apple lanzó su propio sistema de Inteligencia Artificial (IA), llamado Apple Intelligence (AI) y Tim Cook, CEO de la compañía, junto con Craig Federighi, vicepresidente sénior de Ingeniería de Software, detallaron algunas de las capacidades de esta IA en la que han estado trabajando “durante años”.
Según aseguran, ofrecerá una experiencia “poderosa, intuitiva, integrada, personal y privada”, gracias a que es capaz de entender sus necesidades y su contexto.
En primer lugar, Cook insistió en que la gran diferencia de esta tecnología con las de la competencia en el mercado de las IA es que la suya es capaz de entender las necesidades de los usuarios y el contexto que les rodea, para facilitar el uso de sus dispositivos y favorecer su conexión con otras personas.
En este sentido, Federighi sostuvo que Apple Intelligence puede comprender las acciones entre las aplicaciones, el lenguaje, así como crear imágenes o emojis personalizados con diferentes estilos (dibujos, animaciones, etc.), aunque en ningún caso se indicó que se puedan crear imágenes realistas como otras IAs ya conocidas.
La IA también aprende de la información que tiene de los usuarios y su contexto, ya que puede, por ejemplo, saber quiénes son los miembros de una familia, dónde se encuentra el lugar en el que el usuario está reunido y el tráfico que puede haber entre ambos puntos.
En este sentido, el vicepresidente sénior insistió en que todo este proceso se lleva a cabo de forma privada y se procesa de manera local, desde el mismo dispositivo, de modo que estos datos solo son accesibles para sus propietarios; algo que es posible gracias a Apple Silicon.
También anunciaron Private Cloud Compute, que permite a Apple Intelligence escalar su capacidad computacional. Esto significa que, si la potencia del dispositivo no es suficiente, lleva el procesamiento de la información a un cloud privado, enviando únicamente la información relevante para ejecutar la tarea deseada. Estos datos, por tanto, no se guardan ni son accesibles para la propia marca.
El anuncio coincide con lo que anticipó hace unas semanas el analista Mark Gurman, cuando comentó que los servicios de IA dependerían de la tarea que se quisiera ejecutar y que tanto iOS e iPadOS 18 como macOS 15, contarían con un nuevo algoritmo destinado a elegir qué método utilizar para ejecutar la tarea según su complejidad.
La IA también se introduce en Mail, Notas, Pages o aplicaciones de terceros para impulsar la opción Rewrite o ‘reescribir’. Con ella, ofrece versiones diferentes de lo que se escribió en un texto para elegir la más adecuada según el tono en el que queramos redactar un email. El sistema también sabe reconocer cuáles son los emails más urgentes o importantes que recibimos y los coloca en primer lugar en la bandeja de entrada con la función Priority Messages.
Por otra parte, la firma acotó que Apple Intelligence también busca mejorar la forma en la que nos comunicamos con Genmoji, una forma de crear estos emoji directamente con IA generativa. Mientras, con Image Playground se pueden crear imágenes en cuestión de segundos y también en tres estilos (animación, dibujo o ilustración).
En este caso, la tecnología vuelve a entender el contexto personal de los usuarios, a quienes orecerá sugerencias para creaciones relacionadas con las conversaciones registradas en el ‘smartphone’.
Siri se integra en la experiencia
La compañía también adelantó novedades relacionadas con su asistente, Siri, lanzada hace ya 13 años. Según Apple, este año “marca una nueva era” para una herramienta que actualmente admite 1.500 millones de solicitudes de voz al día, debido a que se encargará de canalizar algunas características que se estrenan con Apple Intelligence.
Gracias a la IA, Siri ahora estrena un nuevo logo y aspecto, más integrado con la experiencia del sistema. Asimismo, permite una comunicación más natural gracias a que tiene nuevas capacidades de comprensión lingüística y gestual.
De esta manera, facilita la programación de alarmas con un doble toque en la parte inferior de la pantalla. Asimismo, en caso de que el usuario olvide el nombre de una aplicación, es capaz de entender cuál desea abrir con una descripción de su servicio.
También comentaron que ahora es posible comunicarse con Siri por escrito y cambiar de texto a voz según las necesidades de los usuarios sin comprometer su privacidad.
También es posible pedirle que encuentre una información concreta cuando no se recuerda cómo la hemos recibido. Por ejemplo, se le puede solicitar que reproduzca un pódcast recibido por parte de otro usuario y que ella misma lo encuentre, sin tener que acceder al mensaje o al email en el que aparezca este documento o url.
Asimismo, será capaz de “entender y actuar” conforme a lo que aparece en la pantalla, de modo que si un contacto envía su dirección al usuario, éste puede pedirle al asistente que lo guarde en su directorio con la solicitud “añade esa dirección a su tarjeta de contacto”.
ChatGPT llega a Apple
Gurman añadió que el asistente de IA que desarrolla OpenAI e impulsado por GPT 4.0 y ChatGPT, llegará de forma gratuita a los usuarios de la marca mediante diferentes experiencias de iOS 18, iPadOS 18 y macOS Sequoia.
Esto significa que los usuarios no estarán obligados a crearse una cuenta para utilizar este ‘chatbot’, que estará integrado en las herramientas de redacción de Apple para ayudar a los usuarios a generar contenido sobre lo que necesiten escribir.
Quienes tengan cuenta de suscripción, en cambio, podrán vincular sus cuentas, aplicándose en este caso las políticas de uso de datos de la herramienta de IA. Esto será posible este año, cuando se prevé que ChatGPT llegue a iOS 18, iPadOS 18 y macOS Sequoia.