Apple Park se ve antes de la Conferencia Mundial de Desarrolladores (WWDC) en Cupertino, California, el 5 de junio de 2023.
Josh Edelson | AFP | Getty Images
El lunes, durante la conferencia anual de desarrolladores de Apple, WWDC, la compañía subrayó sutilmente cuánto trabajo está haciendo en inteligencia artificial y aprendizaje automático de última generación.
Como microsoft, Googley las nuevas empresas como OpenAI adoptaron tecnologías de aprendizaje automático de vanguardia como los chatbots y la IA generativa, Apple parecía estar al margen.
Pero el lunes, Manzana anunció varias funciones importantes de IA, incluida una corrección automática de iPhone mejorada basada en un programa de aprendizaje automático que utiliza un modelo de lenguaje transformador, que es la misma tecnología que sustenta ChatGPT. Incluso aprenderá de cómo el usuario escribe y escribe para mejorar, dijo Apple.
«En esos momentos en los que solo quieres escribir una palabra para esquivar, bueno, el teclado también la aprenderá», dijo Craig Federighi, jefe de software de Apple, bromeando sobre la tendencia de la autocorrección de usar la palabra sin sentido «ducking» para reemplazar una palabra común. expletivo.
La noticia más importante del lunes fue su nuevo y elegante auricular de realidad aumentada, Vision Pro, pero Apple, no obstante, mostró cómo está trabajando y prestando atención a los desarrollos en el aprendizaje automático y la inteligencia artificial de última generación. ChatGPT de OpenAI puede haber llegado a más de 100 millones de usuarios en dos meses cuando se lanzó el año pasado, pero ahora Apple está tomando la tecnología para mejorar una función que mil millones de propietarios de iPhone usan todos los días.
A diferencia de sus rivales, que están construyendo modelos más grandes con granjas de servidores, supercomputadoras y terabytes de datos, Apple quiere modelos de IA en sus dispositivos. La nueva función de autocorrección es particularmente impresionante porque se ejecuta en el iPhone, mientras que modelos como ChatGPT requieren cientos de GPU costosas que funcionan en conjunto.
La IA en el dispositivo evita muchos de los problemas de privacidad de datos que enfrenta la IA basada en la nube. Cuando el modelo se puede ejecutar en un teléfono, Apple necesita recopilar menos datos para ejecutarlo.
También se vincula estrechamente con el control de Apple de su pila de hardware, hasta sus propios chips de silicio. Apple incluye nuevos circuitos de IA y GPU en sus chips cada año, y su control de la arquitectura general le permite adaptarse a los cambios y las nuevas técnicas.
El enfoque práctico de Apple para la IA
A Apple no le gusta hablar de «inteligencia artificial», prefiere la frase más académica «aprendizaje automático» o simplemente habla de la función que permite la tecnología.
Algunas de las otras empresas líderes de IA tienen líderes con antecedentes académicos. Eso ha llevado a un énfasis en mostrar su trabajo, explicar cómo podría mejorar en el futuro y documentarlo para que otras personas puedan estudiarlo y desarrollarlo.
Apple es una empresa de productos y ha sido muy reservada durante décadas. En lugar de hablar sobre el modelo de IA específico, los datos de entrenamiento o cómo podría mejorar en el futuro, Apple simplemente menciona la función y dice que hay una tecnología genial trabajando detrás de escena.
Un ejemplo de eso el lunes fue una mejora en AirPods Pro que apaga automáticamente la cancelación de ruido cuando el usuario participa en una conversación. Apple no lo enmarcó como una función de aprendizaje automático, pero es un problema difícil de resolver y la solución se basa en modelos de IA.
En una de las funciones más audaces anunciadas el lunes, la nueva función Digital Persona de Apple realiza un escaneo 3D de la cara y el cuerpo del usuario y luego puede recrear su aspecto virtualmente mientras realiza videoconferencias con otras personas mientras usa los auriculares Vision Pro.
Apple también mencionó varias otras características nuevas que utilizaron la habilidad de la compañía en redes neuronales, como la capacidad de identificar campos para completar en un PDF.
Uno de los mayores aplausos de la tarde en Cupertino fue por una función de aprendizaje automático que permite que el iPhone identifique a su mascota, en comparación con otros gatos o perros, y coloque todas las fotos de mascotas del usuario en una carpeta.