La carrera por el desarrollo y mejora de herramientas en base a inteligencia artificial (IA) se encuentra en pleno auge y ninguna big tech se quiere quedar atrás.
En este sentido, Apple retomó el contacto con la desarrolladora de la herramienta de IA generativa ChatGPT, de OpenAI, para implementar funciones basadas en esta tecnología para su próximo modelo de iPhone.
Apple en conversaciones con Google y OpenAI
La empresa con sede en Cupertino estaría trabajando desde hace varios meses en el despliegue de características impulsadas por IA en sus smartphones y ya habría comenzado las negociaciones con Google en la incorporación de Gemini (ex Bard) mediante actualizaciones de 'software' a finales de este año.
Por otro lado, según trascendió en la prensa internacional, Apple volvió a conversar, luego de una pausa a principios de 2024, con la "big tech de moda", OpenAI sobre el uso de su tecnología en los iPhone.
Ambos gigante tecnológicos habrían comenzado a discutir los términos ante un posible acuerdo y cómo se integrarían las características de OpenAI en la próxima iteración de su sistema operativo para sus smartphones, iOS 18, según publicó el sitio de Europapress.
Por su parte, la agencia de noticias Bloomberg, apuntó que aunque no es la primera toma de contacto que tienen las empresas, el avance por ambas partes "había sido mínimo" desde entonces, por lo que esta medida marca una reapertura de las conversaciones entre las compañías tecnológicas.
Apple al parecer también mantuvo conversaciones con la startup de IA Anthropic.
Mark Gurman, periodista especializado en tecnología, publicó detalles del encuentro de ambas empresas y publicó que el próximo sistema operativo del nuevo iPhone podría incluir varias características basadas en el modelo de lenguaje grande (LLM, por sus siglas en inglés) de Apple.
En lo que respecta a la empresa con sede en Cupertino, estarían en plena caza de socios para impulsar un 'chatbot' similar al que desarrolla OpenAI, ChatGPT, una herramienta que utiliza el CEO de Apple, Tim Cook, y que el año pasado reconoció que contaba con "una serie de problemas" que debían resolverse.
Pero además de OpenAI, Apple al parecer también mantuvo conversaciones con la startup de IA Anthropic, desarrolladora de los modelos de IA generativa Claude 3 Haiku, Claude 3 Sonnet y Claude 3 Opus.
Apple presentó una familia de lenguaje de código abierto OpenELM
Apple presentó a su la familia Open-source Efficient Language Models ('Modelos de lenguaje eficientes de código abierto'), diseñada para ofrecer resultados precisos en dispositivos como notebooks, empleando menos tokens de entrenamiento que otros modelos de IA, como OLMo.
Denominada por Apple como OpenELM, es una herramienta que; "utiliza una estrategia de escalamiento por capas para asignar parámetros de forma eficiente dentro de cada capa del modelo", por lo que pone el foco en tareas concretas y permite a los usuarios obtener resultados bastante más específicos.
Pero además, esta familia está compuesta por cuatro modelos de lenguaje grande (LLM, por sus siglas en inglés), y que se lanzan al público en diferentes tamaños: 270 millones de parámetros, 450 millones, 1.100 millones y 3.000 millones de parámetros.
Apple aseguró que OpenELM fue entrenada con un conjunto de datos disponibles públicamente pero; "sin ninguna garantía de seguridad".
Asimismo, cada uno de estos modelos cuenta con dos versiones: preentrenamiento ('pre-trained'), una variante genérica entrenada con conjuntos de datos de la biblioteca CoreNet de GitHub, y optimizada ('instruction tuned'), ajustada e instruida para emplearla con propósitos concretos, como se explica en el documento de la investigación que publicó el sitio de Arxiv.org.
Por otra parte, los especialistas expresaron que estos modelos fueron testeados en los dispositivos como MacBook Pro con SoC M2 Max, 64 GB de RAM y basado en macOS 14.4.1; como también una computadora con CPU Intel i9-13900KF equipada con DDR5-4000 DRAM y GPU NVIDIA RTX 4090 con 24 GB de VRAM.
En base a estos estudios de rendimiento, Apple ha descubrió que OpenELM opera más eficiente que otros LLM similares, como OLMo, desarrollado por Allen Institute for AI, ya que el suyo aporta una mejora del 2,36 por ciento en la precisión y, a la vez, requiere dos veces menos tokens de preentrenamiento.
Por último, la empresa comandada por Tim Cook, aseguró que OpenELM, originalmente de Hugging Face, fue entrenada con un conjuntos de datos disponibles públicamente pero; "sin ninguna garantía de seguridad". Esto significaría que; "existe la posibilidad de que estos modelos produzcan resultados inexactos, dañinos o sesgados".