Apple dice que sus modelos de IA fueron entrenados en chips personalizados de Google

Sundar Pichai y Tim Cook

Fuente: Reuters; Camello

manzana Apple dijo el lunes que los modelos de inteligencia artificial que impulsan su sistema de inteligencia artificial fueron entrenados previamente en procesadores diseñados por Google, una señal de que las grandes empresas de tecnología están buscando alternativas. NVIDIA Cuando se trata de entrenamiento avanzado en IA.

La elección de Apple Google La Unidad de Procesamiento Tensorial (TPU) local para la capacitación se detalla en Artículo técnico recién publicado por Por otra parte, Apple lanzó el lunes una versión preliminar de Apple Intelligence para algunos dispositivos.

Las costosas unidades de procesamiento de gráficos (GPU) de Nvidia dominan el mercado de chips de entrenamiento de IA de alta gama y han tenido una demanda tan alta en los últimos años que ha sido difícil comprarlas en las cantidades requeridas. abierta AI, microsoftAnthropic y Nvidia utilizan las GPU de Nvidia en sus modelos, mientras que otras empresas de tecnología, incluida Google, utilizan muerto, inspiración Y tesla Los atraen para construir demostraciones y sistemas de inteligencia artificial.

La semana pasada, tanto el director ejecutivo de Meta, Mark Zuckerberg, como el director ejecutivo de Alphabet, Sundar Pichai, hicieron comentarios sugiriendo que sus empresas y otras en la industria podrían estar invirtiendo demasiado en infraestructura de inteligencia artificial, pero reconocieron que los riesgos comerciales de hacer lo contrario eran demasiado altos.

«La desventaja de quedarse atrás es que estarás fuera de posición en términos de la tecnología más importante durante los próximos 10 a 15 años», dijo Zuckerberg en una entrevista. Podcast Con Emily Chang de Bloomberg.

READ  El iPad Pro OLED de 11 pulgadas puede escasear cuando se lance

Apple no mencionó a Google ni a Nvidia en su documento de 47 páginas, pero señaló que el Apple Foundation Model (AFM) y el servidor AFM están entrenados en «clústeres de nubes de TPU». Esto significa que Apple alquiló servidores a un proveedor de la nube para realizar los cálculos.

«Este sistema nos permite entrenar modelos AFM de manera eficiente y escalable, incluidos AFM en el dispositivo, servidor AFM y modelos más grandes», dijo Apple en su artículo.

Los representantes de Apple y Google no respondieron a las solicitudes de comentarios.

Apple reveló sus planes de IA más tarde que muchos de sus pares, que adoptaron en voz alta la IA generativa poco después de que OpenAI lanzara ChatGPT a fines de 2022. El lunes, Apple presentó Apple Intelligence. El sistema incluye varias características nuevas, como una apariencia actualizada para Siri, un mejor procesamiento del lenguaje natural y resúmenes generados por IA en campos de texto.

Durante el próximo año, Apple planea lanzar funciones basadas en IA generativa, incluida la creación de imágenes, la generación de emoji y un Siri mejorado que puede acceder a la información personal de un usuario y realizar acciones dentro de las aplicaciones.

En un artículo del lunes, Apple dijo que el AFM del dispositivo estaba entrenado en un único «chip» de 2.048 chips TPU v5p trabajando juntos. Este es el chipset TPU más avanzado, que se lanzó por primera vez en diciembre. El servidor AFM fue entrenado en 8.192 chips TPU v4 configurados para funcionar juntos como ocho chips a través de la red del centro de datos, según el documento.

READ  iOS 16.5 rompe la compatibilidad con el dongle Lightning to USB 3 de Apple

Los últimos TPU de Google cuestan menos de 2 dólares por hora y el chip se utiliza cuando se reserva con tres años de antelación, según Al sitio web de GoogleGoogle presentó por primera vez sus TPU en 2015 para cargas de trabajo internas y los puso a disposición del público en 2017. Ahora se encuentran entre los chips personalizados más maduros diseñados para IA.

Sin embargo, Google es uno de los mayores clientes de Nvidia. Utiliza las GPU y GPU de Nvidia para entrenar sistemas de inteligencia artificial y también vende acceso a la tecnología de Nvidia en su nube.

Apple dijo anteriormente que la inferencia, que significa tomar un modelo de IA previamente entrenado y ejecutarlo para generar contenido o hacer predicciones, se producirá en parte en los chips de Apple en sus centros de datos.

Este es el segundo documento técnico sobre el sistema de inteligencia artificial de Apple, luego de un lanzamiento más general en junio. manzana dijo a tiempo Estaba utilizando unidades de procesamiento térmico (TPU) mientras desarrollaba sus modelos de IA.

Está previsto que Apple anuncie sus resultados trimestrales tras el cierre de operaciones el jueves.

No se pierda estas ideas de CNBC PRO

Cómo el consumo masivo de energía de la IA generativa está abrumando nuestra red

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *