Meta ha construido chips de computadora personalizados para ayudar con sus tareas de inteligencia artificial y procesamiento de video, y está hablando de ellos en público por primera vez.
El gigante de las redes sociales reveló sus proyectos internos de chips de silicio por primera vez a los periodistas a principios de esta semana, antes de un evento virtual el jueves para discutir sus inversiones en infraestructura técnica de IA.
noticias relacionadas con inversiones
Los inversionistas han estado observando de cerca las inversiones de Meta en inteligencia artificial y hardware de centro de datos relacionado a medida que la compañía se embarca en un «año de eficiencia» que incluye al menos 21,000 despidos y una importante reducción de costos.
Aunque es costoso para una empresa diseñar y construir sus propios chips de computadora, el vicepresidente de infraestructura, Alexis Bjorlin, dijo a CNBC que Meta cree que el rendimiento mejorado justificará la inversión. La empresa también ha estado revisando los diseños de sus centros de datos para centrarse más en técnicas de eficiencia energética, como refrigeración líquida, para reducir el exceso de calor.
Uno de los nuevos chips de computadora, el Meta Scalable Video Processor (MSVP), se utiliza para procesar y transmitir video a los usuarios mientras se reducen los requisitos de energía. Bjorlin dijo que «no había nada disponible comercialmente» que pudiera manejar la tarea de procesar y entregar 4 mil millones de videos por día tan eficientemente como quería Meta.
El otro procesador es el primero de la familia de chips Meta Training and Inference Accelerator (MTIA) de la compañía destinados a ayudar con varias tareas específicas de IA. El nuevo chip MTIA maneja específicamente la «inferencia», que es cuando un modelo de IA ya entrenado hace una predicción o realiza una acción.
Bjorlin dijo que el nuevo chip de inferencia de IA ayuda a potenciar algunos de los algoritmos de recomendación de Meta que se utilizan para mostrar contenido y anuncios en las fuentes de noticias de las personas. Se negó a responder quién está fabricando el chip, pero una publicación de blog dijo que el procesador está «fabricado en el proceso TSMC de 7 nm», lo que indica que el gigante de chips Taiwan Semiconductor Manufacturing está produciendo la tecnología.
Dijo que Meta tiene una «hoja de ruta multigeneracional» para su familia de chips de IA que incluyen procesadores utilizados para la tarea de entrenar modelos de IA, pero se negó a ofrecer detalles más allá del nuevo chip de inferencia. Reuters informó anteriormente que Meta canceló un proyecto de chip de inferencia de IA y comenzó otro que se suponía que se implementaría alrededor de 2025, pero Bjorlin se negó a comentar sobre ese informe.
Debido a que Meta no está en el negocio de vender servicios de computación en la nube como compañías como Alphabet, la matriz de Google, o Microsoft, la compañía no se sintió obligada a hablar públicamente sobre sus proyectos internos de chips para centros de datos, dijo.
«Si miras lo que estamos compartiendo, nuestros primeros dos chips que desarrollamos, definitivamente te da una pequeña idea de lo que estamos haciendo internamente», dijo Bjorlin. «No hemos tenido que anunciar esto, y no necesitamos anunciar esto, pero ya sabes, el mundo está interesado».
El vicepresidente de ingeniería de Meta, Aparna Ramani, dijo que el nuevo hardware de la compañía fue desarrollado para funcionar de manera efectiva con su software PyTorch de cosecha propia, que se ha convertido en una de las herramientas más populares utilizadas por desarrolladores externos para crear aplicaciones de IA.
El nuevo hardware eventualmente se usará para impulsar tareas relacionadas con el metaverso, como la realidad virtual y la realidad aumentada, así como el floreciente campo de la IA generativa, que generalmente se refiere al software de IA que puede crear texto, imágenes y videos atractivos. .
Ramani también dijo que Meta ha desarrollado un asistente de codificación impulsado por inteligencia artificial generativa para los desarrolladores de la compañía para ayudarlos a crear y operar software más fácilmente. El nuevo asistente es similar a la herramienta GitHub Copilot de Microsoft que lanzó en 2021 con la ayuda de la startup de IA OpenAI.
Además, Meta dijo que completó la construcción de la segunda fase, o la construcción final, de su supercomputadora denominada Research SuperCluster (RSC), que la compañía detalló el año pasado. Meta utilizó la supercomputadora, que contiene 16.000 GPU Nvidia A100, para entrenar el modelo de lenguaje LLaMA de la empresa, entre otros usos.
Ramani dijo que Meta continúa actuando según su creencia de que debe contribuir a las tecnologías de código abierto y la investigación de IA para impulsar el campo de la tecnología. La compañía ha revelado que su modelo de lenguaje LLaMA más grande, LLaMA 65B, contiene 65 mil millones de parámetros y fue entrenado en 1,4 billones de tokens, que se refiere a los datos utilizados para el entrenamiento de IA.
Empresas como OpenAI y Google no han revelado públicamente métricas similares para sus modelos de lenguaje grande de la competencia, aunque CNBC informó esta semana que el modelo PaLM 2 de Google se entrenó en 3,6 billones de tokens y contiene 340 mil millones de parámetros.
A diferencia de otras empresas de tecnología, Meta lanzó su modelo de lenguaje LLaMA a los investigadores para que puedan aprender de la tecnología. Sin embargo, el modelo de lenguaje LlaMA luego se filtró al público en general, lo que llevó a muchos desarrolladores a crear aplicaciones que incorporaban la tecnología.
Ramani dijo que Meta «todavía está pensando en todas nuestras colaboraciones de código abierto y, ciertamente, quiero reiterar que nuestra filosofía sigue siendo ciencia abierta y colaboración cruzada».
Mirar: La IA es un gran impulsor del sentimiento para la gran tecnología