xAI de Elon Musk ha anunciado planes para construir una supercomputadora destinada a mejorar las capacidades de Grok, un chatbot de IA generativa disponible en X a través de un modelo de suscripción. Esta información surgió de una presentación para inversionistas revisada por The Information.
Colaboración con Oracle y Nvidia
Se prevé que la construcción de esta supercomputadora costará miles de millones de dólares, lo que refleja el alto costo de las decenas de miles de Nvidia. Se requieren GPU H100. Esta importante inversión subraya la escala y la ambición de los planes de xAI. La supercomputadora servirá como columna vertebral para desarrollar modelos de lenguaje más sofisticados, mejorando las capacidades de Grok.
xAI está considerando una asociación con Oracle para desarrollar la supercomputadora planificada, que se espera que esté terminada a fines de 2025. El proyecto utilizará una configuración de GPU cuatro veces más grande que los clústeres más grandes actuales. Musk ha indicado que las versiones futuras de Grok requerirán más de 100.000 GPU H100, significativamente más que las 20.000 GPU utilizadas para entrenar Grok 2. El ambicioso proyecto ha sido comparado con las gigafábricas de Tesla, refiriéndose a él como una”gigafábrica de computación”. p>
Posición de mercado y características de Grok
Grok, aunque no es tan reconocido como ChatGPT de OpenAI, ofrece ventajas únicas. Es accesible en x.com pero requiere una tarifa de suscripción. Una de las características distintivas de Grok es su acceso directo a todas las publicaciones en X, que. Musk promueve como una alternativa a las fuentes de noticias tradicionales. A diferencia de OpenAI, que mantiene el control propietario sobre ChatGPT, xAI ha abierto los pesos y la arquitectura de Grok-1. La versión actual, Grok 1.5, lanzada en abril, puede procesar información visual como esta. como fotografías y diagramas además de texto.
Se espera que el desarrollo de una supercomputadora xAI tenga implicaciones significativas para la industria de la IA. Nvidia se beneficiará enormemente del aumento de la demanda de sus GPU H100. Además, se espera que esta iniciativa estimule la innovación en todo el sector, empujando a competidores como OpenAI y Google a mejorar sus modelos para seguir siendo competitivos. Sin embargo, la inmensa potencia computacional requerida genera preocupación sobre el consumo de energía. Queda por ver cómo abordará Musk estos desafíos ambientales, potencialmente mediante el uso de fuentes de energía renovables y esfuerzos para minimizar el uso de agua.