Altman y Musk chocan otra vez: cofundador de OpenAI califica “ridícula” la idea de Centros de Datos espaciales

Sam Altman, CEO y cofundador de OpenAI, ha calificado de “ridícula” la propuesta de construir Centros de Datos en el espacio, una idea que recientemente ha ganado popularidad entre figuras como Elon Musk y Jeff Bezos. En declaraciones recientes a The Indian Express, Altman argumentó que los costos de lanzamiento y los desafíos técnicos hacen inviable esta visión en el corto plazo.

“Honestamente, creo que la idea de poner Centros de Datos en el espacio con el panorama actual es ridícula”, afirmó Altman, durante la conferencia realizada por el medio indio. “Si simplemente haces las matemáticas básicas de los costos de lanzamiento en relación con el costo de la energía que podemos generar en la Tierra, sin mencionar cómo vas a reparar una GPU averiada en el espacio, y se rompen mucho todavía, desafortunadamente no estamos ahí todavía”, agregó.

El mes pasado, Musk anunció que SpaceX realizaría la compra de xAI, su compañía dedicada al desarrollo de IA. Según el polémico empresario, la fusión de ambas empresas permitiría el lanzamiento de Centros de Datos espaciales, ya que al haber siempre sol en el espacio, se resolvería la problemática de acceso a la energía eléctrica en la Tierra.

Al anunciar esta fusión, el empresario presentó algunas cuentas sueltas para realizar su ambicioso plan, como la necesidad de lanzar 200 toneladas de equipo cada hora para generar energía por 100 GW al año. Este plan depende en gran medida de los avances en sus nuevos cohetes espaciales reutilizables que permitan reducir drásticamente el costo por lanzamiento.

Altman reconoció que el espacio podría tener sentido eventualmente para ciertas aplicaciones de IA, pero enfatizó que “los Centros de Datos orbitales no son algo que vaya a importar a escala esta década“.

Esta no fue la única declaración polémica que hizo Altman. Durante la misma entrevista, el directivo defendió el consumo energético de los servicios de IA, al señalar que las críticas se basan en ideas “completamente falsas” y “totalmente insanas”, además de que es injusto comparar su consumo de recursos frente a las de los humanos.

Específicamente, rechaza afirmaciones de que una consulta individual de ChatGPT consume 17 galones de agua y el equivalente a 1.5 cargas de batería de iPhone. El directivo aseguró que existen tecnologías modernas de enfriamiento que permiten mantener bajo control la temperatura y el uso de recursos vitales como el agua.

Sin embargo, el directivo dio un paso más al señalar que también es injusto equiparar el consumo energético entre un cerebro humano y una computadora para IA, en relación a los comentarios hechos por Bill Gates, quien aseguró que el primero sigue siendo más eficiente.

“Una de las cosas que siempre resulta injusta en esta comparación es que se habla de cuánta energía se necesita para entrenar un modelo de IA (…). Pero también se necesita mucha energía para entrenar a un humano”, dijo. “Se necesitan unos 20 años de vida, y toda la comida que se consume antes de ese tiempo, para volverse inteligente”.

En ese sentido, consideró que una comparación más justa sería medir cuánta energía consume un modelo de IA para responder una pregunta, después de que ha sido entrenado.

Un estudio de Epoch del año pasado encontró que una consulta a ChatGPT consume aproximadamente 0.3 vatios/hora, un nivel relativamente bajo respecto a muchos electrodomésticos, y significativamente más bajo respecto a la creencia popular. Sin embargo, también se debe considerar que en su conjunto la IA tiene un impacto más amplio en el consumo de recursos, estimando que al 2024 se consumieron 460 teravatios hora (TWh) de electricidad en los Centros de Datos.