Superalineación muerta

Excélsior Paul Lara

Cuando las mentes más importantes del mundo en seguridad de inteligencia artificial dicen que la empresa líder del mundo en este desarrollo tecnológico no está en la trayectoria correcta, todos deberíamos tener motivos para preocuparnos.

La semana pasada, luego de que Open AI presentara ChatGPT 4o, el equipo de superalineación de la empresa, aquellos que se encargan de velar por la seguridad de la IA y que sus preceptos y algoritmos con los que está siendo entrenada se ajusten éticamente a los valores humanos, que beneficien a la sociedad y no la ponga en riesgo, renunciaron a esta empresa.

Sam Altman, el director ejecutivo de OpenAI, ha ido perdiendo a sus investigadores más centrados en la seguridad desde el año pasado. Ilya Sutskever y Jan Leike anunciaron el pasado martes su salida de la firma creadora de ChatGPT. Eran los líderes del equipo de superalineación de la empresa.

Aunque para los que no entienden muy bien cómo funciona la IA a profundidad y cuáles son sus verdaderos avances, la salida de este equipo de superalineación podría suponer que vieron algo horrible, como un sistema de inteligencia artificial que podría destruir a la humanidad y que se está cerca de la IA General (risas), lo cierto es que si uno ha seguido la saga desde la pasada destitución de Altman al frente de Open AI, entenderá que la confianza se ha perdido, pues la compañía se ha estado vendiendo al mejor postor (Microsoft y otras que compran sus herramientas o llegan a acuerdos de uso de esta tecnología en temas bélicos o de seguridad que violan los derechos humanos) y que algunos directivos ya gozan de las mieles económicas de las ventas que tiene una empresa que se dice que trabaja sin fines de lucro y que sólo recibe dinero como apoyo a sus investigaciones, engañando a las autoridades de su país (¿o no?).

Según fuentes de la compañía, los empleados preocupados por la seguridad han perdido la confianza en él. No muchos empleados están dispuestos a hablar de esto públicamente. Esto se debe en parte a que OpenAI es conocido por lograr que sus trabajadores firmen acuerdos de desvinculación con disposiciones de no menosprecio al momento de irse. Si se niega a firmar uno, renuncia a su capital social en la empresa, lo que significa que potencialmente perderá millones de dólares.

Un antiguo empleado se negó a firmar el acuerdo de desvinculación para poder criticar libremente a la empresa. Daniel Kokotajlo, quien se unió a OpenAI en 2022, con la esperanza de orientarlo hacia una implementación segura de la IA, trabajó en el equipo de gobernanza, hasta que renunció el mes pasado.

Él explicó que OpenAI está entrenando sistemas de IA cada vez más potentes, con el objetivo de superar eventualmente la inteligencia humana en todos los ámbitos. “Esto podría ser lo mejor que le ha pasado a la humanidad, pero también podría ser peor si no procedemos con cuidado”, dijo Kokotajlo esta semana.

¿Por qué el equipo de seguridad de OpenAI empezó a desconfiar de Sam Altman? Si recuerdan, en noviembre pasado, Sutskever, trabajando junto con la junta directiva de OpenAI, intentó despedir a Altman. La junta dijo que “no era consistentemente sincero en sus comunicaciones”. Traducción: no confiamos en él.

Altman, al ser despedido, había revelado algo sobre su carácter: su amenaza de vaciar OpenAI a menos que la junta lo volviera a contratar, y su insistencia en llenar la junta con nuevos miembros sesgados a su favor, mostraban una determinación de mantenerse en el poder y evitar futuros controles sobre ello. Antiguos colegas y empleados lo describen como un manipulador que habla con ambos lados de la boca, alguien que afirma, por ejemplo, que quiere priorizar la seguridad, pero lo contradice en su comportamiento.

Altman ha estado recaudando fondos con regímenes autocráticos como Arabia Saudita para poder crear una nueva empresa de fabricación de chips de IA, lo que le daría una enorme cantidad de los codiciados recursos necesarios para construir IA de vanguardia. Esto fue alarmante para los empleados preocupados por la seguridad. Si Altman realmente se preocupaba por construir e implementar IA de la manera más segura posible, ¿por qué parecía estar en una carrera loca para acumular tantos chips como fuera posible, lo que sólo aceleraría la tecnología?

De hecho, ¿por qué estaba asumiendo el riesgo de seguridad de trabajar con regímenes que podrían utilizar la IA para potenciar la vigilancia digital o los abusos de los derechos humanos? Para los empleados, todo esto llevó a una pérdida gradual de la creencia de que cuando OpenAI dice que va a hacer algo o dice que valora algo, eso no es realmente cierto.