Empresas destinan 10 millones de dólares para hacer más segura la Inteligencia Artificial

El Fondo de Seguridad de la Inteligencia Artificial financiará a investigadores independientes para explorar y comprender cómo mitigar los posibles impactos negativos de los modelos de IA más sofisticados.

Las principales compañías tecnológicas de Inteligencia Artificial (IA) anunciaron la creación de un fondo de 10 millones de dólares dedicado a apoyar la investigación de la seguridad en el desarrollo de la IA.

La iniciativa viene del grupo Foro de Modelos de Frontera (Frontier Model Forum), fundado en julio por Google, Microsoft, Open AI y Anthropic. La agrupación tiene como objetivo garantizar el desarrollo responsable de modelos avanzados de IA y prevenir su uso perjudicial en la sociedad.

El fondo está destinado para apoyar a investigadores independientes a evaluar los modelos de IA más potentes, en busca de riesgos potenciales. Este fondo es parte de los compromisos adquiridos por las empresas miembros del Foro con la Casa Blanca para facilitar la detección de vulnerabilidades en sistemas de IA.

El Foro considera que la financiación a investigadores externos les ayudará a elevar los estándares de seguridad y protección de los modelos de IA generativos más sofisticados, abordando los impactos negativos que pueden surgir sin el conocimiento de las empresas que los crean.

La cifra de financiación inicial para este fondo parece insuficiente en comparación con las inversiones de miles de millones de dólares que estas empresas han realizado en el campo de la IA. Microsoft invirtió 10 mil millones de dólares en Open AI, mientras que Google ha invertido al menos 400 millones de dólares en Anthropic.

La organización también aprovechó para anunciar el nombramiento de Chris Meserole como su primer director ejecutivo. Meserole, es un experto en política tecnológica, gobernanza y seguridad de las tecnologías emergentes. Anteriormente se desempeñó como  

Director de la iniciativa de Inteligencia Artificial y Tecnología Emergente en Brookings Institution.

“Los modelos de IA más potentes son muy prometedores para la sociedad, pero para aprovechar su potencial necesitamos comprender mejor cómo desarrollarlos y evaluarlos de forma segura. Estoy entusiasmado de asumir ese desafío”, comentó Meserole.