ChatGPT ya controló un arma, pero lo detuvieron

OpenAI eliminó la cuenta de STS 3D, un usuario que construyó un dispositivo que podía responder a las consultas de ChatGPT para apuntar y disparar un rifle automático. El dispositivo se volvió viral después de un video en Reddit en el que se podía ver a su desarrollador leyendo comandos de disparo en voz alta para que luego un rifle empezara a apuntar y disparar a las paredes cercanas.

Para lograrlo, bastó con un entrenamiento simple para que ChatGPT recibiera un comando como “girar a la izquierda” y “girar a la derecha”, y comprendiera cómo traducirlo a un lenguaje legible por la máquina.

En una declaración a Futurism, OpenAI dijo que había visto el video y había cerrado esta cuenta por violar sus políticas. “Identificamos de manera proactiva esta violación de nuestras políticas y notificamos al desarrollador que cesara esta actividad antes de recibir su consulta”, dijo la compañía al medio.

OpenAI prohíbe el uso de sus productos para desarrollar o utilizar armas, o para “automatizar ciertos sistemas que pueden afectar la seguridad personal”.  Sin embargo, durante 2024, la compañía anunció una asociación con la empresa de tecnología de defensa Anduril, un fabricante de drones y misiles impulsados ​​por Inteligencia Artificial (IA), para crear sistemas que puedan defenderse de los ataques con drones

Lee también: El nuevo modelo de OpenAI supera el umbral de IA General, asegura Sam Altman

El potencial de automatizar armas letales es uno de los temores que han resaltado los críticos sobre la tecnología de IA como la desarrollada por OpenAI. 

Los modelos multimodales de la empresa son capaces de interpretar señales de audio y visuales para comprender el entorno de una persona y responder a preguntas sobre lo que está viendo. Ya se están desarrollando drones autónomos que podrían utilizarse en el campo de batalla para identificar y atacar objetivos sin la intervención de un humano.

Eso es un crimen de guerra y corre el riesgo de que los humanos se vuelvan complacientes, permitiendo que una IA tome decisiones y haciendo que sea difícil exigir responsabilidades a alguien.

Por su parte, los defensores de la IA en el campo de batalla afirman que hará que los soldados estén más seguros al permitirles mantenerse alejados de las líneas del frente y neutralizar objetivos, como arsenales de misiles, o realizar reconocimientos a distancia. 

Sin embargo, no es OpenAI la única herramienta que se utiliza para construir armas. Aunque la compañía hace lo propio para eliminar evitar estos usos, existe un gran número de modelos de código abierto que podrían emplearse para el mismo fin.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies