OpenAI podría tener problemas debido a las alucinaciones de ChatGPT sobre las personas

Gizmodo

OpenAI está en escrutinio en la Unión Europea otra vez — esta vez terminó Las alucinaciones de ChatGPT sobre personas.

Un grupo sin fines de lucro que defiende los derechos de la privacidad llamado noyb presentó una queja el lunes ante la Autoridad de Protección de Datos de Austria (DPA) contra la empresa de inteligencia artificial en en nombre de un individuo por su incapacidad para corregir la información generada por ChatGPT sobre las personas.

Aunque alucinaciones, o la tendencia de modelos en lenguaje grande (LLM) como ChatGPT a inventar información falsa o sin sentido, son comunes, los centros de queja de noyb sobre el Reglamento General de Protección de Datos de la UE (GDPR). regula cómo los datos personales de las personas del bloque se recoge y almacena.

A pesar de los requisitos del GDPR, “OpenAI admite abiertamente que no puede corregir información incorrecta en ChatGPT”, dijo noyb en una declaración, agregando que la empresa tampoco “puede decir de dónde vienen los datos o qué datos ChatGPT almacena sobre personas individuales , y que es “muy consciente de este problema, pero no parece importarle”.

Leer más.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies