Noyb, el Centro Europeo para los Derechos Digitales con sede en Austria, ha presentado una queja contra OpenAI ante la autoridad de protección de datos (DSB) de su país de origen. La organización sin fines de lucro acusó a la compañía de inteligencia artificial de no garantizar la exactitud de los datos personales proporcionados por ChatGPT, según un comunicado publicado el 29 de abril. Noyb dijo que OpenAI era consciente de que su chatbot impulsado por inteligencia artificial había proporcionado a sus usuarios información personal falsa. información durante meses, pero no ha logrado abordar el problema. “OpenAI admite abiertamente que no puede corregir información incorrecta en ChatGPT. Además, la empresa no puede decir de dónde provienen los datos o qué datos almacena ChatGPT sobre personas individuales”, indicó Noyb. “La empresa es muy consciente de este problema, pero no parece importarle. En cambio, OpenAI simplemente argumenta que ‘la precisión fáctica en grandes modelos de lenguaje (LLM) sigue siendo un área de investigación activa’”. Noyb afirmó que estas fallas significan que OpenAI está infringiendo el Reglamento General de Protección de Datos (GDPR) de la UE. En su denuncia, la organización sin fines de lucro solicitó al DSB que llevara a cabo las siguientes acciones: Investigar el procesamiento de datos de OpenAI y las medidas tomadas para garantizar la exactitud de los datos personales procesados ​​en el contexto de ChatGPT. Obligar a la empresa de inteligencia artificial a cumplir con la solicitud de acceso del denunciante. alinear su procesamiento con el RGPD Imponer una multa para garantizar el cumplimiento futuro Maartje de Graaf, abogado de protección de datos de Noyb, comentó en una declaración pública: “Está claro que las empresas actualmente no pueden hacer que chatbots como ChatGPT cumplan con la legislación de la UE. al procesar datos sobre individuos. Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología debe cumplir con los requisitos legales y no al revés”. El procesamiento de datos personales falsos es ilegal según el RGPD Noyb explicó que, aunque la información inexacta puede ser tolerable para ciertos usos (cuando un estudiante usa ChatGPT para ayudarlo con su tarea, por ejemplo), se vuelve ilegal en la UE cuando los datos inexactos son información personal. “Desde 1995, la legislación de la UE exige que los datos personales sean exactos. Actualmente, esto está consagrado en el artículo 5 del RGPD”, argumentó la organización sin fines de lucro. Según el mismo reglamento, el artículo 16 del RGPD otorga a los ciudadanos de la UE el derecho de rectificación si los datos son inexactos. También pueden solicitar que se elimine la información falsa. Finalmente, según el “derecho de acceso” del artículo 15 del RGPD, las empresas deben poder mostrar qué datos tienen sobre las personas y cuáles son sus fuentes. Noyb citó un ejemplo de una figura pública que requirió repetidamente a OpenAI que rectificara o borrara la fecha de nacimiento falsa que ChatGPT proporcionó sobre ellos, pero sus esfuerzos fueron en vano. “Es claramente posible mantener registros de los datos de entrenamiento utilizados, al menos tener una idea sobre las fuentes de información. Parece que con cada ‘innovación’ otro grupo de empresas piensa que sus productos no tienen por qué cumplir la ley”, afirmó De Graaf. Los esfuerzos anteriores de varias autoridades de protección de datos de la UE han sido «infructuosos», señaló Noyb. Noyb fue fundada en 2017 por el activista austriaco de privacidad Max Schrems, quien ha estado luchando contra los abusos de privacidad de datos desde principios de la década de 2010.