El principal regulador de privacidad de Google en la Unión Europea ha abierto una investigación para determinar si ha cumplido o no con las leyes de protección de datos del bloque en relación con el uso de la información de las personas para entrenar la IA generativa. En concreto, está investigando si el gigante tecnológico necesitaba realizar una evaluación de impacto de la protección de datos (EIPD) para considerar de forma proactiva los riesgos que sus tecnologías de IA podrían suponer para los derechos y libertades de las personas cuya información se utilizó para entrenar los modelos. Las herramientas de IA generativa son famosas por producir falsedades que parecen plausibles. Esa tendencia, combinada con la capacidad de proporcionar información personal a pedido, crea un gran riesgo legal para sus creadores. La Comisión de Protección de Datos de Irlanda (DPC), que supervisa el cumplimiento de Google con el Reglamento General de Protección de Datos (RGPD) del bloque, tiene poderes para imponer multas de hasta el 4% de la facturación anual global de Alphabet (la entidad matriz de Google) por cualquier infracción confirmada. Google ha desarrollado varias herramientas de IA generativa, incluida una familia completa de modelos de lenguaje grandes (LLM) de propósito general que ha denominado Gemini (anteriormente Bard). Utiliza la tecnología para impulsar chatbots de IA, incluso para mejorar la búsqueda web. Detrás de estas herramientas de IA orientadas al consumidor se encuentra un LLM de Google llamado PaLM2, que lanzó el año pasado en su conferencia de desarrolladores I/O. Cómo desarrolló Google este modelo de IA fundamental es lo que la DPC irlandesa dice que está investigando, en virtud del artículo 110 de la Ley de Protección de Datos de Irlanda de 2018, que transpuso el RGPD a la legislación nacional. El entrenamiento de los modelos GenAI normalmente requiere grandes cantidades de datos, y los tipos de información que han adquirido los creadores de LLM, así como cómo y dónde la obtuvieron, están siendo cada vez más examinados en relación con una serie de cuestiones legales, incluidos los derechos de autor y la privacidad. En este último caso, la información utilizada como forraje para el entrenamiento de IA que contiene la información personal de los ciudadanos de la UE está sujeta a las normas de protección de datos del bloque, ya sea que se haya extraído de Internet público o se haya adquirido directamente de los usuarios. Por eso, varias empresas de LLM ya han tenido que hacer frente a cuestiones relacionadas con el cumplimiento de la privacidad (y a la aplicación de la normativa GDPR), como OpenAI, el creador de GPT (y ChatGPT), y Meta, que desarrolla el modelo de IA Llama. X, propiedad de Elon Musk, también ha recibido quejas relacionadas con la normativa GDPR y ha provocado la ira de la DPC por el uso de los datos de las personas para el entrenamiento de la IA, lo que ha dado lugar a un proceso judicial y a un compromiso por parte de X de limitar su procesamiento de datos, pero sin ninguna sanción. Aunque X podría enfrentarse a una sanción GDPR si la DPC determina que el procesamiento de los datos de los usuarios para entrenar a su herramienta de IA Grok ha infringido el régimen. La investigación de la evaluación de impacto de la protección de datos de la DPC sobre GenAI de Google es la última medida regulatoria en esta área. “La investigación legal se refiere a la cuestión de si Google ha cumplido con las obligaciones que pudiera haber tenido de realizar una evaluación, de conformidad con el artículo 35 del Reglamento General de Protección de Datos (Evaluación de Impacto de la Protección de Datos), antes de participar en el procesamiento de los datos personales de los interesados ​​de la UE/EEE asociados con el desarrollo de su modelo de IA fundacional, Pathways Language Model 2 (PaLM 2)”, escribió el DPC en un comunicado de prensa. Señala que una EIPD puede ser de “importancia crucial para garantizar que los derechos y libertades fundamentales de las personas se consideren y protejan adecuadamente cuando es probable que el procesamiento de datos personales resulte en un alto riesgo”. “Esta investigación legal forma parte de los esfuerzos más amplios del DPC, que trabaja en conjunto con su Oficina de Protección de Datos de la UE/EEE [European Economic Area] “Los reguladores homólogos de la UE y el EEE deben trabajar juntos para regular el procesamiento de datos personales de los interesados ​​de la UE y el EEE en el desarrollo de modelos y sistemas de IA”, añadió la DPC, haciendo referencia a los esfuerzos en curso de la red de encargados de hacer cumplir el RGPD del bloque para alcanzar algún tipo de consenso sobre la mejor manera de aplicar la ley de privacidad en las herramientas GenAI. Se ha contactado a Google para obtener una respuesta a la consulta de la DPC.