21 de septiembre de 2024Ravie LakshmananPrivacidad / Inteligencia artificial La Oficina del Comisionado de Información del Reino Unido (ICO) ha confirmado que la plataforma de redes sociales profesionales LinkedIn ha suspendido el procesamiento de datos de los usuarios en el país para entrenar sus modelos de inteligencia artificial (IA). «Nos complace que LinkedIn haya reflexionado sobre las preocupaciones que planteamos sobre su enfoque para entrenar modelos de IA generativos con información relacionada con sus usuarios del Reino Unido», dijo Stephen Almond, director ejecutivo de riesgo regulatorio. «Agradecemos la confirmación de LinkedIn de que ha suspendido dicho entrenamiento de modelos a la espera de un mayor compromiso con la ICO». Almond también dijo que la ICO tiene la intención de vigilar de cerca a las empresas que ofrecen capacidades de IA generativa, incluidas Microsoft y LinkedIn, para asegurarse de que cuentan con las salvaguardas adecuadas y toman medidas para proteger los derechos de información de los usuarios del Reino Unido. El desarrollo se produce después de que la empresa propiedad de Microsoft admitiera haber entrenado su propia IA con los datos de los usuarios sin buscar su consentimiento explícito como parte de una política de privacidad actualizada que entró en vigencia el 18 de septiembre de 2024, informó 404 Media. «En este momento, no estamos habilitando el entrenamiento para la IA generativa en datos de miembros del Espacio Económico Europeo, Suiza y el Reino Unido, y no proporcionaremos la configuración a los miembros de esas regiones hasta nuevo aviso», dijo Linked. La compañía también señaló en una sección de preguntas frecuentes separada que busca «minimizar los datos personales en los conjuntos de datos utilizados para entrenar los modelos, incluso mediante el uso de tecnologías de mejora de la privacidad para redactar o eliminar datos personales del conjunto de datos de entrenamiento». Los usuarios que residen fuera de Europa pueden optar por no participar en la práctica dirigiéndose a la sección «Privacidad de datos» en la configuración de la cuenta y desactivando la configuración «Datos para la mejora de la IA generativa». «Optar por no participar significa que LinkedIn y sus afiliados no usarán sus datos personales o contenido en LinkedIn para entrenar modelos en el futuro, pero no afecta el entrenamiento que ya se ha realizado», señaló LinkedIn. La decisión de LinkedIn de optar silenciosamente por que todos los usuarios entrenen sus modelos de IA se produce solo días después de que Meta reconociera que ha raspado datos de usuarios no privados para fines similares desde 2007. Desde entonces, la empresa de redes sociales ha reanudado el entrenamiento con datos de usuarios del Reino Unido. En agosto pasado, Zoom abandonó sus planes de usar el contenido de los clientes para entrenar modelos de IA después de que surgieran preocupaciones sobre cómo se podrían usar esos datos en respuesta a los cambios en los términos de servicio de la aplicación. El último desarrollo subraya el creciente escrutinio de la IA, específicamente en torno a cómo se podrían usar los datos y el contenido de las personas para entrenar grandes modelos de lenguaje de IA. También se produce cuando la Comisión Federal de Comercio de Estados Unidos (FTC) publicó un informe que básicamente decía que las grandes plataformas de transmisión de video y redes sociales han participado en una vasta vigilancia de los usuarios con controles de privacidad laxos y salvaguardas inadecuadas para niños y adolescentes. La información personal de los usuarios a menudo se combina con datos obtenidos de inteligencia artificial, píxeles de seguimiento y corredores de datos de terceros para crear perfiles de consumidores más completos antes de monetizarlos vendiéndolos a otros compradores dispuestos. «Las empresas recopilaron y pudieron retener indefinidamente grandes cantidades de datos, incluida información de corredores de datos, y sobre usuarios y no usuarios de sus plataformas», dijo la FTC, y agregó que sus prácticas de recopilación, minimización y retención de datos eran «lamentablemente inadecuadas». «Muchas empresas han compartido datos de forma masiva, lo que genera serias preocupaciones sobre la idoneidad de los controles y la supervisión del manejo de datos por parte de las empresas. Algunas empresas no eliminaron todos los datos de los usuarios en respuesta a las solicitudes de eliminación de los mismos». ¿Te ha parecido interesante este artículo? Síguenos en Twitter  y LinkedIn para leer más contenido exclusivo que publicamos.