La Unión Europea está tomando medidas para criminalizar el uso de inteligencia artificial (IA) para generar imágenes de abuso sexual infantil y contenido falso. La Comisión Europea anunció que las imágenes generadas por IA y otras formas de deepfakes que representan abuso sexual infantil (ASI) pueden estar tipificadas como delito en la UE. Hay planes para actualizar la legislación existente para mantener el ritmo de los avances tecnológicos. El bloque europeo está preparado para garantizar que se convierta en un delito penal producir dicho contenido. Imágenes de abuso sexual infantil generadas por IA La UE cree que los niños son en gran medida inocentes y que la sociedad necesita protegerlos. La proliferación de imágenes de abuso sexual infantil generadas por IA ha generado serias preocupaciones. Las preocupaciones giran en torno a la posibilidad de que estas imágenes inunden Internet. Si bien las leyes existentes en los EE. UU., el Reino Unido y otros lugares consideran que la mayoría de estas imágenes son ilegales, las fuerzas del orden enfrentan desafíos para combatirlas. Se insta a la Unión Europea a fortalecer las leyes para facilitar la lucha contra los abusos generados por la IA. El objetivo es prevenir la revictimización de víctimas de abusos anteriores. Penalización del contenido generado por IA La UE se dispone a penalizar el intercambio de imágenes gráficas generadas por IA. Esto incluye imágenes de abuso sexual infantil, pornografía de venganza y contenido falso. Según Politico, este plan se materializará plenamente en ley a mediados de 2027. Esta decisión se produce a raíz de incidentes como la creación de imágenes gráficas falsas generadas por IA de una popular superestrella del pop, Taylor Swift, que circularon ampliamente en medios de comunicación social. La UE también ha propuesto convertir la transmisión en vivo de abuso sexual infantil en un nuevo delito penal. Además, el plan penalizará la posesión y el intercambio de “manuales de pedófilos”. Como parte de las medidas más amplias, la UE dice que apuntará a fortalecer la prevención de la ASI. La UE busca crear conciencia sobre los riesgos en línea y brindar apoyo a las víctimas. También quiere facilitar que las víctimas denuncien delitos y tal vez ofrecer compensación financiera por casos verificados de ASI. Antes de presentar la propuesta, el comité también llevó a cabo una evaluación de impacto. Concluyó que el aumento en el número de niños en línea y “los últimos desarrollos tecnológicos” crearon nuevas oportunidades para que se produjera la CSA. Las diferencias en los marcos legales de los estados miembros pueden obstaculizar la acción para combatir el abuso, por lo que la propuesta tiene como objetivo alentar a los estados miembros a invertir más en “crear conciencia” y “reducir la impunidad que impregna el abuso sexual y la explotación de niños en línea”. La UE espera mejorar los esfuerzos “limitados” actuales para prevenir la ASI y ayudar a las víctimas. Gizchina Noticias de la semana Legislación previa de la UE relacionada con la CSA En mayo de 2022, la UE presentó un borrador separado de legislación relacionada con la CSA. Su objetivo es establecer un marco que requeriría que los servicios digitales utilicen tecnología automatizada para detectar y denunciar abusos sexuales infantiles existentes o nuevos. También quiere que estos casos nuevos o existentes se informen rápidamente para tomar las medidas pertinentes. El programa de escaneo CSAM (Material de Abuso Sexual Infantil) ha resultado controvertido. Continúa dividiendo a los legisladores en el Parlamento y el Consejo de la UE. Esta división genera sospechas sobre la relación entre la Comisión Europea y los cabilderos de la tecnología de seguridad infantil. Menos de dos años después de que se propusiera el esquema de escaneo de información privada, las preocupaciones sobre los riesgos de los deepfakes y las imágenes generadas por IA también han aumentado drásticamente. Esto incluye preocupaciones de que la tecnología pueda usarse indebidamente para producir CSAM. También existe la preocupación de que el contenido falso pueda hacer que a las autoridades les resulte más difícil identificar a las víctimas reales. Por eso, el auge viral de la tecnología generada por IA está impulsando a los legisladores a revisar las reglas. Al igual que con el programa de escaneo CSAM, los colegisladores del Parlamento y el Consejo de la UE decidirán la forma final de la propuesta. Pero es probable que la propuesta represiva de la CSA de hoy sea mucho menos divisiva que el plan de escaneo de información. Por lo tanto, es más probable que este plan se apruebe mientras otro plan sigue estancado. Según la Comisión, una vez que se alcance un acuerdo sobre cómo modificar la actual directiva para combatir la CSA, ésta entrará en vigor 20 días después de su publicación en el Diario Oficial de la Unión Europea. Para entonces, el proyecto de ley proporcionará importantes garantías para la prevención del abuso sexual infantil causado por la IA y la protección de las víctimas. Implicaciones legales El uso de IA para producir material de abuso sexual infantil ha provocado debates sobre la legalidad de tales acciones. Casos recientes, como el arresto de una persona en España por utilizar software de imágenes de inteligencia artificial para generar material “muy falso” sobre abuso infantil, han provocado debates sobre el tratamiento legal de dicho material. Las leyes penales existentes contra la pornografía infantil se aplican al contenido generado por IA. Se están realizando esfuerzos para abordar las complejidades legales que rodean el uso de la IA con fines nefastos. Desafíos y soluciones La amplia disponibilidad de herramientas de inteligencia artificial ha facilitado la creación de contenido falso, incluidas imágenes de abuso sexual infantil. Esto ha presentado desafíos para las fuerzas del orden y los proveedores de tecnología a la hora de combatir la proliferación de dicho contenido. Se están realizando esfuerzos para desarrollar soluciones técnicas, como entrenar modelos de IA para identificar y bloquear imágenes AI CSA. Aunque estas soluciones conllevan su propio conjunto de desafíos y daños potenciales. Palabras finales La decisión de la UE de penalizar el uso de la IA para generar imágenes de abuso sexual infantil y contenido falso refleja la creciente preocupación sobre la posibilidad de que la IA sea utilizada indebidamente con fines nefastos. Esta decisión marca un paso significativo hacia la solución de estos problemas. Sin embargo, también destaca los desafíos legales y técnicos asociados con la lucha contra la proliferación de contenido falso y abusivo generado por IA. Descargo de responsabilidad: Es posible que algunas de las empresas de cuyos productos hablamos nos compensen, pero nuestros artículos y reseñas son siempre nuestras opiniones honestas. Para obtener más detalles, puede consultar nuestras pautas editoriales y conocer cómo utilizamos los enlaces de afiliados.

Source link