B. Bullets de resumen del valle: • El 2 de agosto de 2025, la segunda etapa de la Ley de AI de la UE entró en vigencia, incluidas las obligaciones para modelos de propósito general. • La Ley AI entró en vigor por primera vez en febrero de 2025, con el primer conjunto de aplicaciones integradas; La legislación sigue un enfoque escalonado con la última ola esperada para el 2 de agosto de 2027. Agosto de 2025 ha sido marcado por la aplicación de un nuevo conjunto de reglas como parte de la Ley de IA, la primera legislación de IA integral del mundo, que se está implementando en etapas graduales. Al igual que GDPR fue para la privacidad de los datos en la década de 2010, la Ley de IA será el plan global para el gobierno de la tecnología transformadora de la IA, en las próximas décadas. Las recientes noticias del último caso de acción legal, esta vez contra OpenAi, por los padres de Adam Raine, de 16 años, que terminó su vida después de meses de uso intensivo de ChatGPT, ha arrojado alivio el potencial de daño y la necesidad de regular la tecnología. La Ley AI sigue un enfoque de gestión de riesgos; Su objetivo es regular la transparencia y la responsabilidad de los sistemas de IA y sus desarrolladores. Aunque se promulgó en la ley en 2024, la primera ola de ejecución adecuada se implementó en febrero pasado (consulte la versión de GlobalData sobre la Ley de IA: la regulación histórica entra en vigencia) que cubre el «riesgo inaceptable», incluida las sistemas de IA considerados una clara amenaza para la seguridad social. La segunda ola, implementada este mes, cubre los modelos de IA de propósito general (GPAI) y posiblemente sea la más importante, al menos en términos de alcance. Se espera que los próximos pasos sigan en agosto de 2026 («sistemas de alto riesgo») y agosto de 2027 (pasos finales de implementación). A partir del 2 de agosto de 2025, los proveedores de GPAI deben cumplir con la transparencia y las obligaciones de derechos de autor al colocar sus modelos en el mercado de la UE. Esto se aplica no solo a las empresas basadas en la UE sino a cualquier organización con operaciones en la UE. Los modelos GPAI que ya están en el mercado antes del 2 de agosto de 2025 deben garantizar el cumplimiento antes del 2 de agosto de 2027. Para los efectos de la ley, los modelos GPAI incluyen aquellos capacitados con más de 10^23 operaciones de puntos flotantes (flop) y capaces de generar lenguaje (ya sea texto o audio), texto a imagen o texto a vida. Los proveedores de sistemas GPAI deben mantener la documentación técnica sobre el modelo, incluido un resumen suficientemente detallado de su corpus de capacitación. Además, deben implementar una política para cumplir con la ley de derechos de autor de la UE. Dentro del grupo de modelos GPAI hay un nivel especial considerado de «riesgo sistémico», modelos muy avanzados que solo se desarrollan un pequeño puñado de proveedores. Las empresas dentro de este nivel enfrentan obligaciones adicionales, por ejemplo, notifican a la Comisión Europea cuando desarrollan un modelo considerado con riesgo sistémico y toman medidas para garantizar la seguridad del modelo. La clasificación de las cuales los modelos plantean riesgos sistémicos pueden cambiar con el tiempo a medida que la tecnología evoluciona. Hay excepciones: la IA utilizada para la seguridad nacional, los militares y los propósitos de defensa está exento en la Ley. Algunos sistemas de código abierto también están fuera del alcance de la legislación, al igual que los modelos de IA desarrollados utilizando el código disponible públicamente. La Comisión Europea ha publicado una plantilla para ayudar a los proveedores a resumir los datos utilizados para capacitar a sus modelos, el código de práctica GPAI, desarrollado por expertos independientes como una herramienta voluntaria para que los proveedores de IA demuestren el cumplimiento de la Ley de IA. Los firmantes incluyen Amazon, Anthrope, Cohere, Google, IBM, Microsoft, Mistral AI, OpenAI y ServiceNow, pero algunas ausencias evidentes incluyen Meta (en el momento de la impresión). El código cubre las reglas de transparencia y derechos de autor que se aplican a todos los modelos GPAI, con reglas adicionales de seguridad para el nivel de riesgo sistémico. La Ley de IA ha generado críticas debido a su impacto desproporcionado en las nuevas empresas y las PYME, y algunos expertos argumentan que debe incluir excepciones para las tecnologías que aún no han tenido algunos controles en general y no tienen un amplio impacto o potencial de daño. Otros dicen que podría ralentizar el progreso entre las organizaciones europeas en el proceso de capacitación de sus modelos de IA, y que las reglas son confusas. En julio pasado, varios vestíbulos tecnológicos, incluida CCIA Europe, instaron a la UE a detener la implementación de la Ley, argumentando que el despliegue había sido demasiado apresurado, sin intervenir en las posibles consecuencias … ¿suena familiar? Sin embargo, se ha desarrollado con la colaboración de miles de partes interesadas en el sector privado, en un momento en que las empresas anhelan orientación regulatoria. También está introduciendo prácticas de seguridad estándar en toda la UE, en un período crítico de adopción. Está estableciendo un punto de referencia global para que otros sigan en un momento de gran agitación. Después de la Ley de IA, Estados Unidos y otros países les resultará cada vez más difícil continuar ignorando los llamados a una IA más responsable, un esfuerzo encomiable que hará historia.