La legislación de la Unión Europea (UE) que establecería barreras para el uso y desarrollo de la tecnología de inteligencia artificial parece estar en un camino claro hacia la ratificación, ya que dos grupos clave de legisladores en el Parlamento de la UE aprobaron el martes un acuerdo provisional sobre las reglas propuestas. La Comisión de Libertades Civiles, Justicia y Asuntos de Interior (LIBE) y la Comisión de Mercado Interior y Protección del Consumidor (IMCO) del Parlamento aprobaron la Ley de IA con un «voto abrumadoramente favorable», poniendo las normas «en camino de convertirse en ley», Dragoș Tudorache , miembro del Parlamento de la UE y presidente del Comité Especial de la UE sobre IA, tuiteó en X, anteriormente Twitter. Las reglas, sobre las cuales el Parlamento de la UE votará formalmente en abril, requieren que las organizaciones y los desarrolladores evalúen las capacidades de la IA y las coloquen en uno de cuatro categorías de riesgo: riesgo mínimo, limitado, alto e inaceptable. La ley es la primera legislación gubernamental integral que supervisa cómo se desarrollará y utilizará la IA, y ha recibido aprobación y cautela por parte de los tecnólogos. «La prioridad del Parlamento es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes y rastreables. , no discriminatorio y respetuoso con el medio ambiente», dijo la UE al describir la legislación en línea. «Los sistemas de IA deben ser supervisados ​​por personas, en lugar de por automatización, para evitar resultados dañinos». Configurado para la simplicidad En esencia, la regulación es simple, dijo Nader Henein de Gartner, miembro de privacidad de la información, vicepresidente de investigación y protección de datos. privacidad. «Requiere que las organizaciones (y los desarrolladores) evalúen sus capacidades de IA y las coloquen en uno de los cuatro niveles definidos por la ley», dijo. «Dependiendo del nivel, hay diferentes responsabilidades que recaen en el desarrollador o en el implementador. «Sin embargo, algunos grupos de defensa e incluso un análisis del gobierno de EE. UU. han rechazado la Ley de IA. Digital Europe, un grupo de defensa que representa a las industrias digitales en todo el continente, emitió una declaración conjunta en noviembre antes de las últimas semanas de la ley. Las negociaciones advirtieron que una regulación excesiva podría obstaculizar la innovación y hacer que las nuevas empresas abandonen la región. El grupo instó a los legisladores a no «regular» a los nuevos actores de la IA en la UE «haciéndolos desaparecer» antes de que tengan siquiera una oportunidad. Henein argumentó que los mandatos de la ley «no suponen en modo alguno un obstáculo para la innovación. La innovación, por su naturaleza, encuentra una manera de trabajar dentro de los límites regulatorios y convertirla en una ventaja», dijo. La adopción de las reglas «debería ser sencilla» siempre que los desarrolladores y revendedores brinden a los clientes la información que necesitan para realizar una evaluación o «Hay que cumplir, dijo Henein. Aún así, un experto en tecnología dijo que algunas críticas sobre la naturaleza prescriptiva de la Ley de IA y el lenguaje vago son válidas, y su relevancia podría no durar porque a menudo es difícil que las regulaciones avancen al ritmo de la tecnología». «Hay algunas partes de la regulación que tienen mucho sentido, como la prohibición de la ‘vigilancia policial predictiva’ en la que se ordena a la policía perseguir a alguien sólo porque un sistema de inteligencia artificial se lo indica», dijo Jason Soroko, vicepresidente senior de producto de Sectigo. una empresa de gestión del ciclo de vida de los certificados. «Pero también hay partes de la regulación que podrían ser difíciles de interpretar y que podrían no ser duraderas, como regulaciones especiales para sistemas de inteligencia artificial más avanzados». enfrentan desafíos de cumplimiento en el proceso de descubrimiento a medida que construyen un catálogo de casos de uso de IA existentes y la posterior categorización de esos casos de uso en la estructura de niveles de la Ley, dijo Henein. «Muchas organizaciones piensan que son nuevas en la IA cuando, en realidad, hay «Hoy en día no hay casi ningún producto destacado que no tenga capacidades de inteligencia artificial», afirmó Henein. «Las herramientas de detección de malware y filtros de spam se basan en el aprendizaje automático desde hace más de una década, entran en la categoría de sistemas de inteligencia artificial de bajo riesgo y no requieren la debida diligencia». Si la UE vota para aprobar la ley en abril, como parece probable, otros países podrían seguir su ejemplo. Varias naciones (EE.UU., Reino Unido y Australia, entre ellas) ya han creado grupos liderados por gobiernos para supervisar el desarrollo de la IA; podrían seguir regulaciones más formales. Aún así, cualquier nueva regla probablemente solo se aplicará a los casos más extremos en los que la IA presenta un daño significativo a la humanidad o de otro tipo. Los casos en los que se utiliza de manera responsable e incluso presenta beneficios, como la productividad de los trabajadores (lo cual es cierto en el caso de los chatbots de IA generativa que se utilizan actualmente y que se basan en grandes modelos de lenguaje (LLM, por sus siglas en inglés) como ChatGPT de OpenAI, probablemente verán poca supervisión. «Lo que estamos viendo en ambos lados del Atlántico es la necesidad de restringir directamente ciertos casos de uso; estos caen bajo la categoría prohibida bajo la Ley de IA y presentan un daño grave», dijo Henein. Copyright © 2024 IDG Communications, Inc.

Source link