Mientras las organizaciones de todos los tamaños y sectores compiten por desarrollar, implementar o comprar productos y servicios basados ​​en IA y LLM, ¿qué es lo que deberían tener en cuenta desde una perspectiva regulatoria? Y si eres un desarrollador de software, ¿qué necesitas saber? Los enfoques regulatorios de la UE y los EE. UU. han consolidado, en conjunto, algunas de las áreas más confusas. En los EE. UU., hemos visto un nuevo requisito de que todas las agencias federales estadounidenses tengan un director de IA y presenten informes anuales que identifiquen todos los sistemas de IA en uso, cualquier riesgo asociado con ellos y cómo planean mitigar esos riesgos. Esto se hace eco de los requisitos de la UE de riesgo, prueba y supervisión similares antes de la implementación en casos de alto riesgo. Ambos han adoptado un enfoque basado en el riesgo, y la UE identifica específicamente la importancia de la «Seguridad por diseño y por defecto» para los «sistemas de IA de alto riesgo». En los EE. UU., la CISA establece que «El software debe ser seguro por diseño, y la inteligencia artificial no es una excepción».