La inteligencia artificial tiene el poder de revolucionar las industrias, impulsar el crecimiento económico y mejorar nuestra calidad de vida. Pero como cualquier tecnología poderosa y ampliamente disponible, la IA también plantea riesgos importantes. La legislación ahora vetada de California, SB 1047, la Ley de Innovación Segura para Modelos Fronterizos de Inteligencia Artificial, buscaba combatir los riesgos “catastróficos” de la IA regulando a los desarrolladores de modelos de IA. Si bien se debe elogiar a los legisladores por tratar de adelantarse a los peligros potenciales que plantea la IA, la SB 1047 fundamentalmente falló. Abordó los riesgos hipotéticos de la IA del futuro lejano en lugar del riesgo real de la IA actual, y se centró en organizaciones que son fáciles de regular en lugar de en los actores maliciosos que realmente causan daño. El resultado fue una ley que hizo poco para mejorar la seguridad real y corre el riesgo de sofocar la innovación y la inversión en IA y disminuir el liderazgo de Estados Unidos en IA. Sin embargo, no cabe duda de que la regulación de la IA está por llegar. Más allá de la Ley de IA de la UE y las leyes chinas sobre IA, 45 estados de EE. UU. introdujeron proyectos de ley sobre IA en 2024. Todas las empresas que deseen aprovechar la IA y el aprendizaje automático deben prepararse para una regulación adicional impulsando sus capacidades de gobernanza de la IA lo antes posible. Abordar riesgos improbables a costa de ignorar los peligros actuales Hoy en día, hay muchas formas reales en las que la IA puede utilizarse para infligir daño. Los ejemplos de deepfakes con fines de fraude, desinformación y pornografía no consentida ya se están volviendo comunes. Sin embargo, la SB 1047 parecía más preocupada por hipotéticos riesgos catastróficos de la IA que por las amenazas muy reales y presentes que la IA plantea hoy. La mayoría de los riesgos catastróficos previstos por la ley son ciencia ficción, como la capacidad de los modelos de IA para desarrollar nuevas armas nucleares o biológicas. No está claro cómo los modelos de IA actuales causarían estos eventos catastróficos, y es poco probable que estos modelos tengan tales capacidades en el futuro previsible, si es que alguna vez lo hacen. La SB 1047 también se centró en los desarrolladores comerciales de modelos de IA en lugar de aquellos que causan daño activamente utilizando la IA. Si bien existen formas básicas en que los desarrolladores de IA pueden garantizar que sus modelos sean seguros (por ejemplo, barreras de seguridad para generar discursos o imágenes dañinas o divulgar datos confidenciales), tienen poco control sobre cómo los usuarios intermedios aplican sus modelos de IA. Los desarrolladores de los gigantescos modelos genéricos de IA a los que se dirige la ley siempre estarán limitados en los pasos que pueden tomar para eliminar el riesgo de sus modelos para el número potencialmente infinito de casos de uso a los que se pueden aplicar sus modelos. Hacer que los desarrolladores de IA sean responsables de los riesgos posteriores es similar a hacer que los fabricantes de acero sean responsables de la seguridad de las armas o los automóviles que se fabrican con ella. En ambos casos, sólo se puede garantizar eficazmente la seguridad y mitigar el riesgo regulando los casos de uso posteriores, algo que esta ley no hizo. Además, la realidad es que los riesgos actuales de la IA, y los del futuro previsible, provienen de quienes explotan intencionalmente la IA para actividades ilegales. Estos actores operan al margen de la ley y es poco probable que cumplan con algún marco regulatorio, pero también es poco probable que utilicen los modelos comerciales de IA creados por los desarrolladores que la SB 1047 pretendía regular. ¿Por qué utilizar un modelo de IA comercial, en el que usted y sus actividades son rastreadas, cuando en su lugar puede utilizar modelos de IA de código abierto ampliamente disponibles? Un mosaico fragmentado de regulaciones ineficaces sobre IA Las leyes propuestas como la SB 1047 también contribuyen a un problema creciente: el mosaico de regulaciones inconsistentes sobre IA en todos los estados y municipios. Cuarenta y cinco estados introdujeron y 31 promulgaron algún tipo de regulación de la IA en 2024 (fuente). Este panorama regulatorio fracturado crea un entorno en el que navegar por el cumplimiento se convierte en un desafío costoso, particularmente para las nuevas empresas de IA que carecen de los recursos para cumplir con una gran cantidad de requisitos estatales contradictorios. Aún más peligroso es que el cambiante mosaico de regulaciones amenaza con socavar la seguridad que busca promover. Los actores malintencionados explotarán la incertidumbre y las diferencias en las regulaciones entre los estados y evadirán la jurisdicción de los reguladores estatales y municipales. En general, el entorno regulatorio fragmentado hará que las empresas sean más reticentes a implementar tecnologías de IA, ya que les preocupa la incertidumbre del cumplimiento de una gama cada vez más amplia de regulaciones. Retrasa la adopción de la IA por parte de las organizaciones, lo que conduce a una espiral de menor impacto y menos innovación, y potencialmente impulsa el desarrollo y la inversión en IA en otros lugares. Una regulación de la IA mal diseñada puede desperdiciar el liderazgo estadounidense en IA y restringir una tecnología que actualmente es nuestra mejor oportunidad para mejorar el crecimiento y nuestra calidad de vida. Un mejor enfoque: regulación federal unificada y adaptable Una solución mucho mejor para gestionar los riesgos de la IA sería un enfoque regulatorio federal unificado que sea adaptable, práctico y centrado en las amenazas del mundo real. Un marco de este tipo proporcionaría coherencia, reduciría los costos de cumplimiento y establecería salvaguardas que evolucionarían junto con las tecnologías de inteligencia artificial. El gobierno federal está en una posición única para crear un entorno regulatorio integral que respalde la innovación y al mismo tiempo proteja a la sociedad de los riesgos genuinos que plantea la IA. Un enfoque federal garantizaría estándares consistentes en todo el país, reduciendo las cargas de cumplimiento y permitiendo a los desarrolladores de IA centrarse en medidas de seguridad reales en lugar de navegar por un mosaico de regulaciones estatales contradictorias. Fundamentalmente, este enfoque debe ser dinámico, evolucionar junto con las tecnologías de inteligencia artificial y estar informado por los riesgos del mundo real que emergen. Las agencias federales son el mejor mecanismo disponible hoy en día para garantizar que la regulación se adapte a medida que evoluciona la tecnología y sus riesgos. Desarrollar resiliencia: lo que las organizaciones pueden hacer ahora Independientemente de cómo evolucione la regulación de la IA, hay mucho que las organizaciones pueden hacer ahora para reducir el riesgo de uso indebido y prepararse para el cumplimiento futuro. Los equipos avanzados de ciencia de datos en industrias fuertemente reguladas (como las finanzas, los seguros y la atención médica) ofrecen un modelo sobre cómo gobernar la IA de manera efectiva. Estos equipos han desarrollado procesos sólidos para gestionar el riesgo, garantizar el cumplimiento y maximizar el impacto de las tecnologías de IA. Las prácticas clave incluyen controlar el acceso a datos, infraestructura, códigos y modelos, probar y validar modelos de IA a lo largo de su ciclo de vida y garantizar la auditabilidad y reproducibilidad de los resultados de la IA. Estas medidas brindan transparencia y responsabilidad, lo que facilita que las empresas demuestren el cumplimiento de cualquier regulación futura. Además, las organizaciones que invierten en estas capacidades no sólo se protegen a sí mismas del riesgo regulatorio; se están posicionando como líderes en la adopción y el impacto de la IA. El peligro de las buenas intenciones Si bien la intención detrás de la SB 1047 era loable, su enfoque era defectuoso. Se centró en organizaciones que son fáciles de regular y en dónde reside el riesgo real. Al centrarse en amenazas futuras poco probables en lugar de los riesgos reales de hoy, imponer cargas indebidas a los desarrolladores y contribuir a un panorama regulatorio fragmentado, la SB 1047 amenazaba con socavar los objetivos mismos que buscaba alcanzar. La regulación eficaz de la IA debe ser específica, adaptable y coherente, y abordar los riesgos reales sin sofocar la innovación. Hay mucho que las organizaciones pueden hacer para reducir sus riesgos y cumplir con la regulación futura, pero una regulación inconsistente y mal diseñada obstaculizará la innovación e incluso aumentará el riesgo. La Ley de IA de la UE sirve como una cruda advertencia. Su amplio alcance, multas astronómicas y definiciones vagas crean muchos más riesgos para la prosperidad futura de los ciudadanos de la UE de los que limitan de manera realista a los actores que intentan causar daño con la IA. Lo más aterrador en la IA es, cada vez más, la propia regulación de la IA. Kjell Carlsson es el jefe de estrategia de IA en Domino Data Lab, donde asesora a las organizaciones sobre cómo ampliar el impacto con la IA. Anteriormente, cubrió la IA como analista principal en Forrester Research, donde asesoró a líderes sobre temas que van desde visión por computadora, MLOps, AutoML e inteligencia de conversación hasta tecnologías de IA de próxima generación. Carlsson también es el presentador del podcast Data Science Leaders. Recibió su doctorado. de la Universidad de Harvard. — Generative AI Insights proporciona un lugar para que los líderes tecnológicos, incluidos proveedores y otros contribuyentes externos, exploren y discutan los desafíos y oportunidades de la inteligencia artificial generativa. La selección es amplia, desde análisis profundos de tecnología hasta estudios de casos y opiniones de expertos, pero también subjetiva, basada en nuestro juicio sobre qué temas y tratamientos servirán mejor a la audiencia técnicamente sofisticada de InfoWorld. InfoWorld no acepta garantías de marketing para su publicación y se reserva el derecho de editar todo el contenido aportado. Póngase en contacto con doug_dineley@foundryco.com.