La SB 1047 de California es un proyecto de ley que impone responsabilidad a los desarrolladores de IA y acaba de ser votada en la asamblea estatal. El siguiente paso sería pasar al escritorio del gobernador para que se firme como ley o se rechace y se envíe de nuevo para más votación. Todos deberíamos esperar que esto último suceda porque firmar este proyecto de ley no resuelve ninguno de los problemas de la IA y, de hecho, empeoraría los problemas que pretende solucionar mediante la regulación. Android & Chill (Crédito de la imagen: Future) Android & Chill, una de las columnas de tecnología más antiguas de la web, es su discusión de los sábados sobre Android, Google y todo lo relacionado con la tecnología. La SB 1047 no es completamente mala. Cosas como obligar a las empresas a implementar protecciones de seguridad razonables o una forma de cerrar cualquier capacidad remota cuando surge un problema son grandes ideas. Sin embargo, las disposiciones de responsabilidad corporativa y las definiciones vagas de daño deberían detener el proyecto de ley hasta que se realicen algunos cambios. Se pueden hacer cosas terribles con la IA. No lo niego, y creo que debe haber algún tipo de supervisión regulatoria para monitorear sus capacidades y las barreras de seguridad de su uso. Las empresas que desarrollan IA deben hacer todo lo posible para evitar que los usuarios hagan algo ilegal con ella, pero con la IA al alcance de la mano en su teléfono, la gente encontrará formas de hacerlo de todos modos. Cuando las personas inevitablemente encuentran formas de eludir esas pautas, esas personas deben ser responsabilizadas, no las mentes que desarrollaron el software. No hay razón para que no se puedan crear leyes para responsabilizar a las personas por las cosas que hacen y esas leyes deben aplicarse con el mismo entusiasmo que las leyes existentes. (Crédito de la imagen: OpenAI)Lo que intento decir educadamente es que leyes como esta son tontas. Todas las leyes, incluso las que te pueden gustar, que responsabilizan a las empresas que crean bienes legales y beneficiosos, físicos o digitales, por las acciones de las personas que usan sus servicios son tontas. Eso significa que responsabilizar a Google o Meta por el mal uso de la IA es tan tonto como responsabilizar a Smith & Wesson por las cosas que hace la gente. Las leyes y regulaciones nunca deberían tratar sobre lo que nos hace sentir cómodos. En cambio, deberían existir para poner la responsabilidad donde corresponde y hacer que los criminales respondan por sus acciones. La IA puede usarse para hacer cosas despreciables como fraudes y otros delitos financieros, así como delitos sociales como crear imágenes falsas de personas haciendo algo que nunca hicieron. También puede hacer grandes cosas como detectar el cáncer, ayudar a crear medicamentos que salvan vidas y hacer que nuestras carreteras sean más seguras. Crear una ley que haga responsables a los desarrolladores de IA sofocará esas innovaciones, especialmente el desarrollo de IA de código abierto donde no hay miles de millones de capital de inversión fluyendo como el vino. Cada nueva idea o cambio de los métodos existentes significa que un equipo de profesionales legales tendrá que revisarlos, asegurándose de que las empresas detrás de estos proyectos no sean demandadas una vez que alguien haga algo malo con ellos, no si alguien hace algo malo, sino cuándo. Obtenga las últimas noticias de Android Central, su compañero de confianza en el mundo de AndroidNinguna empresa va a trasladar su sede fuera de California ni bloquear el uso de sus productos en California. Simplemente tendrán que gastar dinero que podría usarse para promover la investigación y el desarrollo en otras áreas, lo que generará mayores costos para el consumidor o menos investigación y desarrollo de productos. El dinero no crece en los árboles ni siquiera para las empresas con capitalizaciones de mercado de billones de dólares. (Crédito de la imagen: Mozilla) Por eso, casi todas las empresas que están a la vanguardia del desarrollo de la IA están en contra de este proyecto de ley y están instando al gobernador Newsom a vetarlo tal como está ahora. Naturalmente, se esperaría que algunas organizaciones con ánimo de lucro como Google o Meta se manifestaran en contra de este proyecto de ley, pero los «buenos» de la tecnología, como Mozilla, también están en contra de él tal como está escrito. La IA necesita regulación. Odio ver a un gobierno intervenir en cualquier industria y crear kilómetros de burocracia en un intento de resolver problemas, pero algunas situaciones lo requieren. Alguien tiene que intentar cuidar de los ciudadanos, incluso si tiene que ser un gobierno lleno de partidismo y funcionarios tecnófobos. En su caso, simplemente no hay una mejor solución. Sin embargo, debe haber una forma nacional de supervisar la industria, construida con la retroalimentación de personas que entienden la tecnología y no tienen ningún interés financiero. California, Maryland o Massachusetts, la implementación de regulaciones fragmentadas solo empeora el problema, no lo mejora. La IA no va a desaparecer, y todo lo que esté regulado en Estados Unidos seguirá existiendo en otros países y seguirá estando ampliamente disponible para quienes quieran hacer un mal uso de él. Apple no es responsable de actividades delictivas cometidas con una MacBook. Stanley no es responsable de agresiones cometidas con un martillo. Google, Meta u OpenAI no son responsables del mal uso que las personas hagan de sus productos de IA.