Si bien la inteligencia artificial apareció en los titulares con ChatGPT, entre bastidores, la tecnología ha invadido silenciosamente la vida cotidiana: examinando currículums laborales, solicitudes de alquiler de apartamentos e incluso determinando la atención médica en algunos casos. Si bien se ha descubierto que varios sistemas de IA discriminan, inclinando la balanza a favor de determinadas razas, géneros o ingresos, existe escasa supervisión gubernamental. Los legisladores de al menos siete estados están adoptando grandes cambios legislativos para regular el sesgo en la inteligencia artificial, llenando un vacío dejado por la inacción del Congreso. Estas propuestas son algunos de los primeros pasos en una discusión de décadas sobre cómo equilibrar los beneficios de esta nueva y nebulosa tecnología con los riesgos ampliamente documentados. «De hecho, la IA afecta cada parte de tu vida, lo sepas o no», dijo Suresh Venkatasubramanian, profesor de la Universidad de Brown y coautor del Proyecto de la Casa Blanca para una Declaración de Derechos de la IA. “Ahora, no te importaría si todos funcionaran bien. Pero no es así”. El éxito o el fracaso dependerán de que los legisladores resuelvan problemas complejos mientras negocian con una industria que vale cientos de miles de millones de dólares y crece a una velocidad que se mide mejor en años luz. El año pasado, sólo alrededor de una docena de los casi 200 proyectos de ley relacionados con la IA presentados en las cámaras estatales se convirtieron en ley, según BSA The Software Alliance, que aboga en nombre de las empresas de software. Esos proyectos de ley, junto con los más de 400 proyectos de ley relacionados con la IA que se están debatiendo este año, tenían como objetivo en gran medida regular porciones más pequeñas de la IA. Eso incluye casi 200 dirigidos a deepfakes, incluidas propuestas para prohibir los deepfakes pornográficos, como los de Taylor Swift que inundaron las redes sociales. Otros están tratando de controlar los chatbots, como ChatGPT, para asegurarse de que no den instrucciones para fabricar una bomba, por ejemplo. Estos son independientes de los siete proyectos de ley estatales que se aplicarían en todas las industrias para regular la discriminación por IA, uno de los problemas más perversos y complejos de la tecnología, que se debaten desde California hasta Connecticut. Quienes estudian la tendencia de la IA a discriminar dicen que los estados ya están atrasados en el establecimiento de barreras de seguridad. El uso de la IA para tomar decisiones importantes (lo que los proyectos de ley llaman “herramientas de decisión automatizadas”) es generalizado pero en gran medida oculto. Se estima que hasta el 83% de los empleadores utilizan algoritmos para ayudar en la contratación; eso es el 99% para las empresas Fortune 500, según la Comisión de Igualdad de Oportunidades en el Empleo. Sin embargo, la mayoría de los estadounidenses no son conscientes de que se están utilizando estas herramientas, según muestran las encuestas de Pew Research, y mucho menos de si los sistemas están sesgados. Una IA puede aprender prejuicios a través de los datos con los que está entrenada, generalmente datos históricos que pueden contener un caballo de Troya de discriminación pasada. Amazon abandonó su proyecto de algoritmo de contratación después de que se descubrió que favorecía a los solicitantes masculinos hace casi una década. La IA fue entrenada para evaluar nuevos currículums aprendiendo de currículums anteriores, en su mayoría de solicitantes masculinos. Si bien el algoritmo no conocía los géneros de los solicitantes, aun así degradó los currículums con la palabra «mujeres» o que enumeraban universidades para mujeres, en parte porque no estaban representadas en los datos históricos de los que aprendió. «Si se permite que la IA aprenda de las decisiones que los gerentes existentes han tomado históricamente, y si esas decisiones históricamente han favorecido a algunas personas y desfavorecido a otras, entonces eso es lo que la tecnología aprenderá», dijo Christine Webber, abogada en una demanda colectiva. demanda que alegaba que un sistema de inteligencia artificial que calificaba a los solicitantes de alquiler discriminaba a aquellos que eran negros o hispanos. Los documentos judiciales describen que una de las demandantes de la demanda, Mary Louis, una mujer negra, solicitó alquilar un apartamento en Massachusetts y recibió una respuesta críptica: «El servicio de terceros que utilizamos para evaluar a todos los posibles inquilinos le ha negado el alquiler». Cuando Louis presentó dos referencias de propietarios para demostrar que había pagado el alquiler anticipadamente o a tiempo durante 16 años, según los registros judiciales, recibió otra respuesta: «Desafortunadamente, no aceptamos apelaciones y no podemos anular el resultado de la evaluación de inquilinos». Esa falta de transparencia y rendición de cuentas es, en parte, a lo que apuntan los proyectos de ley, siguiendo el ejemplo de la fallida propuesta de California el año pasado: el primer intento integral de regular el sesgo de la IA en el sector privado. Según los proyectos de ley, las empresas que utilicen estas herramientas de decisión automatizadas tendrían que realizar “evaluaciones de impacto”, incluidas descripciones de cómo la IA influye en una decisión, los datos recopilados y un análisis de los riesgos de discriminación, junto con una explicación de las salvaguardas de la empresa. Dependiendo del proyecto de ley, esas evaluaciones se presentarían al estado o los reguladores podrían solicitarlas. Algunos de los proyectos de ley también requerirían que las empresas dijeran a los clientes que se utilizará una IA para tomar una decisión y les permitirían optar por no participar, con ciertas salvedades. Craig Albright, vicepresidente senior de relaciones con el gobierno de Estados Unidos en BSA, el grupo de presión de la industria, dijo que sus miembros en general están a favor de que se propongan algunas medidas, como evaluaciones de impacto. “La tecnología avanza más rápido que la ley, pero en realidad hay beneficios si la ley se pone al día. Porque entonces (las empresas) entienden cuáles son sus responsabilidades, los consumidores pueden tener una mayor confianza en la tecnología”, dijo Albright. Pero ha sido un comienzo mediocre para la legislación. Un proyecto de ley en el estado de Washington ya fracasó en el comité, y una propuesta de California presentada en 2023, a partir de la cual se basan muchas de las propuestas actuales, también murió. Rebecca Bauer-Kahan, miembro de la Asamblea de California, renovó su legislación que fracasó el año pasado con el apoyo de algunas empresas tecnológicas, como Workday y Microsoft, después de eliminar el requisito de que las empresas presentaran periódicamente sus evaluaciones de impacto. Otros estados donde se han presentado o se espera que se presenten proyectos de ley son Colorado, Rhode Island, Illinois, Connecticut, Virginia y Vermont. Si bien estos proyectos de ley son un paso en la dirección correcta, dijo Venkatasubramanian de la Universidad de Brown, las evaluaciones de impacto y su capacidad para detectar sesgos siguen siendo vagas. Sin un mayor acceso a los informes (que muchos de los proyectos de ley limitan) también es difícil saber si una persona ha sido discriminada por una IA. Una forma más intensiva pero precisa de identificar la discriminación sería exigir auditorías de sesgo (pruebas para determinar si una IA discrimina o no) y hacer públicos los resultados. Ahí es donde la industria responde, argumentando que eso expondría secretos comerciales. Los requisitos para probar rutinariamente un sistema de IA no están en la mayoría de las propuestas legislativas, y a casi todas todavía les queda un largo camino por recorrer. Aún así, es el comienzo de la lucha de legisladores y votantes con lo que se está convirtiendo, y seguirá siendo, una tecnología siempre presente. “Cubre todo en tu vida. Sólo por eso debería importarte”, dijo Venkatasubramanian. ——- Contribuyó el periodista de Associated Press Trân Nguyễn en Sacramento, California. © Copyright 2024 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.
Source link
Deja una respuesta