Todo lo que necesitas saber sobre tecnología

Etiqueta: salchicha

La legislatura de California aprueba un proyecto de ley sobre seguridad de la IA

La legislatura de California aprueba un proyecto de ley sobre seguridad de la IA

Un controvertido proyecto de ley que exigiría a los desarrolladores de modelos avanzados de IA que adopten medidas de seguridad está un paso más cerca de convertirse en ley. El proyecto de ley, SB 1047, exigiría a los desarrolladores de futuros modelos avanzados de IA que creen barandillas para evitar que la tecnología se utilice indebidamente para realizar ciberataques a infraestructuras críticas como las centrales eléctricas. Los desarrolladores tendrían que presentar sus planes de seguridad al fiscal general, que podría responsabilizarlos si los modelos de IA que controlan directamente causaran daños o una amenaza inminente a la seguridad pública. El proyecto de ley, presentado por el senador Scott Wiener (demócrata de San Francisco), fue aprobado por la Asamblea estatal el miércoles, con 41 votos a favor y nueve en contra. El jueves, la medida fue aprobada por el Senado estatal en una votación de concurrencia. Ahora se dirige a la oficina del gobernador Gavin Newsom, aunque no está claro si Newsom firmará o vetará el proyecto de ley. «La innovación y la seguridad pueden ir de la mano, y California está liderando el camino», dijo Wiener en un comunicado. Un portavoz de Newsom dijo que el gobernador evaluará el proyecto de ley cuando llegue a su escritorio. El proyecto de ley de Wiener fue debatido intensamente en la comunidad tecnológica del Área de la Bahía. Recibió el apoyo del Centro para la Seguridad de la IA, el director ejecutivo de Tesla, Elon Musk, el consejo editorial del LA Times y la startup de IA con sede en San Francisco Anthropic. Pero los líderes demócratas del Congreso, así como los actores destacados de la IA, incluidos Meta y OpenAI, se opusieron a él, quienes expresaron su preocupación sobre si la legislación sofocaría la innovación en California. Los líderes demócratas del Congreso, incluida la expresidenta de la Cámara de Representantes Nancy Pelosi, el representante Ro Khanna (demócrata por Fremont) y la representante Zoe Lofgren (demócrata por San José), también se han opuesto al proyecto de ley e instaron a Newsom a vetarlo. Argumentan que la legislación podría dañar la creciente industria de la IA de California, hogar del fabricante de ChatGPT OpenAI, y citan los esfuerzos que está haciendo el Congreso relacionados con la IA. «Existe un riesgo real de que las empresas decidan constituirse en otras jurisdicciones o simplemente no lanzar modelos en California», escribieron Khanna, Lofgren y otros seis representantes demócratas del Congreso en una carta a Newsom. “Si bien queremos que California sea líder en inteligencia artificial de una manera que proteja a los consumidores, los datos, la propiedad intelectual y más, la SB 1047 es más dañina que útil en esa búsqueda”, dijo Pelosi en un comunicado. Wiener y otros legisladores que apoyan el proyecto de ley no están de acuerdo, y sostienen que fomentaría la innovación al mismo tiempo que protegería al público. “Hay que poner barandillas”, dijo el asambleísta Devon Mathis (republicano de Visalia) antes de la votación de la Asamblea el miércoles por la tarde. “Tenemos que asegurarnos de que van a ser actores responsables”. Los defensores de la SB 1047 dicen que requiere que los desarrolladores sean responsables de la seguridad de los modelos avanzados de inteligencia artificial bajo su control, lo que podría ayudar a prevenir eventos catastróficos de inteligencia artificial en el futuro. “Me preocupa que las empresas de tecnología no resuelvan los riesgos significativos asociados con la inteligencia artificial por sí solas porque están atrapadas en su carrera por la participación de mercado y la maximización de las ganancias”, dijo Yoshua Bengio, profesor de la Universidad de Montreal y fundador y director científico de Mila, el Instituto de Inteligencia Artificial de Quebec, en una conferencia de prensa esta semana. «Simplemente no podemos dejar que califiquen sus propios deberes y esperen que todo salga bien». Los partidarios también dicen que la IA debería ser regulada de manera similar a otras industrias que plantean riesgos potenciales de seguridad. «Esta es una decisión difícil y molestará a algunas personas, pero, considerando todo, creo que California probablemente debería aprobar el proyecto de ley de seguridad de IA SB 1047», escribió Musk en X el lunes. «Durante más de 20 años, he sido un defensor de la regulación de la IA, al igual que regulamos cualquier producto/tecnología que sea un riesgo potencial para el público». A principios de este mes, el proyecto de ley fue aprobado por un comité clave del Senado estatal después de que Wiener hiciera cambios significativos, incluida la eliminación de una pena por perjurio y el cambio del estándar legal para los desarrolladores con respecto a la seguridad de sus modelos avanzados de IA. El director ejecutivo de la startup de IA Anthropic con sede en San Francisco, Dario Amodei, dijo que creía que los «beneficios del proyecto de ley probablemente superen sus costos» en una carta del 21 de agosto a Newsom. La carta no respaldaba el proyecto de ley, pero compartía el punto de vista de la empresa sobre los pros y los contras. «Queremos ser claros… en que la SB 1047 aborda preocupaciones reales y serias con el riesgo catastrófico en los sistemas de IA», escribió Amodei. «Los sistemas de IA están avanzando en capacidades extremadamente rápido, lo que ofrece una gran promesa para la economía de California y un riesgo sustancial». Pero algunas empresas de tecnología, incluida OpenAI, dijeron que se oponían al proyecto de ley incluso después de los cambios. «Las amplias y significativas implicaciones de la IA para la competitividad y la seguridad nacional de EE. UU. requieren que la regulación de los modelos de frontera se moldee e implemente a nivel federal», escribió el director de estrategia de OpenAI, Jason Kwon, en una carta del 21 de agosto a Wiener. «Un conjunto de políticas de IA impulsadas por el gobierno federal, en lugar de un mosaico de leyes estatales, fomentará la innovación y posicionará a EE. UU. para liderar el desarrollo de estándares globales». Wiener dijo que daría la bienvenida a una ley federal sólida de seguridad de la IA que prevalezca sobre su proyecto de ley. «Si la experiencia pasada es una indicación, promulgar una ley de seguridad de IA de este tipo es una indicación de que la implementación de una ley federal de seguridad de IA … [federal] “La ley SB 1047 será una batalla cuesta arriba”, dijo Wiener en un comunicado. “Mientras tanto, California debería seguir liderando políticas como la SB 1047 que fomentan la innovación y al mismo tiempo protegen al público”. La SB 1047 se encuentra entre los aproximadamente 50 proyectos de ley relacionados con la IA en la Legislatura que abordan varios aspectos del impacto de la tecnología en el público, incluidos los empleos, las falsificaciones profundas y la seguridad.

El proyecto de ley de inteligencia artificial de Scott Wiener avanza con cambios significativos

El proyecto de ley de inteligencia artificial de Scott Wiener avanza con cambios significativos

Un controvertido proyecto de ley que pretende proteger a los californianos de las catástrofes provocadas por la inteligencia artificial ha causado revuelo en la industria tecnológica. Esta semana, la legislación fue aprobada por un comité clave, pero con enmiendas para hacerla más aceptable para Silicon Valley. El SB 1047, del senador estatal Scott Wiener (demócrata por San Francisco), se presentará en la Asamblea estatal a finales de este mes. Si se aprueba en la Legislatura, el gobernador Gavin Newsom tendrá que decidir si firma o veta la innovadora legislación. Los partidarios del proyecto de ley dicen que creará barandillas para evitar que los modelos de IA que avanzan rápidamente provoquen incidentes desastrosos, como apagar la red eléctrica sin previo aviso. Les preocupa que la tecnología se esté desarrollando más rápido de lo que sus creadores humanos pueden controlar. Los legisladores pretenden incentivar a los desarrolladores para que gestionen la tecnología de forma responsable y facultar al fiscal general del estado para imponer sanciones en caso de amenaza o daño inminente. La legislación también exige que los desarrolladores puedan desactivar los modelos de IA que controlan directamente si las cosas salen mal. Pero algunas empresas de tecnología, como Meta Platforms, propietaria de Facebook, y políticos, incluido el influyente representante estadounidense Ro Khanna (demócrata de Fremont), dicen que el proyecto de ley sofocaría la innovación. Algunos críticos dicen que se centra en escenarios apocalípticos y lejanos, en lugar de las preocupaciones más inmediatas, como la privacidad y la desinformación, aunque hay otros proyectos de ley que abordan estos asuntos. SB 1047 es uno de los aproximadamente 50 proyectos de ley relacionados con la IA que se han presentado en la Legislatura estatal, a medida que aumentan las preocupaciones sobre los efectos de la tecnología en los empleos, la desinformación y la seguridad pública. Mientras los políticos trabajan para crear nuevas leyes que pongan barandillas a la industria de rápido crecimiento, algunas empresas y talentos están demandando a las empresas de IA con la esperanza de que los tribunales puedan establecer reglas básicas. Wiener, que representa a San Francisco, el hogar de las nuevas empresas de IA OpenAI y Anthropic, ha estado en el medio del debate. El jueves, introdujo cambios significativos en su proyecto de ley que, según algunos, debilitan la legislación y aumentan las posibilidades de que la Asamblea la apruebe. Las enmiendas eliminaron una sanción por perjurio del proyecto de ley y cambiaron el estándar legal para los desarrolladores en lo que respecta a la seguridad de sus modelos avanzados de IA. Además, ya no se está trabajando en un plan para crear una nueva entidad gubernamental, que se habría llamado División de Modelos Fronterizos. Según el texto original, el proyecto de ley habría exigido a los desarrolladores que presentaran sus medidas de seguridad a la división recién creada. En la nueva versión, los desarrolladores presentarían esas medidas de seguridad al fiscal general. “Creo que algunos de esos cambios podrían hacer que sea más probable que se apruebe”, dijo Christian Grose, profesor de ciencias políticas y políticas públicas de la USC. Algunos actores tecnológicos apoyan el proyecto de ley, incluido el Centro para la Seguridad de la IA y Geoffrey Hinton, considerado un “padrino de la IA”. Sin embargo, a otros les preocupa que pueda dañar una industria floreciente de California. Ocho miembros de la Cámara de Representantes de California —Khanna, Zoe Lofgren (D-San José), Anna G. Eshoo (D-Menlo Park), Scott Peters (D-San Diego), Tony Cárdenas (D-Pacoima), Ami Bera (D-Elk Grove), Nanette Díaz Barragán (D-San Pedro) y Lou Correa (D-Santa Ana)— escribieron una carta a Newsom el jueves alentándolo a vetar el proyecto de ley si se aprueba en la Asamblea estatal.[Wiener] “Realmente hay una presión cruzada en San Francisco entre las personas que son expertas en esta área, que le han estado diciendo a él y a otros en California que la IA puede ser peligrosa si no la regulamos, y luego aquellos cuyos cheques de pago, su investigación de vanguardia, provienen de la IA”, dijo Grose. “Esto podría ser un verdadero punto de conflicto para él, tanto a favor como en contra, para su carrera”. Algunos gigantes tecnológicos dicen que están abiertos a la regulación, pero no están de acuerdo con el enfoque de Wiener. “Estamos alineados con la forma en que (Wiener) describe el proyecto de ley y los objetivos que tiene, pero seguimos preocupados por el impacto del proyecto de ley en la innovación de la IA, particularmente en California, y particularmente en la innovación de código abierto”, dijo Kevin McKinley, gerente de políticas estatales de Meta, en una reunión con miembros del consejo editorial del LA Times la semana pasada. Meta es una de las empresas con modelos de IA de código abierto llamados Llama, que permite a los desarrolladores construir sobre él para sus propios productos. Meta lanzó Llama 3 en abril y ya ha habido 20 millones de descargas, dijo el gigante tecnológico. Meta se negó a discutir las nuevas enmiendas. La semana pasada, McKinley dijo que la SB 1047 es «en realidad un proyecto de ley muy difícil de corregir». Un portavoz de Newsom dijo que su oficina no suele hacer comentarios sobre la legislación pendiente. «El gobernador evaluará este proyecto de ley en función de sus méritos si llega a su escritorio», escribió el portavoz Izzy Gardon en un correo electrónico. La startup de inteligencia artificial de San Francisco Anthropic, conocida por su asistente de inteligencia artificial Claude, señaló que podría apoyar el proyecto de ley si se enmendara. En una carta del 23 de julio a la asambleísta Buffy Wicks (demócrata de Oakland), el líder de políticas estatales y locales de Anthropic, Hank Dempsey, propuso cambios que incluyen cambiar el proyecto de ley para centrarse en responsabilizar a las empresas de causar catástrofes en lugar de aplicar medidas de control antes de que se produzcan daños. Wiener dijo que las enmiendas tomaron en cuenta las preocupaciones de Anthropic. «Podemos promover tanto la innovación como la seguridad», dijo Wiener en un comunicado. «Las dos no son mutuamente excluyentes». No está claro si las enmiendas cambiarán la posición de Anthropic sobre el proyecto de ley. El jueves, Anthropic dijo en un comunicado que revisaría el nuevo «lenguaje del proyecto de ley a medida que esté disponible». Russell Wald, subdirector del Instituto Stanford para la IA centrada en el ser humano, que tiene como objetivo promover la investigación y la política de IA, dijo que todavía se opone al proyecto de ley. «Las enmiendas recientes parecen tener más que ver con la apariencia que con la sustancia», dijo Wald en un comunicado. «Parece menos controvertido apaciguar a un par de empresas líderes de IA, pero hace poco para abordar las preocupaciones reales de las instituciones académicas y las comunidades de código abierto». Es un delicado equilibrio para los legisladores que están tratando de sopesar las preocupaciones sobre la IA y al mismo tiempo apoyar al sector tecnológico del estado. «Lo que muchos de nosotros estamos tratando de hacer es idear un entorno regulatorio que permita que existan algunas de esas barreras sin sofocar la innovación y el crecimiento económico que viene con la IA», dijo Wicks después de la reunión del comité del jueves. La redactora del Times Anabel Sosa contribuyó a este informe.

Los legisladores de California intentan adelantarse a la IA

Los legisladores de California intentan adelantarse a la IA

Durante cuatro años, Jacob Hilton trabajó para una de las nuevas empresas más influyentes del Área de la Bahía: OpenAI. Su investigación ayudó a probar y mejorar la veracidad de modelos de IA como ChatGPT. Cree que la inteligencia artificial puede beneficiar a la sociedad, pero también reconoce los graves riesgos que corre si no se controla la tecnología. Hilton estuvo entre los 13 empleados actuales y anteriores de OpenAI y Google que firmaron este mes una carta abierta que pedía más protección para los denunciantes, citando acuerdos amplios de confidencialidad como problemáticos. «La situación básica es que los empleados, las personas más cercanas a la tecnología, también son los que tienen más que perder si sufren represalias por hablar», dice Hilton, de 33 años, ahora investigador en la organización sin fines de lucro Alignment Research Center. que vive en Berkeley. Los legisladores de California se están apresurando a abordar estas preocupaciones a través de aproximadamente 50 proyectos de ley relacionados con la IA, muchos de los cuales tienen como objetivo establecer salvaguardias en torno a esta tecnología en rápida evolución, que según los legisladores podría causar daños a la sociedad. Sin embargo, grupos que representan a las grandes empresas de tecnología argumentan que la legislación propuesta podría sofocar la innovación y la creatividad, haciendo que California pierda su ventaja competitiva y cambiando drásticamente la forma en que se desarrolla la IA en el estado. Los efectos de la inteligencia artificial en el empleo, la sociedad y la cultura son de gran alcance, y eso se refleja en la cantidad de proyectos de ley que circulan en la Legislatura. Cubren una variedad de temores relacionados con la IA, incluida la sustitución de empleos, la seguridad de los datos y la discriminación racial. Un proyecto de ley, copatrocinado por los Teamsters, tiene como objetivo exigir la supervisión humana de los camiones pesados ​​sin conductor. Un proyecto de ley respaldado por el Sindicato Internacional de Empleados de Servicios intenta prohibir la automatización o la sustitución de puestos de trabajo por sistemas de inteligencia artificial en los centros de llamadas que brindan servicios de beneficios públicos, como Medi-Cal. Otro proyecto de ley, redactado por el senador Scott Wiener (demócrata por San Francisco), exigiría que las empresas que desarrollen grandes modelos de IA realicen pruebas de seguridad. La gran cantidad de proyectos de ley se produjo después de que los políticos fueran criticados por no tomar medidas enérgicas lo suficientemente duras contra las empresas de redes sociales hasta que fue demasiado tarde. Durante la administración Biden, los demócratas federales y estatales se han vuelto más agresivos a la hora de perseguir a las grandes empresas tecnológicas. «Hemos visto con otras tecnologías que no hacemos nada hasta mucho después de que surge un gran problema», dijo Wiener. “Las redes sociales han aportado muchas cosas buenas a la sociedad… pero sabemos que han tenido importantes desventajas y no hicimos nada para reducir o mitigar esos daños. Y ahora estamos tratando de ponernos al día. Prefiero no ponerme al día”. El impulso se produce cuando las herramientas de inteligencia artificial avanzan rápidamente. Leen cuentos a los niños antes de dormir, clasifican los pedidos desde el auto en lugares de comida rápida y ayudan a hacer videos musicales. Mientras que algunos entusiastas de la tecnología se entusiasman con los beneficios potenciales de la IA, otros temen la pérdida de empleos y los problemas de seguridad. “Tomó a casi todo el mundo por sorpresa, incluidos muchos de los expertos, por la rapidez con la que [the tech is] progresando”, dijo Dan Hendrycks, director del Centro para la Seguridad de la IA, una organización sin fines de lucro con sede en San Francisco. «Si simplemente nos demoramos y no hacemos nada durante varios años, es posible que estemos esperando hasta que sea demasiado tarde». El proyecto de ley de Wiener, SB1047, que cuenta con el respaldo del Centro para la Seguridad de la IA, exige que las empresas que construyen grandes modelos de IA realicen pruebas de seguridad y tengan la capacidad de apagar los modelos que controlan directamente. Los proponentes del proyecto de ley dicen que protegería contra situaciones como La IA se utiliza para crear armas biológicas o cortar la red eléctrica, por ejemplo. El proyecto de ley también requeriría que las empresas de inteligencia artificial implementen formas para que los empleados presenten inquietudes de forma anónima. El fiscal general del estado podría presentar una demanda para hacer cumplir las normas de seguridad. «Una tecnología muy poderosa trae beneficios y riesgos, y quiero asegurarme de que los beneficios de la IA superen ampliamente los riesgos», dijo Wiener. Quienes se oponen al proyecto de ley, incluido TechNet, un grupo comercial que cuenta entre sus miembros con empresas tecnológicas como Meta, Google y OpenAI, dicen que los responsables políticos deberían actuar con cautela. Meta y OpenAI no respondieron a una solicitud de comentarios. Google se negó a hacer comentarios. «Avanzar demasiado rápido tiene sus propias consecuencias, potencialmente sofocando y reduciendo algunos de los beneficios que pueden venir con esta tecnología», dijo Dylan Hoffman, director ejecutivo para California y el suroeste de TechNet. El proyecto de ley fue aprobado por la Asamblea de Privacidad y Consumidor. Comité de Protección el martes y luego irá al Comité Judicial de la Asamblea y al Comité de Asignaciones de la Asamblea, y si se aprueba, al pleno de la Asamblea. Los defensores del proyecto de ley de Wiener dicen que están respondiendo a los deseos del público. En una encuesta de 800 votantes potenciales en California encargada por el Centro para el Fondo de Acción para la Seguridad de la IA, el 86% de los participantes dijo que era una prioridad importante para el estado desarrollar regulaciones de seguridad de la IA. Según la encuesta, el 77% de los participantes apoyó la propuesta de someter los sistemas de IA a pruebas de seguridad.“El status quo en este momento es que, cuando se trata de seguridad, dependemos de compromisos públicos voluntarios asumidos por estas empresas, ”, dijo Hilton, el ex empleado de OpenAI. «Pero parte del problema es que no existe un buen mecanismo de rendición de cuentas». Otro proyecto de ley con implicaciones radicales para los lugares de trabajo es el AB 2930, que busca prevenir la «discriminación algorítmica», o cuando los sistemas automatizados ponen a ciertas personas en desventaja basándose en su raza, género u orientación sexual cuando se trata de contratación, remuneración y despido. “Vemos ejemplo tras ejemplo en el espacio de la IA, donde los resultados están sesgados”, dijo la asambleísta Rebecca Bauer-Kahan (demócrata por Orinda). El proyecto de ley contra la discriminación fracasó en la sesión legislativa del año pasado, con una importante oposición de las empresas de tecnología. Reintroducida este año, la medida inicialmente contó con el respaldo de las empresas tecnológicas de alto perfil Workday y Microsoft, aunque han vacilado en su apoyo, expresando preocupaciones sobre enmiendas que otorgarían más responsabilidad a las empresas que desarrollan productos de inteligencia artificial para frenar los prejuicios. “Por lo general, no hay industrias que digan: ‘Regúlenme’, pero varias comunidades no confían en la IA, y lo que este esfuerzo intenta hacer es generar confianza en estos sistemas de IA, lo que creo que es realmente beneficioso para la industria. «, Dijo Bauer-Kahan. Algunos defensores de la privacidad laboral y de datos temen que el lenguaje en la legislación antidiscriminatoria propuesta sea demasiado débil. Los opositores dicen que es demasiado amplio. Chandler Morse, jefe de políticas públicas de Workday, dijo que la compañía apoya la AB 2930 tal como se presentó. «Actualmente estamos evaluando nuestra posición sobre las nuevas enmiendas», dijo Morse. Microsoft declinó hacer comentarios. La amenaza de la IA también es un grito de guerra para los sindicatos de Hollywood. El Writers Guild of America y el Screen Actors Guild-American Federation of Television and Radio Artists negociaron protecciones de IA para sus miembros durante las huelgas del año pasado, pero los riesgos de la tecnología van más allá del alcance de los contratos sindicales, dijo el director ejecutivo nacional del gremio de actores, Duncan. Crabtree-Irlanda. «Necesitamos que las políticas públicas se pongan al día y comiencen a implementar estas normas para que haya menos ambiente del Lejano Oeste con la IA», dijo Crabtree-Ireland. SAG-AFTRA ha ayudado a redactar tres proyectos de ley federales relacionados con deepfakes (imágenes y videos engañosos que a menudo involucran imágenes de celebridades), junto con dos medidas en California, incluida la AB 2602, que fortalecería el control de los trabajadores sobre el uso de su imagen digital. La legislación, si se aprueba, requeriría que los trabajadores estén representados por su sindicato o asesor legal para que los acuerdos que involucren imágenes generadas por IA sean legalmente vinculantes. Las empresas tecnológicas instan a tener precaución contra la regulación excesiva. Todd O’Boyle, del grupo de la industria tecnológica Chamber of Progress, dijo que las empresas de IA de California podrían optar por trasladarse a otra parte si la supervisión gubernamental se vuelve excesiva. Es importante que los legisladores «no permitan que los temores de daños especulativos impulsen la formulación de políticas cuando tenemos esta innovación tecnológica transformadora que puede crear tanta prosperidad en sus primeros días», dijo. Cuando se establecen regulaciones, es difícil revertirlos, advirtió Aaron Levie, director ejecutivo de Box, la empresa de computación en la nube con sede en Redwood City, que está incorporando IA en sus productos. «Necesitamos tener modelos más potentes que hagan aún más y sean más capaces», dijo Levie, «y luego comencemos a evaluar el riesgo de forma incremental a partir de ahí». Pero Crabtree-Ireland dijo que las empresas de tecnología están tratando de frenar la regulación haciendo que los problemas parezcan más complicados de lo que son y diciendo que deben resolverse en una propuesta integral de política pública. «Rechazamos eso por completo», dijo Crabtree-Ireland. «No creemos que todo lo relacionado con la IA deba resolverse de una vez».

Funciona con WordPress & Tema de Anders Norén

geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz