Todo lo que necesitas saber sobre tecnología

Etiqueta: carta

La legislatura de California aprueba un proyecto de ley sobre seguridad de la IA

La legislatura de California aprueba un proyecto de ley sobre seguridad de la IA

Un controvertido proyecto de ley que exigiría a los desarrolladores de modelos avanzados de IA que adopten medidas de seguridad está un paso más cerca de convertirse en ley. El proyecto de ley, SB 1047, exigiría a los desarrolladores de futuros modelos avanzados de IA que creen barandillas para evitar que la tecnología se utilice indebidamente para realizar ciberataques a infraestructuras críticas como las centrales eléctricas. Los desarrolladores tendrían que presentar sus planes de seguridad al fiscal general, que podría responsabilizarlos si los modelos de IA que controlan directamente causaran daños o una amenaza inminente a la seguridad pública. El proyecto de ley, presentado por el senador Scott Wiener (demócrata de San Francisco), fue aprobado por la Asamblea estatal el miércoles, con 41 votos a favor y nueve en contra. El jueves, la medida fue aprobada por el Senado estatal en una votación de concurrencia. Ahora se dirige a la oficina del gobernador Gavin Newsom, aunque no está claro si Newsom firmará o vetará el proyecto de ley. «La innovación y la seguridad pueden ir de la mano, y California está liderando el camino», dijo Wiener en un comunicado. Un portavoz de Newsom dijo que el gobernador evaluará el proyecto de ley cuando llegue a su escritorio. El proyecto de ley de Wiener fue debatido intensamente en la comunidad tecnológica del Área de la Bahía. Recibió el apoyo del Centro para la Seguridad de la IA, el director ejecutivo de Tesla, Elon Musk, el consejo editorial del LA Times y la startup de IA con sede en San Francisco Anthropic. Pero los líderes demócratas del Congreso, así como los actores destacados de la IA, incluidos Meta y OpenAI, se opusieron a él, quienes expresaron su preocupación sobre si la legislación sofocaría la innovación en California. Los líderes demócratas del Congreso, incluida la expresidenta de la Cámara de Representantes Nancy Pelosi, el representante Ro Khanna (demócrata por Fremont) y la representante Zoe Lofgren (demócrata por San José), también se han opuesto al proyecto de ley e instaron a Newsom a vetarlo. Argumentan que la legislación podría dañar la creciente industria de la IA de California, hogar del fabricante de ChatGPT OpenAI, y citan los esfuerzos que está haciendo el Congreso relacionados con la IA. «Existe un riesgo real de que las empresas decidan constituirse en otras jurisdicciones o simplemente no lanzar modelos en California», escribieron Khanna, Lofgren y otros seis representantes demócratas del Congreso en una carta a Newsom. “Si bien queremos que California sea líder en inteligencia artificial de una manera que proteja a los consumidores, los datos, la propiedad intelectual y más, la SB 1047 es más dañina que útil en esa búsqueda”, dijo Pelosi en un comunicado. Wiener y otros legisladores que apoyan el proyecto de ley no están de acuerdo, y sostienen que fomentaría la innovación al mismo tiempo que protegería al público. “Hay que poner barandillas”, dijo el asambleísta Devon Mathis (republicano de Visalia) antes de la votación de la Asamblea el miércoles por la tarde. “Tenemos que asegurarnos de que van a ser actores responsables”. Los defensores de la SB 1047 dicen que requiere que los desarrolladores sean responsables de la seguridad de los modelos avanzados de inteligencia artificial bajo su control, lo que podría ayudar a prevenir eventos catastróficos de inteligencia artificial en el futuro. “Me preocupa que las empresas de tecnología no resuelvan los riesgos significativos asociados con la inteligencia artificial por sí solas porque están atrapadas en su carrera por la participación de mercado y la maximización de las ganancias”, dijo Yoshua Bengio, profesor de la Universidad de Montreal y fundador y director científico de Mila, el Instituto de Inteligencia Artificial de Quebec, en una conferencia de prensa esta semana. «Simplemente no podemos dejar que califiquen sus propios deberes y esperen que todo salga bien». Los partidarios también dicen que la IA debería ser regulada de manera similar a otras industrias que plantean riesgos potenciales de seguridad. «Esta es una decisión difícil y molestará a algunas personas, pero, considerando todo, creo que California probablemente debería aprobar el proyecto de ley de seguridad de IA SB 1047», escribió Musk en X el lunes. «Durante más de 20 años, he sido un defensor de la regulación de la IA, al igual que regulamos cualquier producto/tecnología que sea un riesgo potencial para el público». A principios de este mes, el proyecto de ley fue aprobado por un comité clave del Senado estatal después de que Wiener hiciera cambios significativos, incluida la eliminación de una pena por perjurio y el cambio del estándar legal para los desarrolladores con respecto a la seguridad de sus modelos avanzados de IA. El director ejecutivo de la startup de IA Anthropic con sede en San Francisco, Dario Amodei, dijo que creía que los «beneficios del proyecto de ley probablemente superen sus costos» en una carta del 21 de agosto a Newsom. La carta no respaldaba el proyecto de ley, pero compartía el punto de vista de la empresa sobre los pros y los contras. «Queremos ser claros… en que la SB 1047 aborda preocupaciones reales y serias con el riesgo catastrófico en los sistemas de IA», escribió Amodei. «Los sistemas de IA están avanzando en capacidades extremadamente rápido, lo que ofrece una gran promesa para la economía de California y un riesgo sustancial». Pero algunas empresas de tecnología, incluida OpenAI, dijeron que se oponían al proyecto de ley incluso después de los cambios. «Las amplias y significativas implicaciones de la IA para la competitividad y la seguridad nacional de EE. UU. requieren que la regulación de los modelos de frontera se moldee e implemente a nivel federal», escribió el director de estrategia de OpenAI, Jason Kwon, en una carta del 21 de agosto a Wiener. «Un conjunto de políticas de IA impulsadas por el gobierno federal, en lugar de un mosaico de leyes estatales, fomentará la innovación y posicionará a EE. UU. para liderar el desarrollo de estándares globales». Wiener dijo que daría la bienvenida a una ley federal sólida de seguridad de la IA que prevalezca sobre su proyecto de ley. «Si la experiencia pasada es una indicación, promulgar una ley de seguridad de IA de este tipo es una indicación de que la implementación de una ley federal de seguridad de IA … [federal] “La ley SB 1047 será una batalla cuesta arriba”, dijo Wiener en un comunicado. “Mientras tanto, California debería seguir liderando políticas como la SB 1047 que fomentan la innovación y al mismo tiempo protegen al público”. La SB 1047 se encuentra entre los aproximadamente 50 proyectos de ley relacionados con la IA en la Legislatura que abordan varios aspectos del impacto de la tecnología en el público, incluidos los empleos, las falsificaciones profundas y la seguridad.

Sony Music advierte a las empresas tecnológicas: no usen nuestra música para entrenar su IA

Sony Music advierte a las empresas tecnológicas: no usen nuestra música para entrenar su IA

Sony Music Group está enviando cartas a 700 desarrolladores de inteligencia artificial y servicios de transmisión de música advirtiéndoles que no usen la música de sus artistas para entrenar herramientas de IA generativa sin su permiso. La compañía, una de las tres firmas de música grabada más grandes, dijo que está optando explícitamente por no usar su música para entrenar o desarrollar modelos de IA a través de minería de texto o datos o raspado web en lo que respecta a letras, grabaciones de audio, obras de arte, composiciones musicales e imágenes. Los artistas de Sony Music Group incluyen a Celine Dion, Doja Cat y Harry Styles. «Apoyamos a los artistas y compositores que toman la iniciativa en la adopción de nuevas tecnologías en apoyo de su arte», dijo Sony Music Group en un comunicado en su sitio web el jueves. «Las evoluciones en la tecnología han cambiado con frecuencia el curso de las industrias creativas… Sin embargo, esa innovación debe garantizar que se respeten los derechos de los compositores y artistas de grabación, incluidos los derechos de autor». Las cartas fueron enviadas a empresas como OpenAI, creadora de ChatGPT con sede en San Francisco, y el gigante de búsquedas Google con sede en Mountain View, según una persona familiarizada con el asunto que no estaba autorizada a hablar públicamente. OpenAI y Google no respondieron de inmediato a las solicitudes de comentarios. La medida se produce en un momento en que la industria del entretenimiento está lidiando con rápidas innovaciones en tecnología de inteligencia artificial. Los escritores y actores expresaron su preocupación el verano pasado sobre si dejar la IA sin control podría amenazar sus medios de vida. Mientras tanto, algunos creativos se han maravillado con los avances que podrían permitirles perseguir ideas audaces con presupuestos ajustados. Este año, OpenAI presentó su herramienta de texto a video Sora, que se utilizó para crear un video musical de cuatro minutos para el artista musical Washed Out. El director del video le dijo a The Times que Sora lo ayudó a representar múltiples ubicaciones y efectos visuales que de otra manera no podría tener. Pero la IA también puede crear caos. Las celebridades han tenido que lidiar con «falsificaciones profundas»: videos o audios falsos que muestran a una celebridad respaldando ciertas marcas o actividades. Para ayudar a proteger a sus clientes contra el uso no autorizado de su voz e imagen, Creative Artists Agency, con sede en Century City, está ayudando a los talentos a crear sus propios dobles digitales. El jueves, dos actores de doblaje de Nueva York demandaron a la empresa de generadores de voz de IA con sede en Berkeley, Lovo, por uso no autorizado de sus voces. Lovo no respondió de inmediato a una solicitud de comentarios. La demanda fue presentada en el Tribunal de Distrito de Estados Unidos para el Distrito Sur de Nueva York. Algunas personas en la industria del entretenimiento han dicho que les gustaría que las empresas de inteligencia artificial fueran más transparentes sobre cómo están entrenando sus herramientas y si tienen los permisos de derechos de autor adecuados. OpenAI ha dicho que sus grandes modelos de lenguaje, incluidos los que impulsan ChatGPT, se desarrollan a través de información disponible públicamente en Internet, material adquirido a través de licencias con terceros e información que brindan sus usuarios y «entrenadores humanos». La compañía dijo en una publicación de blog que cree que entrenar modelos de inteligencia artificial con materiales disponibles públicamente en Internet es un «uso justo». Pero algunos medios de comunicación, incluido el New York Times, han demandado a OpenAI. El periódico alertó sobre cómo la empresa de tecnología está utilizando sus historias. En las cartas de Sony Music Group a las empresas de inteligencia artificial, la compañía dijo que tiene razones para creer que su contenido puede haber sido utilizado para entrenar, desarrollar o comercializar sistemas de inteligencia artificial sin su permiso, según una copia obtenida por el Times. Sony Music Group pidió a las empresas tecnológicas que proporcionaran información sobre ese uso y por qué era necesario. Sony Music Group, propiedad del gigante de la electrónica con sede en Tokio Sony Corp., también quiere que los proveedores de transmisión de música agreguen un lenguaje en sus términos de servicio que diga que los terceros no pueden extraer y entrenar usando el contenido de Sony Music Group, dijo la persona familiarizada con el asunto.

Funciona con WordPress & Tema de Anders Norén

geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz geiz