El gobierno de Estados Unidos se está tomando más en serio los posibles peligros de la IA, tras su decisión de crear un Consorcio de Institutos de Seguridad de Inteligencia Artificial (AISIC) a principios de este año, con Apple como miembro. Una nueva ley propuesta prohibiría el uso de deepfakes, y un organismo gubernamental realizará controles de seguridad en la próxima versión de ChatGPT antes de que se publique al público … Las directrices de seguridad de la IA ya están en marcha La administración Biden propuso un conjunto de pautas de seguridad para nuevos productos y servicios de IA a principios de este año, después de que fueran anunciadas por la vicepresidenta Kamala Harris. Si bien el cumplimiento de las pautas es (por ahora) voluntario, todos los gigantes tecnológicos involucrados en el desarrollo de IA han acordado hacerlo. Esto incluye a Apple, Amazon, Google, Meta, OpenAI y Microsoft. La Ley NO FAKES haría ilegales los deepfakes Una de las mayores preocupaciones sobre la IA es la facilidad con la que se pueden crear deepfakes. Se trata de fotos, audio y grabaciones de vídeo de aspecto convincente de personas reales que parecen estar haciendo o diciendo cosas completamente falsas. Los deepfakes se han utilizado para crear desnudos falsos no consentidos de todo el mundo, desde celebridades hasta colegialas, y para crear videos falsos y dañinos de políticos. Un ejemplo reciente fue un anuncio falso en el que Kamala Harris parecía decir que era una contratación de diversidad y una «títere del estado profundo». Un grupo bipartidista de senadores presentó ayer la Ley NO FAKES, que haría ilegal crear deepfakes de personas reales sin su consentimiento. La Ley NO FAKES responsabilizaría a las personas o empresas de los daños causados ​​por producir, alojar o compartir una réplica digital de una persona que actúa en una obra audiovisual, imagen o grabación de sonido en la que la persona nunca apareció o aprobó de otro modo, incluidas las réplicas digitales creadas por inteligencia artificial (IA) generativa. Un servicio en línea que aloje la réplica no autorizada tendría que retirarla tras el aviso del titular de los derechos. Esto no eliminaría necesariamente por completo el problema en lo que respecta a los políticos, ya que habría una exclusión de la primera enmienda para las parodias, pero debería reducir significativamente el problema si se aprueba. El gobierno examinará la próxima versión de ChatGPT El director ejecutivo de OpenAI, Sam Altman, tuiteó que la empresa acordó darle a AISIC acceso temprano al próximo modelo de ChatGPT, para que pueda ser examinado en busca de problemas de seguridad antes de un lanzamiento público. Nuestro equipo ha estado trabajando con el Instituto de Seguridad de IA de EE. UU. en un acuerdo en el que brindaríamos acceso temprano a nuestro próximo modelo base para que podamos trabajar juntos para impulsar la ciencia de las evaluaciones de IA. ¡Emocionado por esto! Foto de BoliviaInteligente en Unsplash FTC: Usamos enlaces de afiliados automáticos que generan ingresos. Más.