Las empresas de inteligencia artificial han estado a la vanguardia del desarrollo de esta tecnología transformadora. Ahora también están compitiendo para establecer límites sobre cómo se utiliza la IA en un año repleto de elecciones importantes en todo el mundo. El mes pasado, OpenAI, el fabricante del chatbot ChatGPT, dijo que estaba trabajando para evitar el abuso de sus herramientas en las elecciones, en parte al prohibir su uso para crear chatbots que pretendan ser personas o instituciones reales. En las últimas semanas, Google también dijo que limitaría que su chatbot de inteligencia artificial, Bard, responda a ciertas indicaciones relacionadas con las elecciones para evitar imprecisiones. Y Meta, propietaria de Facebook e Instagram, prometió etiquetar mejor el contenido generado por IA en sus plataformas para que los votantes pudieran discernir más fácilmente qué información era real y cuál falsa. El viernes, Anthropic, otra importante empresa emergente de IA, se unió a sus pares. al prohibir que su tecnología se aplique a campañas políticas o lobbying. En una publicación de blog, la compañía, que fabrica un chatbot llamado Claude, dijo que advertiría o suspendería a cualquier usuario que violara sus reglas. Añadió que estaba utilizando herramientas capacitadas para detectar y bloquear automáticamente información errónea e influir en las operaciones. «La historia del despliegue de la IA también ha estado llena de sorpresas y efectos inesperados», dijo la empresa. «Esperamos que en 2024 se vean usos sorprendentes de los sistemas de IA, usos que no fueron anticipados por sus propios desarrolladores». Los esfuerzos son parte de un impulso de las empresas de IA para controlar una tecnología que popularizaron a medida que miles de millones de personas se dirigen al mundo. centro. Según la consultora Anchor Change, este año se prevén al menos 83 elecciones en todo el mundo, la mayor concentración durante al menos los próximos 24 años. En las últimas semanas, la gente de Taiwán, Pakistán e Indonesia han votado, y está previsto que India, la democracia más grande del mundo, celebre sus elecciones generales en la primavera. No está claro cuán efectivas serán las restricciones a las herramientas de inteligencia artificial, especialmente a medida que las empresas de tecnología siguen adelante. con tecnología cada vez más sofisticada. El jueves, OpenAI presentó Sora, una tecnología que puede generar instantáneamente videos realistas. Estas herramientas podrían usarse para producir texto, sonidos e imágenes en campañas políticas, desdibujando la realidad y la ficción y planteando preguntas sobre si los votantes pueden decir qué contenido es real. El contenido generado por IA ya ha aparecido en las campañas políticas de EE. UU., lo que ha impulsado regulaciones y regulaciones legales. hacer retroceder. Algunos legisladores estatales están redactando proyectos de ley para regular el contenido político generado por IA. El mes pasado, los residentes de New Hampshire recibieron mensajes de llamadas automáticas que los disuadieron de votar en las primarias estatales en una voz que probablemente fue generada artificialmente para sonar como la del presidente Biden. La semana pasada, la Comisión Federal de Comunicaciones prohibió este tipo de llamadas. “Los malos actores están utilizando voces generadas por IA en llamadas automáticas no solicitadas para extorsionar a familiares vulnerables, imitar a celebridades y desinformar a los votantes”, dijo en ese momento Jessica Rosenworcel, presidenta de la FCC. También creó representaciones engañosas o engañosas de políticos y temas políticos en Argentina, Australia, Gran Bretaña y Canadá. La semana pasada, el ex primer ministro Imran Khan, cuyo partido obtuvo la mayor cantidad de escaños en las elecciones de Pakistán, utilizó una voz de IA para declarar la victoria mientras estaba en prisión. En uno de los ciclos electorales más trascendentales que se recuerden, la desinformación y los engaños que la IA puede crear podrían ser devastador para la democracia, dijeron los expertos. “Aquí estamos detrás de la bola ocho”, dijo Oren Etzioni, profesor de la Universidad de Washington que se especializa en inteligencia artificial y fundador de True Media, una organización sin fines de lucro que trabaja para identificar la desinformación en línea en los ámbitos políticos. campañas. “Necesitamos herramientas para responder a esto en tiempo real”. Anthropic dijo en su anuncio del viernes que estaba planeando pruebas para identificar cómo su chatbot Claude podría producir contenido sesgado o engañoso relacionado con candidatos políticos, cuestiones políticas y administración electoral. Estas pruebas de «equipo rojo», que a menudo se utilizan para romper las salvaguardas de una tecnología e identificar mejor sus vulnerabilidades, también explorarán cómo responde la IA a consultas dañinas, como indicaciones que solicitan tácticas de supresión de votantes. En las próximas semanas, Anthropic También está implementando una prueba que tiene como objetivo redirigir a los usuarios estadounidenses que tienen consultas relacionadas con la votación a fuentes autorizadas de información como TurboVote de Democracy Works, un grupo no partidista sin fines de lucro. La compañía dijo que su modelo de IA no se entrenaba con la frecuencia suficiente para proporcionar datos confiables en tiempo real sobre elecciones específicas. De manera similar, OpenAI dijo el mes pasado que planeaba señalar a las personas la información de votación a través de ChatGPT, así como etiquetar las imágenes generadas por IA. Como cualquier tecnología nueva, estas herramientas conllevan beneficios y desafíos”, dijo OpenAI en una publicación de blog. «Tampoco tienen precedentes, y seguiremos evolucionando nuestro enfoque a medida que aprendamos más sobre cómo se utilizan nuestras herramientas». (El New York Times demandó a OpenAI y su socio, Microsoft, en diciembre, alegando infracción de derechos de autor de contenido de noticias relacionado con la IA sistemas.) Synthesia, una nueva empresa con un generador de videos de inteligencia artificial que ha sido vinculada a campañas de desinformación, también prohíbe el uso de tecnología para “contenido similar a noticias”, incluido material falso, polarizador, divisivo o engañoso. La compañía ha mejorado los sistemas que utiliza para detectar el uso indebido de su tecnología, dijo Alexandru Voica, jefe de políticas y asuntos corporativos de Synthesia. Stability AI, una nueva empresa con una herramienta generadora de imágenes, dijo que prohibía el uso de su tecnología para propósitos ilegales o poco éticos, trabajó para bloquear la generación de imágenes inseguras y aplicó una marca de agua imperceptible a todas las imágenes. Las mayores empresas de tecnología también han intervenido. La semana pasada, Meta dijo que estaba colaborando con otras empresas en estándares tecnológicos para ayudar a reconocer cuando el contenido Fue generado con inteligencia artificial. Antes de las elecciones parlamentarias de la Unión Europea en junio, TikTok dijo en una publicación de blog el miércoles que prohibiría el contenido manipulado potencialmente engañoso y exigiría a los usuarios etiquetar creaciones realistas de IA. Google dijo en diciembre que también exigiría a los creadores de vídeos en YouTube y a todos los anunciantes electorales a revelar contenido generado o alterado digitalmente. La compañía dijo que se estaba preparando para las elecciones de 2024 restringiendo que sus herramientas de inteligencia artificial, como Bard, devuelvan respuestas a ciertas consultas relacionadas con las elecciones. “Como cualquier tecnología emergente, la inteligencia artificial presenta nuevas oportunidades y desafíos”, dijo Google. La IA puede ayudar a combatir el abuso, añadió la empresa, «pero también nos estamos preparando para saber cómo puede cambiar el panorama de la desinformación».

Source link