OpenAI espera aliviar las preocupaciones sobre la influencia de su tecnología en las elecciones, ya que más de un tercio de la población mundial se está preparando para votar este año. Entre los países donde están programadas elecciones se encuentran Estados Unidos, Pakistán, India, Sudáfrica y el Parlamento Europeo. “Queremos asegurarnos de que nuestros sistemas de inteligencia artificial se construyan, implementen y utilicen de manera segura. Como cualquier tecnología nueva, estas herramientas conllevan beneficios y desafíos”, escribió OpenAI el lunes en una publicación de blog. «Tampoco tienen precedentes, y seguiremos evolucionando nuestro enfoque a medida que aprendamos más sobre cómo se utilizan nuestras herramientas». Ha habido una creciente aprensión sobre el posible uso indebido de las herramientas de IA generativa (genAI) para perturbar los procesos democráticos, especialmente desde que OpenAI – respaldado de Microsoft: presentó ChatGPT a finales de 2022. La herramienta Open AI es conocida por sus capacidades de generación de texto similares a las humanas. Y otra herramienta, DALL-E, puede generar imágenes fabricadas muy realistas, a menudo denominadas «falsificaciones profundas». OpenAI se prepara para las elecciones. Por su parte, OpenAI dijo que ChatGPT redirigirá a los usuarios a CanIVote.org para consultas específicas relacionadas con las elecciones. La compañía también se está enfocando en mejorar la transparencia de las imágenes generadas por IA utilizando su tecnología DALL-E y planea incorporar un ícono «cr» en dichas fotos, indicando que fueron generadas por IA. La compañía también planea mejorar su plataforma ChatGPT al integrándolo con informes de noticias globales en tiempo real, incluida la atribución y los enlaces adecuados. La iniciativa de noticias es una ampliación de un acuerdo firmado el año pasado con el conglomerado de medios alemán Axel Springer. Según ese acuerdo, los usuarios de ChatGPT obtienen acceso a versiones resumidas de contenido de noticias globales selectos de los diversos canales de medios de Axel Springer. Además de esas medidas, la compañía también está desarrollando técnicas para identificar el contenido creado por DALL-E, incluso después de que las imágenes sufran modificaciones. Preocupaciones crecientes sobre la combinación de IA y política No existe una regla universal sobre cómo se debe usar genAI en política. El año pasado, Meta declaró que prohibiría a las campañas políticas utilizar herramientas genAI en su publicidad y exigiría que los políticos revelaran dicho uso en sus anuncios. De manera similar, YouTube dijo que todos los creadores de contenido deben revelar si sus videos contienen medios «realistas» pero alterados, incluidos aquellos creados con IA. Mientras tanto, la Comisión Federal Electoral (FCC) de EE. UU. está deliberando sobre si las leyes existentes contra la «tergiversación fraudulenta de otros candidatos o partidos políticos» se aplican al contenido generado por IA. (Está pendiente una decisión formal sobre el tema.) La información falsa y engañosa siempre ha sido un factor en las elecciones, dijo Lisa Schirch, catedrática Richard G. Starmann de Estudios sobre la Paz en la Universidad de Notre Dame. Pero la genAI permite a muchas más personas crear propaganda falsa cada vez más realista. Docenas de países ya han establecido centros de guerra cibernética que emplean a miles de personas para crear cuentas falsas, generar publicaciones fraudulentas y difundir información falsa y engañosa en las redes sociales, dijo Schirch. Por ejemplo, dos días antes de las elecciones en Eslovaquia, se publicó una grabación de audio falsa de un político que intentaba manipular las elecciones. Como ‘gasolina… en el fuego ardiente de la polarización política’“El problema no es sólo la información falsa; es que los actores malignos pueden crear representaciones emocionales de candidatos diseñadas para generar ira e indignación”, añadió Schirch. “Los robots de inteligencia artificial pueden escanear grandes cantidades de material en línea para hacer predicciones sobre qué tipo de anuncios políticos podrían ser persuasivos. En este sentido, la IA es gasolina echada al fuego ya ardiente de la polarización política. La IA facilita la creación de material diseñado para maximizar la persuasión y la manipulación de la opinión pública”. Una de las principales preocupaciones sobre la IA genética y los titulares que llaman la atención son las imágenes y las falsificaciones profundas, dijo Peter Loge, director del Proyecto sobre Ética en la Comunicación Política de Universidad George Washington. La amenaza más importante proviene de los grandes modelos de lenguaje (LLM, por sus siglas en inglés) que pueden generar un sinfín de mensajes con contenido similar al instante, inundando el mundo con falsificaciones. “Los LLM y la IA generativa pueden inundar las redes sociales, las secciones de comentarios, las cartas al editor, los correos electrónicos a las campañas, y así sucesivamente, con tonterías”, añadió. «Esto tiene al menos tres efectos: el primero es un aumento exponencial de las tonterías políticas, lo que podría llevar a un cinismo aún mayor y permitir a los candidatos repudiar el mal comportamiento real diciendo que las afirmaciones fueron generadas por un robot». Hemos entrado en una nueva era. de ‘¿A quién vas a creer, a mí, a tus ojos mentirosos o al LLM mentiroso de tu computadora?’”, dijo Loge. Se necesitan protecciones más fuertes lo antes posible Las protecciones actuales no son lo suficientemente fuertes como para evitar que genAI desempeñe un papel en las elecciones de este año, según Gal Ringel, director ejecutivo de la empresa de ciberseguridad Mine. Dijo que incluso si la infraestructura de una nación pudiera disuadir o eliminar ataques, la prevalencia de información errónea en línea creada por GenAI podría influir en cómo la gente percibe la carrera y posiblemente afectar los resultados finales. “La confianza en la sociedad se encuentra en un punto tan bajo en Estados Unidos en este momento. «La adopción de la IA por parte de malos actores podría tener un efecto desproporcionadamente fuerte, y realmente no hay una solución rápida para eso más allá de construir una Internet mejor y más segura», añadió Ringel. Las empresas de redes sociales necesitan desarrollar políticas que reduzcan el daño causado por la IA. contenido y al mismo tiempo cuidar de preservar el discurso legítimo, dijo Kathleen M. Carley, profesora de CyLab en la Universidad Carnegie Mellon. Por ejemplo, podrían verificar públicamente las cuentas de los funcionarios electorales utilizando íconos únicos. Las empresas también deberían restringir o prohibir los anuncios que nieguen los resultados electorales próximos o en curso. Y deberían etiquetar los anuncios electorales generados por IA como generados por IA, aumentando así la transparencia. “Las tecnologías de IA están en constante evolución y se necesitan nuevas salvaguardas”, añadió Carley. «Además, la IA podría usarse para ayudar a identificar a quienes difunden el odio, identificar el discurso de odio y crear contenido que ayude con la educación de los votantes y el pensamiento crítico». Copyright © 2024 IDG Communications, Inc.

Source link