Comenta esta historiaComentarAgregar a tus historias guardadasGuardarLa empresa de inteligencia artificial OpenAI presentó sus planes y políticas para tratar de impedir que la gente use su tecnología para difundir desinformación y mentiras sobre las elecciones, mientras miles de millones de personas en algunas de las democracias más grandes del mundo acuden a las urnas este año. La compañía, que fabrica el popular chatbot ChatGPT, el generador de imágenes DALL-E y proporciona tecnología de inteligencia artificial a muchas empresas, incluida Microsoft, dijo en una publicación de blog el lunes que no permitiría que las personas usaran su tecnología para crear aplicaciones para fines políticos. campañas y lobby, para disuadir a la gente de votar o difundir información errónea sobre el proceso de votación. OpenAI dijo que también comenzaría a incluir marcas de agua incrustadas, una herramienta para detectar fotografías creadas por IA, en imágenes creadas con su generador de imágenes DALL-E «a principios de este año». «Trabajamos para anticipar y prevenir abusos relevantes, como engañosos». «deepfakes», operaciones de influencia a escala o chatbots que se hacen pasar por candidatos”, dijo OpenAI en la publicación del blog. Los partidos políticos, los actores estatales y los empresarios oportunistas de Internet han utilizado las redes sociales durante años para difundir información falsa e influir en los votantes. Pero activistas, políticos e investigadores de IA han expresado su preocupación de que los chatbots y los generadores de imágenes puedan aumentar la sofisticación y el volumen de información política errónea. Las medidas de OpenAI se producen después de que otras empresas tecnológicas también hayan actualizado sus políticas electorales para hacer frente al auge de la IA. En diciembre, Google dijo que restringiría el tipo de respuestas que dan sus herramientas de inteligencia artificial a preguntas relacionadas con las elecciones. También dijo que requeriría que las campañas políticas que le compraron anuncios revelaran cuándo usaban IA. Meta, matriz de Facebook, también exige que los anunciantes políticos revelen si utilizaron IA, pero las empresas han tenido dificultades para administrar sus propias políticas de desinformación electoral. Aunque OpenAI prohíbe el uso de sus productos para crear materiales de campaña específicos, un informe del Post en agosto mostró que estas políticas no se aplicaron. Ya ha habido casos de alto perfil de mentiras relacionadas con las elecciones generadas por herramientas de inteligencia artificial. En octubre, The Washington Post informó que el altavoz doméstico Alexa de Amazon estaba declarando falsamente que las elecciones presidenciales de 2020 fueron robadas y estaban llenas de fraude electoral. Amy Klobuchar (D-Minn.) ha expresado su preocupación de que ChatGPT pueda interferir con el proceso electoral, diciendo a las personas que vayan a una dirección falsa cuando se les pregunta qué hacer si las filas son demasiado largas en un lugar de votación. Si un país quisiera influir en el El proceso político estadounidense podría, por ejemplo, construir chatbots con apariencia humana que impulsen narrativas divisivas en los espacios de las redes sociales estadounidenses, en lugar de tener que pagar a agentes humanos para que lo hagan. Los chatbots también podrían elaborar mensajes personalizados adaptados a cada votante, aumentando potencialmente su efectividad a bajo costo. En la publicación del blog, OpenAI dijo que estaba «trabajando para comprender qué tan efectivas podrían ser nuestras herramientas para la persuasión personalizada». La compañía abrió recientemente su “Tienda GPT”, que permite a cualquiera entrenar fácilmente un chatbot utilizando sus propios datos. Las herramientas de inteligencia artificial generacional no comprenden lo que es verdadero o falso. En cambio, predicen cuál podría ser una buena respuesta a una pregunta basada en analizar miles de millones de oraciones extraídas de la Internet abierta. A menudo, proporcionan textos parecidos a los humanos y llenos de información útil. También suelen inventar información falsa y hacerla pasar como si fuera un hecho. Las imágenes creadas por IA ya han aparecido en toda la web, incluso en la búsqueda de Google, y se presentan como imágenes reales. También han empezado a aparecer en las campañas electorales estadounidenses. El año pasado, un anuncio publicado por la campaña del gobernador de Florida, Ron DeSantis, utilizó lo que parecían ser imágenes generadas por inteligencia artificial de Donald Trump abrazando al exasesor de coronavirus de la Casa Blanca, Anthony S. Fauci. No está claro qué generador de imágenes se utilizó para crear las imágenes. Otras empresas, incluidas Google y el fabricante de Photoshop Adobe, han dicho que también utilizarán marcas de agua en las imágenes generadas por sus herramientas de inteligencia artificial. Pero la tecnología no es una cura mágica para la difusión de imágenes falsas de IA. Las marcas de agua visibles se pueden recortar o editar fácilmente. Los criptográficos integrados, que no son visibles para el ojo humano, pueden distorsionarse simplemente volteando la imagen o cambiando su color. Las compañías tecnológicas dicen que están trabajando para mejorar este problema y hacerlos a prueba de manipulaciones, pero por ahora ninguno parece Todavía no he descubierto cómo hacerlo de manera efectiva. Cat Zakrzewski contribuyó a este informe.

Source link