Este año marca el año electoral más importante del mundo hasta el momento. Se estima que cuatro mil millones de votantes acudirán a las urnas en más de 60 elecciones nacionales en todo el mundo en 2024, todo en un momento en que la inteligencia artificial (IA) continúa haciendo historia. Sin lugar a dudas, el uso nocivo de la IA desempeñará un papel en la interferencia electoral en todo el mundo. De hecho, ya lo ha hecho. En enero, miles de votantes estadounidenses en New Hampshire recibieron una llamada automática de IA que se hacía pasar por el presidente Joe Biden, instándolos a no votar en las primarias. En el Reino Unido, más de 100 anuncios falsos en redes sociales se hicieron pasar por el Primer Ministro Rishi Sunak en la plataforma Meta en diciembre pasado.[i]. De manera similar, las elecciones parlamentarias de 2023 en Eslovaquia generaron clips de audio falsos que presentaban propuestas falsas para manipular votos y aumentar el precio de la cerveza.[ii]. No podemos decirlo más claramente. El uso nocivo de la IA tiene el potencial de influir en una elección. El auge de la IA en las grandes elecciones. En poco más de un año, las herramientas de inteligencia artificial han evolucionado rápidamente y ofrecen una gran cantidad de beneficios. Analiza datos de salud a escalas masivas, lo que promueve mejores resultados de atención médica. Ayuda a los supermercados a llevar los productos más frescos a los pasillos al optimizar la cadena de suministro. Y también hace muchas cosas útiles todos los días, como recomendar películas y programas en nuestras colas de transmisión según lo que nos gusta. Sin embargo, como ocurre con prácticamente cualquier tecnología, si la IA ayuda o perjudica depende de la persona que la utiliza. Y muchos malos actores han optado por utilizarlo para hacer daño. Los estafadores lo han utilizado para engañar a las personas con «deepfakes» convincentes que se hacen pasar por todos, desde Taylor Swift hasta miembros de su propia familia, con audio, videos y fotografías falsos creados por IA. Además, la IA también ha ayudado a los estafadores a generar correos electrónicos y mensajes de texto de phishing que parecen terriblemente legítimos, todo a gran escala gracias a la facilidad de uso de la IA. Ahora, consideremos cómo esos mismos deepfakes y estafas podrían influir en un año electoral. No tenemos ninguna duda: los ejemplos citados anteriormente son sólo el comienzo. Nuestro compromiso este año electoral. En este clima, nos hemos comprometido a ayudar a evitar que el contenido engañoso de IA interfiera con las elecciones globales de este año como parte del «Acuerdo tecnológico para combatir el uso engañoso de la IA en las elecciones de 2024″. Nos unimos a empresas tecnológicas líderes como Adobe, Google, IBM, Meta, Microsoft y TikTok para desempeñar nuestro papel en la protección de las elecciones y el proceso electoral. Colectivamente, aportaremos nuestros respectivos poderes para combatir los deepfakes y otros usos dañinos de la IA. Esto incluye contenido digital como audio, video e imágenes generados por inteligencia artificial que falsifican o alteran engañosamente la apariencia, la voz o las acciones de candidatos políticos, funcionarios electorales y otras figuras en elecciones democráticas. Asimismo, cubre contenido que proporciona información falsa sobre cuándo, dónde y cómo las personas pueden emitir su voto. Un conjunto de siete principios guían el camino para este acuerdo, en el que cada signatario del compromiso aporta sus fortalezas a la causa: incluso antes de unirnos al acuerdo, hemos desempeñado un papel importante en los aspectos de detección, concientización pública y resiliencia. El acuerdo sólo refuerza nuestros esfuerzos al alinearlos con otros. Para mencionar algunos de nuestros esfuerzos hasta la fecha: a principios de este año, anunciamos nuestro Proyecto Mockingbird, una nueva tecnología de detección que puede ayudar a detectar audio clonado por IA en mensajes y videos. (Puede verlo en acción aquí en nuestro blog sobre la estafa deepfake de Taylor Swift). A partir de ahí, puede esperar ver nuestras tecnologías de detección similares que cubren todo tipo de contenido, como videos, fotos y texto. Hemos creado McAfee Scam Protection, una función impulsada por IA que detiene las estafas antes de que usted haga clic o toque un enlace riesgoso. Detecta enlaces sospechosos y le envía una alerta si aparece uno en mensajes de texto, correos electrónicos o redes sociales, todo lo cual es importante cuando los estafadores utilizan los ciclos electorales para desviar dinero de las víctimas con sitios de phishing de temática política. Y, como siempre, nos esforzamos mucho en crear conciencia, aquí en nuestros blogs, junto con nuestros informes y guías de investigación. Cuando se trata de combatir el uso nocivo de la IA, la tecnología proporciona parte de la solución; la otra parte son las personas. Con una comprensión de cómo los malos actores usan la IA, cómo se ve y una buena dosis de inteligencia callejera en Internet, las personas pueden protegerse aún mejor de las estafas y la desinformación absoluta. Los acuerdos tecnológicos sobre IA: un primer paso importante de muchos En total, consideramos que el acuerdo tecnológico es un paso importante que las empresas de tecnología y medios pueden dar para mantener a las personas a salvo del contenido dañino generado por IA. Ahora en este año electoral. Y avanzamos a medida que la IA continúa dando forma y remodelando lo que vemos y escuchamos en línea. Sin embargo, más allá de este acuerdo y las empresas que lo han firmado, sigue existiendo un punto importante: el acuerdo representa solo un paso para preservar la integridad de las elecciones en la era de la IA. Como empresas de tecnología, podemos hacer y haremos nuestra parte para evitar que la IA dañina influya en las elecciones. Sin embargo, las elecciones justas siguen siendo producto de las naciones y sus pueblos. Con ello, el Estado de derecho entra inequívocamente en juego. La legislación y las regulaciones que frenan el uso nocivo de la IA y que imponen sanciones a sus creadores proporcionarán otro paso vital en la solución más amplia. Un ejemplo: hemos visto cómo la Comisión Federal de Comunicaciones de EE. UU. (FCC) recientemente declaró ilegales las llamadas automáticas con IA. Con su fallo, la FCC brinda a los fiscales generales estatales de todo el país nuevas herramientas para perseguir a los malos actores detrás de las nefastas llamadas automáticas.[iii]. Y eso es en gran medida un paso en la dirección correcta. Proteger a las personas del mal uso de la IA exige el compromiso de todos los rincones. A nivel mundial, nos enfrentamos a un desafío de naturaleza tremendamente imponente. Sin embargo, no es insuperable. Colectivamente, podemos mantener a las personas más seguras. El texto del acuerdo que firmamos conjuntamente lo dice bien: “La protección de la integridad electoral y la confianza pública es una responsabilidad compartida y un bien común que trasciende los intereses partidistas y las fronteras nacionales”. Estamos orgullosos de decir que contribuiremos a ese objetivo con todo lo que podamos aportar.
[i] https://www.theguardian.com/technology/2024/jan/12/deepfake-video-adverts-sunak-facebook-alarm-ai-risk-election
[ii] https://www.bloomberg.com/news/articles/2023-09-29/trolls-in-slovakian-election-tap-ai-deepfakes-to-spread-disinfo
[iii] https://docs.fcc.gov/public/attachments/DOC-400393A1.pdf Presentamos McAfee+ Protección contra robo de identidad y privacidad para su vida digital Descargue McAfee+ ahora \x3Cimg height=»1″ width=»1″ style=»display: ninguno» src=»https://www.facebook.com/tr?id=766537420057144&ev=PageView&noscript=1″ />\x3C/noscript>’);