Los titulares de este ciclo electoral han estado dominados por acontecimientos sin precedentes, entre ellos la condena penal de Donald Trump, el atentado contra su vida, la desastrosa actuación de Joe Biden en el debate y su sustitución en la lista demócrata por la vicepresidenta Kamala Harris. No es de extrañar que otros acontecimientos políticos importantes hayan quedado eclipsados, incluido el goteo constante de intentos mejorados por inteligencia artificial para influir en los votantes. Durante las primarias presidenciales, una falsa llamada automática de Biden instó a los votantes de New Hampshire a esperar hasta noviembre para emitir sus votos. En julio, Elon Musk compartió un vídeo que incluía una voz que imitaba a Kamala Harris diciendo cosas que no dijo. Originalmente etiquetado como una parodia, el clip se transformó rápidamente en una publicación sin etiqueta en X con más de 130 millones de visitas, destacando el desafío que enfrentan los votantes. Más recientemente, Trump utilizó como arma las preocupaciones sobre la IA al afirmar falsamente que una foto de un mitin de Harris fue generada por IA, lo que sugiere que la multitud no era real. Y una foto falsa del intento de asesinato del expresidente alteró las caras de los agentes del Servicio Secreto para que parecieran estar sonriendo, promoviendo la falsa teoría de que el tiroteo fue una puesta en escena. Claramente, cuando se trata de manipulación de IA, el público votante tiene que estar preparado para cualquier cosa. Los votantes no estarían en este aprieto si los candidatos tuvieran políticas claras sobre el uso de IA en sus campañas. Las pautas escritas sobre cuándo y cómo las campañas pretenden utilizar la IA permitirían a las personas comparar el uso de la tecnología por parte de los candidatos con sus políticas declaradas. Esto ayudaría a los votantes a evaluar si los candidatos practican lo que predican. Si un político presiona para que se coloque una marca de agua en la IA para que las personas puedan identificar cuándo se está utilizando, por ejemplo, debería usar ese etiquetado en su propia IA en anuncios y otros materiales de campaña. Las declaraciones de política de IA también pueden ayudar a las personas a protegerse de los malos actores que intentan manipular sus votos. Y la falta de medios confiables para evaluar el uso de la IA socava el valor que la tecnología podría aportar a las elecciones si se implementa de manera adecuada, justa y con total transparencia. No es que los políticos no estén usando IA. De hecho, empresas como Google y Microsoft han reconocido que han capacitado a docenas de campañas y grupos políticos en el uso de herramientas de IA generativa. Las principales empresas de tecnología publicaron un conjunto de principios a principios de este año que guían el uso de la IA en las elecciones. También prometieron desarrollar tecnología para detectar y etiquetar contenido realista creado con IA generativa y educar al público sobre su uso. Sin embargo, estos compromisos carecen de medios para su cumplimiento. Los reguladores gubernamentales han respondido a las preocupaciones sobre el efecto de la IA en las elecciones. En febrero, después de la llamada automática deshonesta de New Hampshire, la Comisión Federal de Comunicaciones tomó medidas para declarar ilegales esas tácticas. El consultor que ideó la llamada fue multado con 6 millones de dólares, y la empresa de telecomunicaciones que realizó las llamadas fue multada con 2 millones de dólares. Pero aunque la FCC quiere exigir que se revele el uso de la IA en los anuncios de radiodifusión, el presidente de la Comisión Federal Electoral anunció el mes pasado que la agencia estaba poniendo fin a su consideración de regular la IA en los anuncios políticos. Los funcionarios de la FEC dijeron que eso excedería su autoridad y que esperarían la dirección del Congreso sobre el tema. California y otros estados requieren descargos de responsabilidad cuando se utiliza la tecnología, pero solo cuando hay un intento de malicia. Michigan y Washington requieren divulgación sobre cualquier uso de IA. Y Minnesota, Georgia, Texas e Indiana han aprobado prohibiciones totales al uso de IA en anuncios políticos. Es probable que sea demasiado tarde en este ciclo electoral para esperar que las campañas comiencen a revelar sus prácticas de IA. Por lo tanto, la responsabilidad recae en los votantes para permanecer atentos a la IA, de la misma manera que otras tecnologías, como el autopago en supermercados y otras tiendas, han transferido la responsabilidad a los consumidores. Los votantes no pueden confiar en que la información electoral que llega a sus buzones de correo, bandejas de entrada y plataformas de redes sociales esté libre de manipulación tecnológica. Deben tomar nota de quién ha financiado la distribución de dichos materiales y buscar signos obvios del uso de IA en las imágenes, como dedos faltantes o aretes que no combinan. Los votantes deben saber la fuente de la información que están consumiendo, cómo se verificó y cómo se está compartiendo. Todo esto contribuirá a una mayor alfabetización informativa, que, junto con el pensamiento crítico, es una habilidad que los votantes necesitarán para llenar sus papeletas electorales este otoño. Ann G. Skeet es directora senior de ética del liderazgo y John P. Pelissero es director de ética gubernamental en el Centro Markkula de Ética Aplicada de la Universidad de Santa Clara. Ambos se encuentran entre los coautores de “Voting for Ethics: A Guide for US Voters”, del cual se adaptaron partes de este artículo.