SAN FRANCISCO – Las principales empresas de inteligencia artificial están planeando firmar un “acuerdo” comprometiéndose a desarrollar tecnología para identificar, etiquetar y controlar imágenes, videos y grabaciones de audio generados por IA que tienen como objetivo engañar a los votantes antes de elecciones cruciales en varios países este año. Sin embargo, el acuerdo, desarrollado por Google, Microsoft y Meta, así como OpenAI, Adobe y TikTok, no prohíbe el contenido político engañoso de IA, según una copia obtenida por The Washington Post. X, anteriormente Twitter, no fue signatario del acuerdo. En cambio, el documento equivale a un manifiesto que afirma que el contenido generado por IA, gran parte del cual es creado por las herramientas de las empresas y publicado en sus plataformas, presenta riesgos para elecciones justas. , y describe pasos para tratar de mitigar ese riesgo, como etiquetar el contenido electoral sospechoso de IA y educar al público sobre los peligros de la IA. “La generación y distribución intencional y no divulgada de contenido electoral engañoso de IA puede engañar al público de maneras que pongan en peligro la integridad de procesos electorales”, se lee en el acuerdo. Las imágenes generadas por IA, o “deepfakes”, existen desde hace varios años. Pero en el último año, su calidad ha mejorado rápidamente, hasta el punto de que algunos vídeos, imágenes y grabaciones de audio falsos son difíciles de distinguir de los reales. Las herramientas para hacerlos ahora también están ampliamente disponibles, lo que hace que su producción sea mucho más fácil. Los disparos a la cabeza profesionales con IA son rápidos y fáciles. ¿Pero deberías usar uno? El contenido generado por IA ya ha aparecido en campañas electorales en todo el mundo. El año pasado, un anuncio de apoyo al ex candidato presidencial republicano Ron DeSantis utilizó IA para imitar la voz del ex presidente Donald Trump. En Pakistán, el candidato presidencial Imran Khan utilizó IA para pronunciar discursos, desde la cárcel. En enero, una llamada automática que pretendía ser el presidente Biden alentó a la gente a no votar en las primarias de New Hampshire. Las llamadas utilizaron una versión de la voz de Biden generada por IA. Las empresas tecnológicas han estado bajo presión de reguladores, investigadores de IA y activistas políticos para frenar la difusión de contenido electoral falso. El nuevo acuerdo es similar a un compromiso voluntario que las mismas empresas, más varias otras, firmaron en julio después de una reunión en la Casa Blanca, donde se comprometieron a intentar identificar y etiquetar contenido falso de IA en sus sitios. En el nuevo acuerdo, las empresas también se comprometen a educar a los usuarios sobre el contenido engañoso de IA y a ser transparentes sobre sus esfuerzos para identificar deepfakes. La IA entrenada en las experiencias de un bebé arroja pistas sobre cómo aprendemos el lenguaje. Las empresas de tecnología también ya tienen sus propias políticas sobre IA política. -Contenido generado. TikTok no permite contenido falso de inteligencia artificial de figuras públicas cuando se utiliza para respaldo político o comercial. Meta, la empresa matriz de Facebook e Instagram, exige que los anunciantes políticos revelen si utilizan IA en los anuncios de sus plataformas. YouTube requiere que los creadores etiqueten el contenido generado por IA de manera que parezca realista cuando lo publican en el sitio de videos propiedad de Google. Análisis: Microsoft dice que su IA es segura. Entonces, ¿por qué sigue degollando a la gente? Aún así, los intentos de construir un sistema amplio en el que el contenido de IA sea identificado y etiquetado en las redes sociales aún no han dado frutos. Google ha mostrado su tecnología de “marcas de agua”, pero no exige que sus clientes la utilicen. Adobe, el propietario de Photoshop, se ha posicionado como líder en el control del contenido de IA, pero su propio sitio web de fotografías estuvo recientemente lleno de imágenes falsas de la guerra en Gaza.

Source link