Todo lo que necesitas saber sobre tecnología

Etiqueta: Elecciones

Elon Musk respaldó a Jeremy Sylestine para el fiscal del condado de Travis, perdió el martes

La elección de Elon Musk para ser fiscal de distrito del condado de Travis en Texas perdió el martes, horas después de que el director ejecutivo de Tesla enviara un correo electrónico a toda la empresa instando a los empleados a seguir su ejemplo. Jeremy Sylestine, un rival demócrata del actual José Garza, fue derrotado temprano en el Súper Martes , con Garza ganando por más de 30 puntos. Musk parece haber eliminado su publicación en el sitio de redes sociales X respaldando a Sylestine. Sylestine se postuló en una plataforma para procesar más casos, invertir en iniciativas de seguridad pública y depender de más juicios con jurado. Musk, que se mudó de California a Texas hace varios años y posteriormente trasladó la sede de Tesla de Silicon Valley a Austin, ha hablado cada vez más sobre política y, según se informa, se reunió con el expresidente Donald Trump en Florida durante el fin de semana. Texas también es el hogar de una importante empresa de SpaceX. instalaciones y The Boring Company, dos de las otras empresas de Musk. Musk escribió el miércoles en X que «no donará dinero directamente» a ninguno de los candidatos a la presidencia en 2024, pero él y sus empresas han contribuido a comités de acción política y comités de campaña en el pasado, según registros publicados en OpenSecrets.org. Esto es lo que Musk escribió a los empleados el martes en un correo electrónico obtenido por CNBC. De: Elon Musk Para: Todos Fecha: 5 de marzo de 2024 Esto se aplica principalmente si vive en el área metropolitana de Austin. , pero, si lo hace, vote hoy por un nuevo fiscal de distrito que realmente procesará el crimen. ¡Ya es hora de cambiar en todo el mundo! Musk incluyó un enlace a su publicación en X, ya eliminada, que decía: «Lamento molestar a todos con esta nota, ya que se aplica a las personas en el área metropolitana de Austin, pero por favor vayan a las urnas y ¡vote por un nuevo fiscal de distrito!» Musk luego envió un segundo correo electrónico a toda la empresa, que decía: «Vale la pena señalar que Jeremy Sylestine es un demócrata moderado, no un republicano. Se postula contra un titular de extrema izquierda en las primarias». Bloomberg fue el primero para informar sobre los correos electrónicos de Musk. Sylestine no respondió de inmediato a la solicitud de comentarios de CNBC. Tesla opera su planta de ensamblaje de vehículos más grande de EE. UU. en el condado de Travis, hogar de Austin. Si bien Musk se ha presentado como un votante independiente que anteriormente apoyó a candidatos presidenciales, incluido su amigo Ye, anteriormente conocido como Kanye West, y Andrew Yang, sus comentarios políticos públicos han ido moviéndose hacia la derecha durante años. En una serie de publicaciones en X el martes, acusó al presidente Joe Biden de «traición», sin aportar pruebas. Musk apoyó a la republicana de Texas Mayra Flores en su carrera por el Congreso en 2022. Ahora respalda a Marty O’Donnell, un compositor de música para popular videojuego, que se postula como republicano para el Congreso en Nevada. «Espero que más personas como Marty se postulen para un cargo», escribió Musk en X el martes, recirculando una publicación de O’Donnell. MIRAR: OpenAI contraataca a Elon Musk

Source link

El plan de marca de agua de IA de Meta es endeble, en el mejor de los casos


En los últimos meses, hemos visto una llamada automática falsa de Joe Biden alentando a los votantes de New Hampshire a «guardar su voto para las elecciones de noviembre» y un respaldo falso a Donald Trump por parte de Taylor Swift. Está claro que 2024 marcará la primera “elección de IA” en la historia de Estados Unidos. Mientras muchos defensores piden salvaguardias contra los posibles daños de la IA a nuestra democracia, Meta (la empresa matriz de Facebook e Instagram) anunció con orgullo el mes pasado que etiquetará a la IA como -Contenido generado que se creó utilizando las herramientas de IA generativa más populares. La compañía dijo que está «creando herramientas líderes en la industria que pueden identificar marcadores invisibles a escala, específicamente, la información ‘generada por IA’ en los estándares técnicos C2PA e IPTC». Desafortunadamente, las empresas de redes sociales no resolverán el problema de los deepfakes en las redes sociales este año con este enfoque. De hecho, este nuevo esfuerzo hará muy poco para abordar el problema del material generado por IA que contamina el ambiente electoral. La debilidad más obvia es que el sistema de Meta solo funcionará si los malos actores que crean deepfakes usan herramientas que ya ponen marcas de agua, es decir, información oculta o visible sobre el origen del contenido digital en sus imágenes. Las herramientas de IA generativa de “código abierto” no seguras en su mayoría no producen marcas de agua en absoluto. (Usamos el término no seguro y ponemos “código abierto” entre comillas para indicar que muchas de estas herramientas no cumplen con las definiciones tradicionales de software de código abierto, pero aún representan una amenaza porque su código subyacente o sus pesos de modelo se han puesto a disposición del público. .) Si se lanzan nuevas versiones de estas herramientas no seguras que contienen marcas de agua, las herramientas antiguas seguirán estando disponibles y podrán producir contenido sin marcas de agua, incluida desinformación personalizada y altamente persuasiva y pornografía deepfake no consensuada. También nos preocupa que los malos actores pueden eludir fácilmente el régimen de etiquetado de Meta incluso si están utilizando las herramientas de inteligencia artificial que Meta dice que estarán cubiertas, que incluyen productos de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock. Dado que se necesitan unos dos segundos para eliminar una marca de agua de una imagen producida utilizando el estándar de marca de agua C2PA actual que estas empresas han implementado, la promesa de Meta de etiquetar imágenes generadas por IA fracasa. Cuando los autores subieron una imagen que habían generado a un sitio web que busca marcas de agua, el sitio indicó correctamente que era una imagen sintética generada por una herramienta OpenAI. IEEE SpectrumLo sabemos porque pudimos eliminar fácilmente las marcas de agua que Meta afirma que detectará, y ninguno de nosotros es ingeniero. Tampoco tuvimos que escribir una sola línea de código ni instalar ningún software. Primero, generamos una imagen con DALL-E 3 de OpenAI. Luego, para ver si la marca de agua funcionaba, subimos la imagen al sitio web de verificación de credenciales de contenido C2PA. Una interfaz simple y elegante nos mostró que esta imagen fue hecha con DALL-E 3 de OpenAI. ¿Cómo eliminamos entonces la marca de agua? Tomando una captura de pantalla. Cuando subimos la captura de pantalla al mismo sitio web de verificación, el sitio de verificación no encontró evidencia de que la imagen hubiera sido generada por IA. El mismo proceso funcionó cuando creamos una imagen con el generador de imágenes de IA de Meta y le tomamos una captura de pantalla y la subimos a un sitio web que detecta los metadatos de IPTC que contienen la «marca de agua» de IA de Meta. Sin embargo, cuando los autores tomaron una captura de pantalla de la imagen y cargó esa captura de pantalla en el mismo sitio de verificación, el sitio no encontró ninguna marca de agua y, por lo tanto, no hubo evidencia de que la imagen fuera generada por IA. IEEE Spectrum ¿Existe una mejor manera de identificar contenido generado por IA? El anuncio de Meta afirma que está «trabajando arduamente para desarrollar clasificadores que puedan ayudar… a detectar automáticamente contenido generado por IA, incluso si el contenido carece de marcadores invisibles». Es bueno que la compañía esté trabajando en ello, pero hasta que tenga éxito y comparta esta tecnología con toda la industria, nos quedaremos estancados preguntándonos si todo lo que vemos o escuchamos en línea es real. Para una solución más inmediata, la industria podría adoptar marcas de agua de máxima indelebilidad, es decir, marcas de agua que sean lo más difíciles de eliminar posible. Las marcas de agua imperfectas de hoy generalmente adjuntan información a un archivo en forma de metadatos. Para que las marcas de agua máximamente indelebles ofrezcan una mejora, deben ocultar información de manera imperceptible en los píxeles reales de las imágenes, las formas de onda del audio (Google Deepmind afirma haber hecho esto con su marca de agua patentada SynthID) o mediante patrones de frecuencia de palabras ligeramente modificados en IA. texto generado. Usamos el término «máximo» para reconocer que es posible que nunca exista una marca de agua perfectamente indeleble. Sin embargo, esto no es un problema sólo con las marcas de agua. El célebre experto en seguridad Bruce Schneier señala que “la seguridad informática no es un problema que tenga solución…. La seguridad siempre ha sido una carrera armamentista, y siempre lo será”. En términos metafóricos, es instructivo considerar la seguridad del automóvil. Ningún fabricante de automóviles ha producido jamás un coche que no pueda estrellarse. Sin embargo, eso no ha impedido que los reguladores implementen estándares de seguridad integrales que exigen cinturones de seguridad, bolsas de aire y cámaras retrovisoras en los automóviles. Si esperáramos a que se perfeccionaran las tecnologías de seguridad antes de exigir la implementación de las mejores opciones disponibles, estaríamos mucho peor en muchos ámbitos. Hay un impulso político cada vez mayor para abordar los deepfakes. Quince de las mayores empresas de IA, incluidas casi todas las mencionadas en este artículo, firmaron los Compromisos Voluntarios de IA de la Casa Blanca el año pasado, que incluían promesas de “desarrollar mecanismos sólidos, incluidos sistemas de procedencia y/o marcas de agua para contenido de audio o visual”. y «desarrollar herramientas o API para determinar si un contenido en particular se creó con su sistema». Desafortunadamente, la Casa Blanca no fijó ningún cronograma para los compromisos voluntarios. Luego, en octubre, la Casa Blanca, en su Orden Ejecutiva sobre IA, definió las marcas de agua de IA como “el acto de incrustar información, que normalmente es difícil de eliminar, en los resultados”. creado por IA, incluso en productos como fotografías, videos, clips de audio o texto, con el fin de verificar la autenticidad del producto o la identidad o características de su procedencia, modificaciones o transporte”. En la conferencia celebrada el 16 de febrero, un grupo de 20 empresas tecnológicas (la mitad de las cuales había firmado previamente los compromisos voluntarios) firmaron un nuevo “Acuerdo tecnológico para combatir el uso engañoso de la IA en las elecciones de 2024”. Sin asumir ningún compromiso concreto ni establecer cronogramas, el acuerdo ofrece una vaga intención de implementar algún tipo de marca de agua o esfuerzos de procedencia del contenido. Aunque no se especifica un estándar, el acuerdo enumera tanto a C2PA como a SynthID como ejemplos de tecnologías que podrían adoptarse. ¿Podrían ayudar las regulaciones? Hemos visto ejemplos de fuertes reacciones contra los deepfakes. Tras las llamadas automáticas de Biden generadas por IA, el Departamento de Justicia de New Hampshire inició una investigación en coordinación con socios estatales y federales, incluido un grupo de trabajo bipartidista formado por los 50 fiscales generales estatales y la Comisión Federal de Comunicaciones. Mientras tanto, a principios de febrero, la FCC aclaró que las llamadas que utilizan IA de generación de voz se considerarán artificiales y estarán sujetas a restricciones según las leyes existentes que regulan las llamadas automáticas. Desafortunadamente, no tenemos leyes que obliguen a los desarrolladores de IA ni a las empresas de redes sociales a actuar. El Congreso y los estados deberían exigir que todos los productos de IA generativa incorporen marcas de agua lo más indelebles posible en su contenido de imagen, audio, video y texto utilizando tecnología de punta. También deben abordar los riesgos de los sistemas no seguros de “fuente abierta” a los que se les puede desactivar la funcionalidad de marcas de agua o usarse para eliminar marcas de agua de otros contenidos. Además, se debe alentar a cualquier empresa que fabrique una herramienta de inteligencia artificial generativa a lanzar un detector que pueda identificar, con la mayor precisión posible, cualquier contenido que produzca. Esta propuesta no debería ser controvertida, ya que sus lineamientos generales ya han sido acordados por los firmantes de los compromisos voluntarios y el reciente acuerdo electoral. Las organizaciones de estándares como C2PA, el Instituto Nacional de Estándares y Tecnología y la Organización Internacional de Normalización deberían También avanzar más rápido para generar consenso y publicar estándares para marcas de agua y etiquetado de contenido máximamente indelebles en preparación para las leyes que requieren estas tecnologías. Google, como miembro más reciente del comité directivo de C2PA, también debería actuar rápidamente para abrir su aparentemente mejor tecnología de marca de agua SynthID a todos los miembros para que la prueben. La desinformación y el engaño a los votantes no son nada nuevo en las elecciones. Pero la IA está acelerando las amenazas existentes a nuestra ya frágil democracia. El Congreso también debe considerar qué medidas puede tomar para proteger nuestras elecciones en términos más generales de quienes buscan socavarlas. Eso debería incluir algunas medidas básicas, como aprobar la Ley de Prácticas Engañosas e Intimidación de Votantes, que haría ilegal mentir deliberadamente a los votantes sobre la hora, el lugar y la forma de las elecciones con la intención de impedirles votar en el período anterior. una elección federal. El Congreso ha sido lamentablemente lento a la hora de emprender una reforma democrática integral ante las recientes conmociones. La posible amplificación de estos shocks a través del abuso de la IA debería ser suficiente para lograr finalmente que los legisladores actúen. Artículos de su sitio Artículos relacionados en la Web

Source link

Empresas de tecnología e inteligencia artificial firman un acuerdo para combatir los deepfakes relacionados con las elecciones

Un grupo de 20 empresas tecnológicas líderes anunció el viernes un compromiso conjunto para combatir la desinformación de la IA en las elecciones de este año. La industria está apuntando específicamente a los deepfakes, que pueden usar audio, video e imágenes engañosas para imitar a las partes interesadas clave en las elecciones democráticas o para proporcionar votos falsos. información.Microsoft, Meta, Google, Amazon, IBM, Adobe y el diseñador de chips Arm firmaron el acuerdo. Las startups de inteligencia artificial OpenAI, Anthropic y Stability AI también se unieron al grupo, junto con empresas de redes sociales como Snap, TikTok y las plataformas X.Tech se están preparando para un gran año de elecciones en todo el mundo que afectarán a más de cuatro mil millones de personas en más de 40 años. países. El aumento del contenido generado por IA ha generado serias preocupaciones sobre la desinformación relacionada con las elecciones, y el número de deepfakes que se han creado ha aumentado un 900 % año tras año, según datos de Clarity, una empresa de aprendizaje automático. El principal problema se remonta a la campaña presidencial de 2016, cuando los actores rusos encontraron formas fáciles y económicas de difundir contenido inexacto en las plataformas sociales. Los legisladores están hoy aún más preocupados por el rápido aumento de la IA. «Existen motivos para una seria preocupación sobre cómo la IA podría usarse para engañar a los votantes en las campañas», dijo Josh Becker, senador estatal demócrata en California, en una entrevista. «Es alentador ver que algunas empresas se sientan a la mesa, pero en este momento no veo suficientes detalles, por lo que probablemente necesitaremos una legislación que establezca estándares claros». Mientras tanto, las tecnologías de detección y marcas de agua utilizadas para identificar deepfakes no han avanzado rápidamente. suficiente para seguir el ritmo. Por ahora, las empresas apenas están acordando lo que equivale a un conjunto de estándares técnicos y mecanismos de detección. Les queda un largo camino por recorrer para combatir eficazmente el problema, que tiene muchas capas. Se ha demostrado que los servicios que afirman identificar texto generado por IA, como ensayos, por ejemplo, exhiben prejuicios contra hablantes no nativos de inglés. Y no es mucho más fácil para las imágenes y los videos. Incluso si las plataformas detrás de las imágenes y videos generados por IA aceptan incorporar cosas como marcas de agua invisibles y ciertos tipos de metadatos, hay formas de evitar esas medidas de protección. Las capturas de pantalla a veces pueden incluso engañar a un detector. Además, las señales invisibles que algunas empresas incluyen en las imágenes generadas por IA aún no han llegado a muchos generadores de audio y vídeo. La noticia del acuerdo llega un día después de que el creador de ChatGPT, OpenAI, anunciara Sora, su Nuevo modelo para vídeo generado por IA. Sora funciona de manera similar a la herramienta de inteligencia artificial de generación de imágenes de OpenAI, DALL-E. Un usuario escribe la escena deseada y Sora le devolverá un videoclip de alta definición. Sora también puede generar videoclips inspirados en imágenes fijas y ampliar vídeos existentes o completar fotogramas faltantes. Las empresas participantes en el acuerdo acordaron ocho compromisos de alto nivel, incluida la evaluación de riesgos de modelos, «buscar detectar» y abordar la distribución de dichos contenido en sus plataformas y brindar transparencia sobre esos procesos al público. Como ocurre con la mayoría de los compromisos voluntarios en la industria tecnológica y más allá, el comunicado especifica que los compromisos se aplican sólo «cuando sean relevantes para los servicios que proporciona cada empresa». «La democracia se basa en elecciones seguras y protegidas», dijo Kent Walker, presidente de asuntos globales de Google. , dijo en un comunicado. El acuerdo refleja el esfuerzo de la industria para abordar «la información electoral errónea generada por IA que erosiona la confianza», dijo. Christina Montgomery, directora de privacidad y confianza de IBM, dijo en el comunicado que en este año electoral clave, «se necesitan medidas concretas y cooperativas». necesario para proteger a las personas y las sociedades de los riesgos amplificados del contenido engañoso generado por IA». MIRAR: OpenAI presenta Sora

Source link

La campaña de Biden estrena cuenta oficial de TikTok; La aplicación todavía está prohibida en la mayoría de los dispositivos gubernamentales.

El presidente estadounidense Joe Biden llega al aeropuerto internacional John F. Kennedy, en la ciudad de Nueva York, Estados Unidos, el 7 de febrero de 2024. Evelyn Hockstein | ReutersLa campaña de reelección del presidente Joe Biden lanzó una cuenta oficial en TikTok el domingo por la noche. La cuenta es digna de mención porque TikTok está actualmente prohibido en la mayoría de los dispositivos emitidos por el gobierno de EE. UU. La cuenta de TikTok, con el nombre «@bidenhq», debutó el domingo durante las celebraciones del Año Nuevo Lunar en China y el Super Bowl 58 en Estados Unidos. una solicitud de comentarios. A finales de 2022, Biden firmó una legislación que prohibía que la mayoría de los dispositivos propiedad del gobierno federal usaran TikTok. La disposición era parte de un proyecto de ley de gasto general masivo y, en ese momento, representó una gran victoria para los halcones de China en el Congreso. Varios estados y la ciudad de Nueva York también hicieron lo mismo, prohibiendo TikTok en dispositivos propiedad del gobierno el año pasado, lo que apunta a una amplia gama de preocupaciones de seguridad. La empresa matriz de TikTok es ByteDance, con sede en China. El director ejecutivo de la empresa, Shou Zi Chew, es singapurense y se graduó en la Escuela de Negocios de Harvard. Uno de los mayores inversores externos de TikTok es Susquehanna International Group. El cofundador multimillonario de la firma, Jeffrey Yass, ha donado millones a legisladores que quieren bloquear una prohibición total de la aplicación en los estados. Varios legisladores estadounidenses han acusado a TikTok y otras plataformas de redes sociales de difundir contenido en línea que ha sido perjudicial para la salud mental de los niños y no protege a los niños en línea. Los asesores de campaña de Biden dijeron a NBC News que la cuenta de TikTok es parte de un esfuerzo para llegar a los votantes donde están. La aplicación sigue siendo esencial para los más jóvenes, incluidos aquellos en edad de votar en los EE. UU. Según datos de Pew Research publicados a finales de 2023, aproximadamente un tercio de los jóvenes de entre 18 y 29 años en EE. UU. dijeron que reciben noticias regularmente en TikTok, una proporción mayor que nunca. Regulación más estricta de las empresas de redes sociales, incluidas TikTok, Meta, Snap, Discord y X (anteriormente Twitter) representaron un tema poco común de acuerdo bipartidista durante una audiencia en el Senado sobre seguridad infantil el mes pasado. La Casa Blanca de Biden ha mantenido una relación de amor y odio con TikTok desde que Biden asumió el cargo. Por un lado, la administración cortejó abiertamente a las estrellas de TikTok y a los productores de contenido para ayudar a difundir mensajes de servicio público e involucrar a los jóvenes en eventos cívicos. Pero a medida que los legisladores escépticos con China intensificaron su campaña contra la compañía en los últimos años, la Casa Blanca de Biden aceptó tácitamente con ellos, llegando incluso a presionar a ByteDance para que venda TikTok. Jonathan Vanian de CNBC contribuyó con el informe.

Source link

Funciona con WordPress & Tema de Anders Norén