Todo lo que necesitas saber sobre tecnología

Etiqueta: desinformación

Las conspiraciones en línea sobre el colapso del puente de Baltimore están fuera de control

Las conspiraciones en línea sobre el colapso del puente de Baltimore están fuera de control

Los conspiradores y los extremistas de extrema derecha están culpando a casi todo y a todos por el colapso del puente de Baltimore el martes por la mañana. Una lista no exhaustiva de cosas a las que se culpa por el colapso del puente en Telegram y X incluye al presidente Biden, Hamas, ISIS, P. Diddy. , Nickelodeon, India, ex presidente Barack Obama, Islam, extraterrestres, Sri Lanka, Foro Económico Mundial, Naciones Unidas, Despertar, Ucrania, ayuda exterior, la CIA, pueblo judío, Israel, Rusia, China, Irán, vacunas Covid, DEI, inmigrantes, negros y encierros. El puente de armadura Francis Scott Key se derrumbó cuando el carguero MV Dali chocó con uno de los soportes del puente. Se presume que seis trabajadores de la construcción, que en ese momento estaban tapando los baches en la calzada del puente, estaban muertos. El barco es propiedad de Grace Ocean Private Ltd., con sede en Singapur, y la tripulación de 22 personas era toda india. El barco se dirigía a Colombo, Sri Lanka, en el momento del accidente. Esto no impidió que la gente “haciera preguntas” sobre el incidente, una respuesta conspirativa frecuente a acontecimientos importantes. Y aunque a los teóricos de la conspiración les resulta difícil determinar exactamente qué conspiración causó el colapso, en lo único que sí están de acuerdo es en que este incidente es un “evento del cisne negro”. El término evento del cisne negro ha existido durante décadas y se utiliza para Describe un evento global importante (típicamente en los mercados financieros) que puede causar un daño significativo a la economía de un país. Pero en los últimos años, el término ha sido adoptado por personas con mentalidad conspirativa para explicar un evento desencadenado por el llamado Estado profundo que señalaría una revolución inminente, una tercera guerra mundial o alguna otra catástrofe apocalíptica. Las primeras personas en calificar el colapso del puente como un evento de cisne negro fueron el ex asesor de seguridad nacional de Estados Unidos, Michael Flynn. “Este es un evento de CISNE NEGRO”, escribió en X. “Los cisnes negros normalmente provienen del mundo de las finanzas (no del ejército)… Hay capitanes de puerto para cada uno de estos puntos de tránsito en Estados Unidos que están a cargo de asegurar la seguridad de la navegación… comience por ahí”. La publicación de Flynn ha sido vista 7,2 millones de veces. El influencer misógino Andrew Tate, acusado en Rumania de violación y trata de personas, también publicó en X el martes por la mañana temprano, escribiendo: “Nada es seguro. El evento del Cisne Negro es inminente”. La publicación ha sido vista casi 19 millones de veces. El término cisne negro rápidamente comenzó a ser tendencia en X, y pronto conspiracionistas, extremistas y legisladores de derecha comenzaron a dar explicaciones sobre qué o quién desencadenó este “evento del cisne negro”. que afirma un vínculo entre el colapso del puente y la película Leave the World Behind ha sido vista más de 1,2 millones de veces. La publicación afirmó que debido a que el barco se dirigía a Sri Lanka, que tiene un león en su bandera, la situación estaba relacionada con el barco que circula al comienzo de la película y que se llamaba White Lion. La publicación también señala que la película fue producida por Obama.

Source link

Empresas de tecnología e inteligencia artificial firman un acuerdo para combatir los deepfakes relacionados con las elecciones

Un grupo de 20 empresas tecnológicas líderes anunció el viernes un compromiso conjunto para combatir la desinformación de la IA en las elecciones de este año. La industria está apuntando específicamente a los deepfakes, que pueden usar audio, video e imágenes engañosas para imitar a las partes interesadas clave en las elecciones democráticas o para proporcionar votos falsos. información.Microsoft, Meta, Google, Amazon, IBM, Adobe y el diseñador de chips Arm firmaron el acuerdo. Las startups de inteligencia artificial OpenAI, Anthropic y Stability AI también se unieron al grupo, junto con empresas de redes sociales como Snap, TikTok y las plataformas X.Tech se están preparando para un gran año de elecciones en todo el mundo que afectarán a más de cuatro mil millones de personas en más de 40 años. países. El aumento del contenido generado por IA ha generado serias preocupaciones sobre la desinformación relacionada con las elecciones, y el número de deepfakes que se han creado ha aumentado un 900 % año tras año, según datos de Clarity, una empresa de aprendizaje automático. El principal problema se remonta a la campaña presidencial de 2016, cuando los actores rusos encontraron formas fáciles y económicas de difundir contenido inexacto en las plataformas sociales. Los legisladores están hoy aún más preocupados por el rápido aumento de la IA. «Existen motivos para una seria preocupación sobre cómo la IA podría usarse para engañar a los votantes en las campañas», dijo Josh Becker, senador estatal demócrata en California, en una entrevista. «Es alentador ver que algunas empresas se sientan a la mesa, pero en este momento no veo suficientes detalles, por lo que probablemente necesitaremos una legislación que establezca estándares claros». Mientras tanto, las tecnologías de detección y marcas de agua utilizadas para identificar deepfakes no han avanzado rápidamente. suficiente para seguir el ritmo. Por ahora, las empresas apenas están acordando lo que equivale a un conjunto de estándares técnicos y mecanismos de detección. Les queda un largo camino por recorrer para combatir eficazmente el problema, que tiene muchas capas. Se ha demostrado que los servicios que afirman identificar texto generado por IA, como ensayos, por ejemplo, exhiben prejuicios contra hablantes no nativos de inglés. Y no es mucho más fácil para las imágenes y los videos. Incluso si las plataformas detrás de las imágenes y videos generados por IA aceptan incorporar cosas como marcas de agua invisibles y ciertos tipos de metadatos, hay formas de evitar esas medidas de protección. Las capturas de pantalla a veces pueden incluso engañar a un detector. Además, las señales invisibles que algunas empresas incluyen en las imágenes generadas por IA aún no han llegado a muchos generadores de audio y vídeo. La noticia del acuerdo llega un día después de que el creador de ChatGPT, OpenAI, anunciara Sora, su Nuevo modelo para vídeo generado por IA. Sora funciona de manera similar a la herramienta de inteligencia artificial de generación de imágenes de OpenAI, DALL-E. Un usuario escribe la escena deseada y Sora le devolverá un videoclip de alta definición. Sora también puede generar videoclips inspirados en imágenes fijas y ampliar vídeos existentes o completar fotogramas faltantes. Las empresas participantes en el acuerdo acordaron ocho compromisos de alto nivel, incluida la evaluación de riesgos de modelos, «buscar detectar» y abordar la distribución de dichos contenido en sus plataformas y brindar transparencia sobre esos procesos al público. Como ocurre con la mayoría de los compromisos voluntarios en la industria tecnológica y más allá, el comunicado especifica que los compromisos se aplican sólo «cuando sean relevantes para los servicios que proporciona cada empresa». «La democracia se basa en elecciones seguras y protegidas», dijo Kent Walker, presidente de asuntos globales de Google. , dijo en un comunicado. El acuerdo refleja el esfuerzo de la industria para abordar «la información electoral errónea generada por IA que erosiona la confianza», dijo. Christina Montgomery, directora de privacidad y confianza de IBM, dijo en el comunicado que en este año electoral clave, «se necesitan medidas concretas y cooperativas». necesario para proteger a las personas y las sociedades de los riesgos amplificados del contenido engañoso generado por IA». MIRAR: OpenAI presenta Sora

Source link

Las empresas de tecnología toman medidas para proteger a los votantes de la desinformación generada por la IA

El 8 de noviembre, Meta anunció que exigirá que se etiqueten los anuncios políticos que hayan sido alterados digitalmente, utilizando inteligencia artificial u otra tecnología. ‘Time’ informa que el anuncio de Meta llega un día después de que Microsoft revelara las medidas que tomará para proteger las elecciones.

Source link

Cinco razones por las que Elon Musk teme la inteligencia artificial

Comparte en tu plataforma favorita Recuerda mis palabras, la IA es mucho más peligrosa que las armas nucleares… ¿por qué no tenemos supervisión regulatoria? Elon Musk Elon Musk ha criticado abiertamente la inteligencia artificial y ha expresado preocupación por su posible impacto en la sociedad. Afirmó que “si se crea una IA súper inteligente, la IA será mejor que los humanos en la creación de IA. Si la humanidad no tiene cuidado, crearemos algo que será mejor para destruir el mundo que para crearlo”. Aquí hay cinco razones por las que Elon Musk teme a la inteligencia artificial: 1- Seguridad y control La seguridad y el control son preocupaciones que Elon Musk se ha pronunciado sobre la inteligencia artificial. Ha advertido que a medida que los sistemas de IA se vuelven más avanzados y autónomos, puede resultar difícil o incluso imposible de controlar para los humanos. Esta preocupación tiene sus raíces en la idea de que a medida que los sistemas de IA se vuelven más inteligentes y capaces, pueden comportarse de maneras inesperadas o indeseables. Por ejemplo, un sistema de IA diseñado para realizar una tarea específica, como controlar un dron, podría tomar decisiones dañinas o peligrosas si su programación no está diseñada para tener en cuenta todos los escenarios posibles. En el caso extremo, un sistema de IA diseñado para llevar a cabo una tarea específica podría volverse autónomo y operar más allá del control humano. Esto podría tener consecuencias no deseadas, como el desarrollo de armas autónomas que podrían usarse para causar daño o destrucción. Elon Musk ha pedido mayor cautela y transparencia en el desarrollo y despliegue de sistemas de IA, y la creación de mecanismos que garanticen que los sistemas de IA sigan alineados con los valores humanos. También ha pedido más investigación sobre la seguridad de la IA y el desarrollo de métodos para garantizar que los sistemas de IA permanezcan bajo control humano y no representen una amenaza para la humanidad. En general, la preocupación por la seguridad y el control es un reflejo de debates y discusiones más amplios sobre el futuro de la IA y su impacto en la sociedad. Si bien muchos expertos creen que la IA tiene el potencial de aportar importantes beneficios a la sociedad, también se reconoce que existen riesgos reales asociados con el desarrollo y la implementación de sistemas avanzados de IA, y que esos riesgos deben considerarse y gestionarse cuidadosamente. 2- Desplazamiento laboral El desplazamiento laboral es otra pesadilla de la IA para Elon Musk. Ha dicho que la IA podría provocar un importante desplazamiento de puestos de trabajo, a medida que las máquinas y los algoritmos sean capaces de realizar tareas que antes realizaban los humanos. Hoy en día, aplicaciones como ChatGPT están muy de moda y algunos dicen que podrían sustituir muchas tareas. Consulte este excelente curso sobre cómo aprovechar los beneficios de ChatGPT. A medida que los sistemas de IA se vuelvan más avanzados y capaces, podrán automatizar cada vez más tareas que antes realizaban los humanos. Esto podría provocar pérdidas generalizadas de empleos y otros impactos económicos, ya que los trabajadores son desplazados por máquinas y algoritmos. Elon Musk ha pedido que se tomen medidas proactivas para mitigar este impacto y garantizar que los trabajadores tengan las habilidades que necesitan para prosperar en la era de la IA. También ha pedido más investigación sobre los impactos sociales y económicos de la IA, y el desarrollo de políticas y programas que apoyen a los trabajadores en la transición a una economía más automatizada. 3- Sesgo y discriminación Elon Musk ha señalado que los sistemas de IA son tan imparciales como los datos con los que se entrenan. Si los datos utilizados para entrenar sistemas de IA contienen sesgos o imprecisiones, los algoritmos pueden amplificar y perpetuar estos sesgos. Esto podría conducir a una discriminación generalizada y otros resultados perjudiciales. Aquí hay un ejemplo: suponga que desarrolla un sistema de inteligencia artificial diseñado para ayudar a los agricultores a optimizar sus cultivos. El sistema de inteligencia artificial utiliza datos sobre patrones climáticos, condiciones del suelo y otros factores para predecir los mejores momentos para plantar y cosechar cultivos. El sistema está diseñado para ayudar a los agricultores a hacer un uso más eficiente de sus recursos y aumentar sus rendimientos. Sin embargo, una vez que se implementa el sistema de IA, queda claro que existen consecuencias no deseadas. El sistema de IA ha tomado algunas decisiones que están teniendo impactos negativos en el medio ambiente. Por ejemplo, ha recomendado el uso de ciertos pesticidas que son tóxicos para la vida silvestre, o ha alentado a los agricultores a plantar cultivos en áreas propensas a la erosión. 4- Consecuencias no deseadas Elon Musk ha advertido que a medida que los sistemas de IA se vuelven más complejos y autónomos, puede resultar difícil predecir su comportamiento y las consecuencias de sus acciones. Ha pedido mayor cautela y transparencia en el desarrollo y despliegue de sistemas de IA. Suponga que desarrolla un sistema de inteligencia artificial que la policía utilizará para ayudar a identificar posibles sospechosos en casos penales. El sistema de inteligencia artificial utiliza tecnología de reconocimiento facial y otras fuentes de datos para identificar a personas que pueden estar involucradas en actividades delictivas. El sistema está diseñado para ser una herramienta eficaz para la policía y ayudarla a resolver delitos más rápidamente. Sin embargo, una vez que se implementa el sistema de IA, queda claro que existen problemas con su precisión. El sistema de inteligencia artificial está cometiendo errores y, en algunos casos, identifica erróneamente a personas como sospechosas. Esto está causando graves daños a las personas acusadas injustamente y está socavando la confianza del público en la policía y en la tecnología misma. Este es un ejemplo de falta de responsabilidad, que es otra preocupación clave que Elon Musk ha expresado sobre la inteligencia artificial. A medida que los sistemas de IA se vuelven más avanzados y autónomos, resulta cada vez más difícil determinar quién es el responsable cuando algo sale mal. 5- Riesgo existencial Elon Musk también ha advertido que los sistemas avanzados de IA podrían suponer un riesgo existencial para la humanidad, si se volvieran hostiles o si se utilizaran para causar daño. Ha pedido una mayor investigación sobre la seguridad de la IA y el desarrollo de mecanismos para garantizar que los sistemas de IA sigan alineados con los valores humanos. Sin embargo, algunos críticos sostienen que Elon Musk exagera los peligros de la inteligencia artificial y que sus advertencias son exageradas. Sostienen que es poco probable que los sistemas de IA representen una amenaza existencial para la humanidad y que los beneficios de la IA superarán los riesgos. Otros argumentan que Elon Musk está mal informado sobre la naturaleza de la IA y sus capacidades. Sostienen que es poco probable que los sistemas de IA se vuelvan conscientes de sí mismos o desarrollen sus propias motivaciones, y que la probabilidad de que la IA represente una amenaza para la humanidad es baja. La próxima generación de programadores posiblemente será la que juzgue esto mejor. Aquí está mi publicación sobre 5 juegos para enseñar a nuestros hijos a programar. Relacionado Comparte en tu plataforma favorita

Source link

Facebook se beneficia del odio y por eso no cambiará, dice la denunciante Frances Haugen

El gigante de las redes sociales sabe que el discurso de odio es un problema. También sabe que es rentable, afirmó el domingo un antiguo empleado. PUBLICIDAD El modelo de negocios de Facebook promueve el discurso de odio, daña la democracia e incluso está «destrozando nuestras sociedades», dijo un ex gerente de producto del equipo de desinformación cívica de la compañía. Frances Haugen, quien dejó Facebook en mayo de este año, fue la denunciante que filtró datos internos de la empresa. investigación, que incluye informes que revelan el impacto de Instagram en la salud mental de las adolescentes, al Wall Street Journal el mes pasado. En declaraciones a la cadena de televisión estadounidense CBS el domingo, Haugen dijo que su experiencia trabajando para Facebook reveló una empresa que priorizaba el crecimiento sobre la fabricación de su producto. más seguro.»Lo que vi una y otra vez fue que había conflictos de intereses entre lo que era bueno para el público y lo que era bueno para Facebook», dijo Haugen al programa 60 Minutes de CBS. «Facebook optó una y otra vez por optimizar para sus propios intereses, como ganar más dinero», dijo. «Traición a la democracia» Haugen se unió a Facebook en junio de 2019, trabajando en un equipo encargado de abordar la desinformación en torno a las elecciones. , Facebook anunció una serie de medidas que, según dijo, ayudarían a conectar a los votantes con información precisa y reducirían «los riesgos de confusión postelectoral». Sin embargo, poco después de las elecciones, el equipo se disolvió. Haugen afirmó que Facebook luego revirtió muchas de las intervenciones que había implementado para limitar la difusión de información errónea. «Tan pronto como terminaron las elecciones, las apagaron o cambiaron la configuración a la que era antes, para priorizar el crecimiento sobre la seguridad», dijo Haugen. «Y eso realmente me parece una traición a la democracia». Los disturbios en el Capitolio «no son culpa nuestra», dice Facebook En la entrevista del domingo, Haugen estableció una conexión entre Facebook y los disturbios en el Capitolio de Estados Unidos el 6 de enero, cuando los partidarios del ex presidente Donald Trump irrumpieron en la sede de la legislatura estadounidense. Dijo que no confiaba en que la compañía «invirtiera lo que realmente se necesita para evitar que Facebook sea peligroso». Hablando antes de que se transmitiera la entrevista de Haugen, el vicepresidente de políticas y asuntos globales de Facebook, Nick Clegg dijo a CNN que la compañía no aceptaba que fuera uno de los principales contribuyentes a la polarización política en Estados Unidos. «La insurrección de ese día recae directamente en las personas que infligieron la violencia y en quienes la alentaron, incluido el presidente Trump», dijo Clegg. «Creo que da a la gente una falsa confianza asumir que debe haber una explicación tecnológica o técnica para los problemas de polarización política en los Estados Unidos… Es demasiado fácil decir que es culpa de Facebook». No luchar contra el odioSegún los documentos de Facebook proporcionados a CBS por Haugen, la empresa es consciente tanto de la difusión del discurso de odio en sus plataformas como de lo desafiante que representa el problema.»Nosotros Estimamos que podemos actuar tan solo entre el 3% y el 5% del odio y ~0,6% del V&I. [Violence and Incitement] en Facebook a pesar de ser el mejor del mundo en eso», decía un informe interno. PUBLICIDAD «Tenemos evidencia de una variedad de fuentes de que el discurso de odio, el discurso político divisivo y la desinformación en Facebook y la familia de aplicaciones están afectando a las sociedades de todo el mundo. mundo», dijo otro. Según Haugen, solucionar el problema del discurso de odio de Facebook podría requerir más que una moderación de contenido más estricta y reglas más estrictas. «Es más fácil inspirar ira». Un cambio de 2018 en el algoritmo que decide qué contenidos se muestran a los usuarios sin darse cuenta Terminó brindando a los usuarios de Facebook información que era más probable que desencadenara una respuesta de enojo, dijo Haugen a CBS».[Facebook] está optimizando el contenido que genera interacción, una reacción», dijo. «Pero su propia investigación muestra que el contenido que es odioso, que es divisivo, que es polarizante, es más fácil inspirar a la gente a la ira que a otras emociones». .PUBLICIDADHaugen alegó que la empresa no estaba dispuesta a cambiar el algoritmo porque podría afectar los resultados del negocio. «Facebook se ha dado cuenta de que si cambian el algoritmo para que sea más seguro, las personas pasarán menos tiempo en el sitio y harán menos clic en «Nadie en Facebook es malévolo, pero los incentivos no están alineados. «Facebook gana más dinero cuando consumes más contenido. Las personas disfrutan interactuando con cosas que provocan una reacción emocional, y cuanto más ira se exponen, más interactúan y más consumen».

Source link

Funciona con WordPress & Tema de Anders Norén