Todo lo que necesitas saber sobre tecnología

Etiqueta: política Página 1 de 4

La incómoda verdad sobre las políticas climáticas del Reino Unido

La invasión rusa de Ucrania parece un momento realmente crucial en esta narrativa. En el otoño de 2022, los precios de la energía en el Reino Unido se estaban disparando y, sin embargo, la respuesta de Liz Truss, primera ministra en ese momento, fue redoblar la exploración de petróleo y gas y negarse a pedir a la gente que redujera su consumo de energía. Era el enfoque absolutamente opuesto al de muchas naciones europeas que enfrentaban el mismo problema. En ese momento [the invasion] Sucedió, obviamente era una crisis genuina y pensé que el clima iba a bajar de la lista de prioridades. Pero en mi mente tecnocrática, también pensaba que esto iba a crear el incentivo para dejar de usar combustibles con alto contenido de carbono; si quieres saber cómo es el mundo con un precio alto del carbono, estamos a punto de descubrirlo. Lo que no esperaba es que los argumentos verdes llegaran demasiado tarde porque los argumentos fósiles intervinieron inmediatamente para decir: «Por eso necesitamos un suministro interno de combustibles fósiles». Ese argumento realmente importante, actuar en consecuencia porque los precios de los combustibles fósiles son muy volátiles y muy caros, pasó un poco por alto en el éter político en ese momento, y saltamos a una narrativa diferente de lo que el país necesitaba hacer. Todo ese período es que nos estamos quedando sin petróleo y gas. Por lo tanto, a largo plazo no será una estrategia creíble intentar bombear licencias de petróleo y gas de primera calidad en el Mar del Norte. Un año después, el sucesor de Truss, Rishi Sunak, pronunció un gran discurso para hacer retroceder políticas climáticas clave, en particular retrasar la fecha límite de 2030 que prohíbe la venta de automóviles nuevos de gasolina y diésel. Si se lo mira simplemente como un discurso político, hubo más políticas proclimáticas que políticas climáticas retrasadas. Fue aquel en el que habla de acelerar la inversión verde, por ejemplo. Y lo del vehículo eléctrico [pushing back the 2030 deadline] No fue un gran cambio, ya que ya estábamos permitiendo híbridos hasta 2035. Pero, ¿qué escuchó el país? Escucharon: «No se preocupen, ahora no es el momento de cambiar a vehículos eléctricos». Es difícil vincular algo a un solo discurso, pero si nos fijamos en la proporción de vehículos eléctricos que se venden en el Reino Unido, se ha estancado desde septiembre. Estoy seguro de que hay otros factores aquí, pero habrá gente que pensará: «Bueno, tal vez no necesite comprar ese coche eléctrico ahora mismo». Parece que este gobierno ha decidido hacer de apelar a los automovilistas una estrategia de campaña clave. En julio de 2023, el Partido Laborista perdió por poco las elecciones parciales de Uxbridge y South Ruislip, y muchos comentaristas pensaron que el candidato conservador ganó esas elecciones debido a su oposición a la Zona de Emisiones Ultra Bajas. Lo que sucedió allí fue interesante. El Partido Laborista también aceptó la narrativa de que ULEZ fue la razón por la que no ganaron esa circunscripción. Inevitablemente, en cualquier elección hay una serie de cuestiones en juego, pero si todos los partidos piensan que se trata de políticas ambientales, no sorprende que ese se convierta en uno de los temas dominantes en la política después de eso.

Cómo trabajar para las grandes empresas tecnológicas perdió el estatus de «trabajo soñado»

A pesar de las enormes ganancias de gigantes como Alphabet y Microsoft, los despidos continúan repercutiendo en la industria tecnológica. Layoffs.fyi, una plataforma que monitorea los recortes de empleo en el sector tecnológico, registró más de 263.000 pérdidas de empleos solo en 2023. En abril, se han perdido más de 75.000 puestos de trabajo en la industria en lo que va de 2024″. Entonces, en lugar de recompensar el crecimiento que vimos [tech companies] todos perseguían hace años, ahora recompensan las ganancias», dijo Jeff Shulman, profesor de la Escuela de Negocios Foster de la Universidad de Washington. «Y así han continuado los despidos. La gente se ha acostumbrado a ellos. Lamentablemente y tristemente, parece que los despidos van a ser la nueva normalidad.»Aunque continúan los despidos masivos en el sector tecnológico, el mercado laboral todavía parece fuerte. La economía estadounidense añadió 303.000 puestos de trabajo en marzo, muy por encima de la estimación de Dow Jones de un aumento de 200.000, y la tasa de desempleo bajó al 3,8%. Según Handshake, un popular sitio gratuito de publicación de empleos para estudiantes universitarios y graduados, los despidos tecnológicos han impulsado a nuevos trabajadores a buscar otras oportunidades. a empresas de software e Internet se redujo en más de un 30 % entre noviembre de 2021 y septiembre de 2023. «Parte de la razón por la que esto sucede es porque la estabilidad es un factor muy importante en las decisiones de los estudiantes sobre a qué tipos de trabajos se postulan y qué tipos de trabajos que aceptan», dijo Christine Cruzverga, directora de estrategia educativa de Handshake. «Están mirando los titulares de las noticias y están prestando atención a todos los despidos que están ocurriendo en las grandes empresas tecnológicas, y eso los hace Me siento inestable.» Los despidos masivos han erosionado el brillo de la industria tecnológica, razón por la cual los trabajadores se preguntan si conseguir un trabajo en la industria tecnológica debería seguir siendo considerado como un «trabajo de ensueño». «Para las personas que están persiguiendo… Para el trabajo de tus sueños en tecnología, creo que mantén tus opciones abiertas y sé realista», dijo Eric Tolotti, ingeniero socio senior de Snowflake, quien fue despedido de Microsoft en 2023. «No te concentres solo en una empresa y sientas que tienes que hacerlo. ingrese a esa empresa porque es el sueño». Mire el video para conocer los sentimientos de los trabajadores tecnológicos, las consideraciones para los aspirantes a empleados de Big Tech y más.

Ocho tendencias empresariales de IA en 2024, según investigadores de Stanford

La IA hace que los trabajadores sean más productivos, pero todavía nos faltan regulaciones, según una nueva investigación. El Informe del Índice de IA 2024, publicado por el instituto de Inteligencia Artificial Centrada en las Personas de la Universidad de Stanford, ha descubierto las ocho principales tendencias de IA para las empresas, incluido cómo la tecnología aún no supera al cerebro humano en todas las tareas. TechRepublic profundiza en las implicaciones comerciales de estas conclusiones, con la información de los coautores del informe Robi Rahman y Anka Reuel. VER: Las 5 principales tendencias de IA a tener en cuenta en 2024 1. Los humanos aún superan a la IA en muchas tareas Según la investigación, la IA todavía no es tan buena como los humanos en las tareas complejas de resolución de problemas matemáticos de nivel avanzado, razonamiento visual de sentido común y planificación ( Figura A). Para llegar a esta conclusión, se compararon los modelos con puntos de referencia humanos en muchas funciones empresariales diferentes, incluida la codificación, el comportamiento basado en agentes, el razonamiento y el aprendizaje por refuerzo. Figura A Rendimiento de los modelos de IA en diferentes tareas en relación con los humanos. Imagen: Informe del índice de IA 2024/HAI de la Universidad de Stanford. Si bien la IA superó las capacidades humanas en clasificación de imágenes, razonamiento visual y comprensión del inglés, el resultado muestra que existe potencial para que las empresas utilicen la IA para tareas en las que el personal humano realmente se desempeñaría mejor. Muchas empresas ya están preocupadas por las consecuencias de una dependencia excesiva de los productos de IA. 2. Los modelos de IA de última generación se están volviendo más caros El Índice de IA informa que entrenar GPT-4 de OpenAI y Gemini Ultra de Google costará aproximadamente 78 millones de dólares y 191 millones de dólares en 2023, respectivamente (Figura B). El científico de datos Rahman dijo a TechRepublic en un correo electrónico: «Con las tasas de crecimiento actuales, los modelos de IA de vanguardia costarán entre 5.000 y 10.000 millones de dólares en 2026, momento en el que muy pocas empresas podrán permitirse estos ciclos de formación». Figura B Costos de capacitación de los modelos de IA, 2017 a 2023. Imagen: AI Index Report 2024/Stanford University HAI/Epoch, 2023 En octubre de 2023, el Wall Street Journal publicó que Google, Microsoft y otros grandes actores tecnológicos estaban luchando por monetizar su capacidad generativa. Productos de IA debido a los enormes costos asociados con su funcionamiento. Existe el riesgo de que, si las mejores tecnologías se vuelven tan caras que sólo son accesibles para las grandes corporaciones, su ventaja sobre las PYMES podría aumentar desproporcionadamente. Esto fue señalado por el Foro Económico Mundial en 2018. Sin embargo, Rahman destacó que muchos de los mejores modelos de IA son de código abierto y, por lo tanto, están disponibles para empresas de todos los presupuestos, por lo que la tecnología no debería ampliar ninguna brecha. Le dijo a TechRepublic: “Los modelos de IA de código abierto y cerrado están creciendo al mismo ritmo. Una de las empresas de tecnología más grandes, Meta, está utilizando código abierto para todos sus modelos, por lo que las personas que no pueden darse el lujo de entrenar ellos mismos los modelos más grandes pueden simplemente descargar los suyos”. 3. La IA aumenta la productividad y la calidad del trabajo Al evaluar una serie de estudios existentes, los investigadores de Stanford concluyeron que la IA permite a los trabajadores completar tareas más rápidamente y mejora la calidad de su producción. Las profesiones en las que esto se observó incluyen programadores informáticos, donde el 32,8% informó un aumento de productividad, consultores, agentes de soporte (Figura C) y reclutadores. Figura C Impacto de la IA en la productividad de los agentes de atención al cliente. Imagen: AI Index Report 2024/Stanford University HAI/Brynjolfsson et al., 2023 En el caso de los consultores, el uso de GPT-4 cerró la brecha entre los profesionales poco calificados y los altamente calificados, y el grupo poco calificado experimentó más de un aumento del rendimiento (Figura D). Otras investigaciones también han indicado cómo la IA generativa en particular podría actuar como un igualador, ya que los trabajadores menos experimentados y menos calificados obtienen más provecho de ella. Figura D Mejora del desempeño laboral de consultores poco y altamente calificados cuando se utiliza IA. Imagen: Informe del índice de IA 2024/HAI de la Universidad de Stanford Sin embargo, otros estudios sugirieron que “el uso de IA sin la supervisión adecuada puede conducir a una disminución del rendimiento”, escribieron los investigadores. Por ejemplo, existen informes generalizados de que las alucinaciones prevalecen en modelos de lenguaje grandes que realizan tareas legales. Otras investigaciones han descubierto que es posible que no alcancemos todo el potencial de las ganancias de productividad impulsadas por la IA hasta dentro de una década, ya que los resultados insatisfactorios, las directrices complicadas y la falta de competencia siguen frenando a los trabajadores. 4. Las regulaciones de IA en los EE. UU. van en aumento El Informe del Índice de IA encontró que, en 2023, había 25 regulaciones relacionadas con la IA activas en los EE. UU., mientras que en 2016 solo había una (Figura E). Sin embargo, esta no ha sido una tendencia constante, ya que el número total de regulaciones relacionadas con la IA creció un 56,3% solo entre 2022 y 2023. Con el tiempo, estas regulaciones también han pasado de ser expansivas con respecto al progreso de la IA a restrictivas, y el tema más frecuente que abordan es el comercio exterior y las finanzas internacionales. Figura E Número de regulaciones relacionadas con la IA activas en los EE. UU. entre 2016 y 2023. Imagen: Informe del índice AI 2024/Universidad de Stanford HAI La legislación relacionada con la IA también está aumentando en la UE, con 46, 22 y 32 nuevas regulaciones aprobadas en 2021. , 2022 y 2023, respectivamente. En esta región, las regulaciones tienden a adoptar un enfoque más amplio y, en la mayoría de los casos, cubren la ciencia, la tecnología y las comunicaciones. VER: NIST establece un consorcio de seguridad de IA Es esencial que las empresas interesadas en la IA se mantengan actualizadas sobre las regulaciones que las afectan, o corren el riesgo de sufrir fuertes sanciones por incumplimiento y daños a su reputación. Una investigación publicada en marzo de 2024 encontró que solo el 2% de las grandes empresas del Reino Unido y la UE conocían la próxima Ley de IA de la UE. Más cobertura de IA de lectura obligada 5. La inversión en IA generativa está aumentando La financiación para productos de IA generativa que generan contenido en respuesta a un mensaje casi se octuplicó de 2022 a 2023, alcanzando los 25.200 millones de dólares (Figura F). OpenAI, Anthropic, Hugging Face e Inflection, entre otros, recibieron importantes rondas de recaudación de fondos. Figura F Inversión privada global total en IA generativa de 2019 a 2023. Imagen: AI Index Report 2024/Stanford University HAI/Quid, 2023 Es probable que el desarrollo de capacidades de IA generativa satisfaga la demanda de las empresas que buscan adoptarlas en sus procesos. En 2023, la IA generativa se citó en el 19,7 % de todas las llamadas sobre resultados de las empresas Fortune 500, y un informe de McKinsey reveló que el 55 % de las organizaciones utilizan ahora la IA, incluida la IA generativa, en al menos una unidad de negocio o función. El conocimiento de la IA generativa aumentó después del lanzamiento de ChatGPT el 30 de noviembre de 2022 y, desde entonces, las organizaciones han estado compitiendo para incorporar sus capacidades en sus productos o servicios. Una encuesta reciente de 300 empresas globales realizada por MIT Technology Review Insights, en asociación con Telstra International, encontró que los encuestados esperan que su número de funciones que implementan IA generativa se duplique en 2024. VER: Definición de IA generativa: cómo funciona, beneficios y Peligros Sin embargo, hay algunas pruebas de que el auge de la IA generativa “podría llegar a un final bastante rápido”, según Gary Marcus, destacado portavoz de la IA, y las empresas deberían tener cuidado. Esto se debe principalmente a las limitaciones de las tecnologías actuales, como la posibilidad de sesgos, problemas de derechos de autor e imprecisiones. Según el informe de Stanford, la cantidad finita de datos en línea disponibles para entrenar modelos podría exacerbar los problemas existentes, poniendo un límite a las mejoras y la escalabilidad. Afirma que las empresas de IA podrían quedarse sin datos lingüísticos de alta calidad para 2026, datos lingüísticos de baja calidad en dos décadas y datos de imágenes entre finales de la década de 2030 y mediados de la década de 2040. 6. Los puntos de referencia para la responsabilidad de LLM varían ampliamente Existe una variación significativa en los puntos de referencia con los que las empresas de tecnología evalúan sus LLM en lo que respecta a confiabilidad o responsabilidad, según el informe (Figura G). Los investigadores escribieron que esto «complica los esfuerzos para comparar sistemáticamente los riesgos y limitaciones de los mejores modelos de IA». Estos riesgos incluyen resultados sesgados y la filtración de información privada de conjuntos de datos de entrenamiento e historiales de conversaciones. Figura G Los puntos de referencia de IA responsable utilizados en el desarrollo de modelos de IA populares. Imagen: Informe del índice AI 2024/Universidad de Stanford HAI Reuel, estudiante de doctorado en el Laboratorio de Sistemas Inteligentes de Stanford, dijo a TechRepublic en un correo electrónico: “Actualmente no existen requisitos de informes, ni tenemos evaluaciones sólidas que nos permitan decir con confianza que un modelo es seguro si pasa esas evaluaciones en primer lugar”. Sin una estandarización en esta área, aumenta el riesgo de que algunos modelos de IA no confiables pasen desapercibidos y sean integrados por las empresas. «Los desarrolladores podrían informar selectivamente puntos de referencia que resalten positivamente el rendimiento de su modelo», añade el informe. Reuel dijo a TechRepublic: “Hay múltiples razones por las que un modelo dañino puede pasar desapercibido. En primer lugar, no hay evaluaciones estandarizadas o requeridas que dificulten la comparación de modelos y sus riesgos (relativos), y en segundo lugar, no hay evaluaciones sólidas, específicamente de los modelos básicos, que permitan una comprensión sólida y completa del riesgo absoluto de un modelo”. 7. Los empleados están nerviosos y preocupados por la IA. El informe también rastrea cómo las actitudes hacia la IA están cambiando a medida que aumenta la conciencia. Una encuesta encontró que el 52% expresa nerviosismo hacia los productos y servicios de IA, y que esta cifra había aumentado un 13% en 18 meses. También encontró que solo el 54% de los adultos está de acuerdo en que los productos y servicios que utilizan IA tienen más beneficios que inconvenientes, mientras que el 36% teme que pueda quitarles el trabajo en los próximos cinco años (Figura H). Figura H Opiniones globales sobre el impacto que la IA tendrá en los empleos actuales en 2023. Imagen: AI Index Report 2024/Stanford University HAI/Ipsos, 2023 Otras encuestas a las que se hace referencia en el AI Index Report encontraron que el 53 % de los estadounidenses actualmente se sienten más preocupados por la IA. que emocionados, y que la preocupación más común que comparten es su impacto en el empleo. Estas preocupaciones podrían tener un impacto particular en la salud mental de los empleados cuando las tecnologías de inteligencia artificial comiencen a integrarse en una organización, algo que los líderes empresariales deberían monitorear. VER: Los 10 mejores cursos de IA en 2024 8. EE. UU. y China están creando la mayoría de los LLM más populares de la actualidad. Ben Abbott de TechRepublic cubrió esta tendencia del informe de Stanford en su artículo sobre la construcción de modelos básicos de IA en la región APAC. Escribió, en parte: “El dominio de EE. UU. en IA continuó a lo largo de 2023. El informe del índice de IA de Stanford publicado en 2024 encontró que se habían lanzado 61 modelos notables en EE. UU. en 2023; esto estuvo por delante de los 15 nuevos modelos de China y de Francia, el mayor contribuyente de Europa con ocho modelos (Figura I). El Reino Unido y la Unión Europea como región produjeron 25 modelos notables, superando a China por primera vez desde 2019, mientras que Singapur, con tres modelos, fue el único otro productor de modelos lingüísticos grandes notables en APAC”. Figura I Estados Unidos está superando a China y otros países en el desarrollo de modelos de IA. Imagen: Época

Las Cámaras aprueban un proyecto de ley de prohibición de TikTok que está en la vía rápida

La prohibición de TikTok vuelve a estar sobre la mesa después de que la Cámara aprobara un nuevo proyecto de ley el sábado que aborda las cuestiones que lo estancaron en el Senado. El proyecto de ley permitiría a la administración Biden prohibir TikTok en todo el país si no se deshace de su empresa con sede en China. propietario, Bytedance, en el plazo de un año. Es diferente de un proyecto de ley similar aprobado en la Cámara el mes pasado y le da a TikTok seis meses adicionales para encontrar un comprador estadounidense. El proyecto de ley anterior se estancó en el Senado después de que la presidenta del Comité de Comercio del Senado, Maria Cantwell, planteara varias cuestiones, incluido el corto plazo para la desinversión. Fue aprobado fácilmente, en una votación de 360 ​​a 58. “Esta aplicación es un globo espía en los teléfonos de los estadounidenses”. dijo el representante Michael McCaul, un republicano de Texas, en su presentación del proyecto de ley en la Cámara de Representantes el sábado. «Es un caballo de Troya moderno… utilizado para vigilar y explotar la información personal de Estados Unidos». La reacción de TikTok tuvo apoyo bipartidista. “Los expertos en seguridad nacional están haciendo sonar la alarma, advirtiendo que nuestros adversarios extranjeros están utilizando todas las herramientas a su disposición, incluidas aplicaciones como TikTok, para acumular grandes cantidades de datos confidenciales sobre todos los estadounidenses”, dijo el representante Frank Pallone, demócrata de Nueva Jersey. «Este proyecto de ley toma medidas decisivas para mitigar la capacidad de nuestros adversarios de recopilar datos de los estadounidenses y usarlos en nuestra contra». Los grupos de libertades digitales han rechazado una prohibición de TikTok por preocupaciones de la Primera Enmienda y porque creen que deshacerse de TikTok no logra abordar el problema subyacente de la recopilación generalizada de datos. “La única solución a este ecosistema omnipresente es, en primer lugar, prohibir la recopilación de nuestros datos”, escribió la Electronic Frontier Foundation, un grupo de derechos digitales sin fines de lucro, en una publicación el mes pasado. “En última instancia, los adversarios extranjeros aún podrán obtener nuestros datos de las empresas de redes sociales a menos que a esas empresas se les prohíba recopilarlos, conservarlos y venderlos, y punto”. Incluso el propietario de X, Elon Musk, se pronunció en contra de la prohibición. “En mi opinión, TikTok no debería prohibirse en EE. UU., aunque dicha prohibición pueda beneficiar a la plataforma X”, publicó el viernes en X. “Hacerlo sería contrario a la libertad de expresión. No es lo que Estados Unidos representa”. De todos modos, la desinversión o la prohibición ahora parecen casi seguras. Esta nueva medida se había añadido a un paquete de ayuda exterior multimillonario dirigido a Ucrania, Israel y Taiwán. Después del ataque de represalia de Irán contra Israel la semana pasada, esta ayuda se ha acelerado, lo que haría más difícil para el Senado evitar su aprobación. Cantwell ha respaldado este último paquete, diciendo en una declaración del miércoles: «Estoy muy contento que el presidente Johnson y los líderes de la Cámara incorporaron mi recomendación de extender el período de desinversión de Byte Dance de seis meses a un año. Como he dicho, es necesario ampliar el período de desinversión para garantizar que haya tiempo suficiente para que un nuevo comprador cierre un trato. Apoyo esta legislación actualizada”. Durante varios años, el Congreso ha intentado, sin éxito, forzar una venta de TikTok. Los republicanos y demócratas temen que la aplicación represente un riesgo para la seguridad nacional de Estados Unidos, ya que proporciona al gobierno chino una gran cantidad de datos de usuarios estadounidenses. Pero el Congreso ha proporcionado poca evidencia para respaldar estas afirmaciones, y TikTok y sus partidarios argumentan que prohibir la aplicación violaría el derecho a la libertad de expresión.

La infraestructura estadounidense está rota. Aquí hay un plan de $830 millones para solucionarlo

Hay una palabra que enfurecerá a cualquier estadounidense, independientemente de su inclinación política: infraestructura. Las carreteras llenas de baches, los puentes chirriantes y el transporte público a medio funcionar nos unen a nivel nacional como pocas otras personas pueden hacerlo. Y eso fue antes de que las inundaciones costeras, el calor extremo y los incendios forestales sobrealimentados por el cambio climático empeoraran aún más las cosas. La infraestructura estadounidense fue diseñada para el clima que disfrutamos hace 50, 75 e incluso 100 años. Gran parte simplemente no se sostiene, pone en peligro vidas y rompe las cadenas de suministro. Para llevar todas esas carreteras, ferrocarriles, puentes y ciudades enteras a la era moderna, la administración Biden-Harris anunció la semana pasada casi 830 millones de dólares en subvenciones a través de la Ley Bipartidista de Infraestructura de 2021. La larga lista de proyectos incluye rutas de evacuación mejoradas en Alaska, un nuevo puente en Montana, humedales restaurados en Pensilvania y un montón de modernizaciones en el medio. “Sabemos que si queremos construir infraestructura que dure los próximos 50 o 100 años, años, tiene que verse diferente a los últimos 50 o 100 años”, dice el secretario de transporte de EE. UU., Pete Buttigieg. WIRED se sentó con Buttigieg para hablar sobre el atractivo bipartidista de la infraestructura, la utilización de la naturaleza en lugar de luchar contra ella, y la irresistible triple recompensa de sacar a la gente de los coches y subir a autobuses y trenes. La conversación ha sido editada y condensada para mayor claridad. Matt Simon: Estados Unidos es un lugar muy diverso desde el punto de vista climático. Tenemos todos estos desiertos y calor extremo, costas y aumento del nivel del mar, y precipitaciones cada vez más extremas. ¿Cómo se destina este nuevo financiamiento a gestionar todo eso? Secretario Buttigieg: Si bien cada parte del país es diferente, cada parte del país ve los sistemas de transporte afectados por el clima y otras amenazas. Pueden ser incendios forestales, inundaciones, aumento del nivel del mar, deslizamientos de tierra, sequías o incluso terremotos. Todas estas cosas pueden afectar la durabilidad de nuestros sistemas de transporte. Y muchas de estas cosas se están volviendo más extremas. Una de las consecuencias más contradictorias del cambio climático es el aumento de las precipitaciones. Gran parte de esta financiación se destina a modernizar la infraestructura para adaptarla a ese tipo de inundaciones. ¿Cuáles son las opciones? En Cincinnati, por ejemplo, estamos apuntalando muros de contención e instalando sensores en colinas para anticiparnos a un problema en el que un deslizamiento de colina, causado por lluvias intensas, impactaría una carretera. En West Memphis, estamos invirtiendo en infraestructura natural. Lo interesante de ese caso es que en realidad no se trata de la carretera en sí: estamos invirtiendo en los humedales alrededor de la carretera para reducir la probabilidad de inundaciones. Eso es parte de cómo protegemos las cadenas de suministro que corren a lo largo de la I-55 y la I-40. Y luego, a veces, te enfrentas a un doble golpe. En Colorado, por ejemplo, la I-70 se vio afectada por una combinación de incendios e inundaciones. Se producirá un incendio forestal que socavará los árboles y las estructuras de raíces que mantienen unido el suelo, y será seguido por una inundación. Y entonces será más probable que sufra un deslizamiento de tierra, que afectó a la I-70 durante un período prolongado hace unos años. Así que estamos viendo eso muchas veces, algo en lo que como ex alcalde pienso mucho, que es simplemente la lucha contra el agua en los lugares equivocados. Sin duda, es una gran parte de lo que tenemos que afrontar en nuestros sistemas de transporte.

Cómo el gobierno de EE. UU. regula la IA

El gobierno de Estados Unidos está considerando leyes para ayudar a la sociedad a adaptarse a la introducción de la inteligencia artificial. Los primeros usuarios de la tecnología ya están viendo ganancias en la productividad laboral. Por ejemplo, Klarna, un proveedor de servicios financieros compre ahora y pague después, estima que su herramienta asistente de inteligencia artificial aumentará sus ganancias en 40 millones de dólares para fines de 2024. «Básicamente hace el trabajo de 700 agentes a tiempo completo», Klarna dijo el director ejecutivo Sebastian Siemiatkowski en una entrevista con CNBC. «Básicamente, era capaz de encargarse de dos tercios de todos los recados entrantes que teníamos a través del chat». La herramienta asistente de inteligencia artificial de Klarna se basa en los sistemas OpenAI, que impulsan tanto ChatGPT como Sora, dos productos que han captado la atención de ambos. el público en general y el Congreso. En 2023, los miembros del Congreso convocaron paneles, cenas privadas y sesiones de aprendizaje con ejecutivos tecnológicos de alto perfil, incluido Sam Altman, director ejecutivo de OpenAI. La Casa Blanca siguió buscando el compromiso de 15 líderes de la industria privada para ayudar a los legisladores a comprender la mejor manera de identificar riesgos y hacer uso de las nuevas tecnologías. La lista incluye algunos de los actores más importantes del sector tecnológico, junto con recién llegados como Anthropic y OpenAI. El Grupo de Trabajo del Senado sobre IA, establecido en 2019, ha aprobado al menos 15 proyectos de ley que se centran en la investigación y la evaluación de riesgos. Pero en comparación con las medidas aprobadas por la Unión Europea en 2024, el entorno regulatorio estadounidense parece relativamente relajado. «La gente de Bruselas elabora muchas reglas burocráticas que dificultan que las empresas innoven», Erik Brynjolfsson. , dijo en una entrevista con CNBC un investigador principal del Instituto Stanford para la IA centrada en el ser humano. «El entorno empresarial no existe como en Estados Unidos». Los economistas han estado preocupados durante años de que la inteligencia artificial pueda hundir las perspectivas laborales de los trabajadores administrativos, de manera similar a los efectos que la globalización ha tenido en los trabajadores manuales en los Estados Unidos. pasado. Un estudio del Fondo Monetario Internacional sugiere que al menos el 60% del trabajo en las economías avanzadas estaría expuesto a cambios derivados de la adopción generalizada de la inteligencia artificial. En 2023, los legisladores de la Asamblea del Estado de Nueva York propusieron una medida para limitar la impacto esperado de los despidos impulsados ​​por la tecnología con impuestos a los robots. La idea es introducir un costo para las empresas que utilizan la tecnología para desplazar trabajadores dentro del estado. En abril de 2024, el proyecto de ley sigue en comisión con un futuro incierto. Muchos economistas han dicho que los impuestos a los robots, si es que se utilizan, deberían fijarse en un nivel relativamente bajo. En Estados Unidos, tanto los empleadores como los empleados enfrentan impuestos sobre la nómina del 7,65% de los ingresos. Pero la tasa óptima para un impuesto a los robots sería entre el 1% y el 3,7%, según investigadores del Instituto de Tecnología de Massachusetts. «Es bueno para nosotros tener producción y productividad. Por eso no estoy seguro de que queramos gravarlos», dijo Brynjolfsson. «Los robots son parte de lo que impulsa el crecimiento tecnológico y nos brinda esa mayor productividad». «Habrá un momento en el futuro en el que los robots podrán hacer la mayor parte de lo que los humanos hacen actualmente», dijo Brynjolfsson. «Aún no hemos llegado a ese punto». Mire el vídeo de arriba para obtener más información sobre el plan del gobierno de EE. UU. para regular la inteligencia artificial.

Apple renuncia a etiquetar los ciberataques como «patrocinados por el Estado»

Apple eliminó el término «patrocinado por el estado» de las notificaciones de amenazas enviadas a los usuarios, según informó Reuters por primera vez el jueves. En cambio, Apple advirtió el miércoles a los usuarios de iPhone en India y 91 países que eran víctimas potenciales de un “ataque de software espía mercenario”, un término que culpa menos directamente a los gobiernos detrás de los ataques. ¿Llegará finalmente el USB-C al iPhone? ” es la forma nueva y más ambigua de Apple de decirle que un gobierno extranjero está detrás de un ciberataque. Tan recientemente como el 15 de enero, una página de soporte de Apple describió estas amenazas como “ataques patrocinados por el estado”, según Internet Archive. Ahora, esa página de Apple le dice que estos ataques están «históricamente asociados con actores estatales, incluidas empresas privadas que desarrollan software espía mercenario en su nombre». Reuters informa que Apple enfrentó presiones del gobierno indio para vincular las infracciones a actores estatales. Altos políticos de la India acusaron al primer ministro Narendra Modi de intentar piratear sus teléfonos en octubre de 2023, justo después de que Apple les notificara que eran “el objetivo de atacantes patrocinados por el estado”. Mientras tanto, India ahora produce el doble de iPhones que el año pasado, convirtiéndose en un aliado cada vez más importante para Apple. Otro país comúnmente detrás de los “ataques patrocinados por el Estado” es China, a quien Apple también ha intentado complacer recientemente. China tiene la base de consumidores de teléfonos inteligentes más grande del mundo, pero las ventas de iPhone de Apple en China han bajado aproximadamente un 33% respecto al año anterior, según Bloomberg. El Partido Comunista Chino también prohibió recientemente a los funcionarios gubernamentales usar iPhones en el trabajo. El director ejecutivo de Apple, Tim Cook, visita con frecuencia China para suavizar la relación crítica. Apple envía estas notificaciones de amenazas varias veces al año y la compañía señala que son mucho más complicadas y cuestan millones de dólares en su página de soporte. Apple comenzó a enviar notificaciones de amenazas “patrocinadas por el estado” en 2021 después de que surgieran controversias en torno a NSO Group, el fabricante israelí de software espía detrás de Pegasus. Según Apple, la mayoría de los usuarios nunca serán el objetivo de este tipo de ataques, pero a menudo se despliegan contra periodistas, activistas, políticos y diplomáticos. Apple no respondió de inmediato a la solicitud de comentarios de Gizmodo. En la guerra, un mercenario se define como alguien. «contratado para servir en el ejército de un país extranjero», pero también puede significar «servir simplemente por una paga», según el Diccionario Webster. No está claro qué término significa Apple, pero ambos sugieren una capa adicional de eliminación entre los piratas informáticos y los gobiernos. El cambio de “patrocinado por el estado” a “mercenario” parece ser más aceptable para los gobiernos detrás de ellos. Sin embargo, el “ataque de software espía mercenario” también es menos directo. Me gustaría pensar que Apple está cambiando su lenguaje en aras de la precisión, pero parece más bien que están cediendo a la presión de gobiernos extranjeros con los que tan desesperadamente necesitan trabajar.

Algunos empleados de Google renuncian por el contrato de nube de la empresa con Israel

El ataque israelí a Gaza ha provocado conflictos en empresas de todo el mundo. En Google, una empresa que a menudo ha tratado de fomentar una reputación pública de apertura, la guerra parece haber provocado que un número creciente de empleados protestara o renunciara. Sin búsqueda de IA en Google, no necesito aprender sobre los “beneficios de la esclavitud” La revista Time informa que el grupo de protesta No Tech For Apartheid, que presiona contra la participación de Google con el gobierno israelí, ahora incluye al menos a 40 empleados de Google. Recientemente, un miembro del grupo, un ingeniero de software de Google de 23 años llamado Eddie Hatfield, se puso de pie en una conferencia de la empresa y gritó: “Soy ingeniero de software de Google Cloud y me niego a desarrollar tecnología que impulse el genocidio. , apartheid o vigilancia!” Poco después, Hatfield fue despedido, escribe Time. Desde entonces, dos empleados de Google dicen que renunciaron a la empresa por su trabajo en curso en el Proyecto Nimbus, un contrato de nube de 1.200 millones de dólares con el gobierno israelí. Nimbus es un esfuerzo conjunto entre Google y Amazon para proporcionar capacidades de nube, aprendizaje automático e inteligencia artificial al Ministerio de Defensa israelí. No se ha aclarado en qué medida se ha utilizado Nimbus. El gobierno israelí caracterizó previamente el proyecto como destinado a «proporcionar al gobierno, al establecimiento de defensa y a otros una solución integral en la nube». El tiempo caracteriza a personas como Hatfield y los empleados de Google que renunciaron como parte de un “movimiento creciente” dentro de la empresa que quiere que se abandone el proyecto de nube israelí. Las personas involucradas con el grupo activista afirman que, además de las varias docenas de empleados de Google que son miembros activos del grupo, hay «cientos de trabajadores más». [who are] comprensivo” con sus objetivos. Gizmodo contactó a Google para hacer comentarios y actualizará esta historia si responde. En su sitio web, No Tech for Apartheid afirma que “Google y Amazon están impulsando el ataque genocida contra Gaza a través de un contrato de 1.200 millones de dólares con el gobierno y el ejército de Israel” y pregunta Los visitantes “exigirán a estas empresas cancelar inmediatamente el Proyecto Nimbus y poner fin a su complicidad en los crímenes de guerra de Israel”. Los trabajadores de Google y Amazon han estado protestando contra el Proyecto Nimbus durante años, desde mucho antes de los ataques de Hamás del 7 de octubre y el posterior ataque israelí a Gaza. Dicho esto, la reciente explosión de violencia parece haber impulsado el tema polémico nuevamente al frente de las guerras culturales de la compañía. Google ha hecho recientemente otros esfuerzos para limitar el debate oficial sobre Gaza. El New York Times informa que la compañía recientemente hizo esfuerzos para «tonificar» la hostilidad en su foro de mensajes interno, Memegen. El foro es una característica desde hace mucho tiempo de la cultura de la oficina de la empresa que permite a los empleados de Google expresarse libremente e incluso criticar a los ejecutivos y las políticas de Google. El Times afirma que Google recientemente eliminó algunas de las características clave de Memegen, incluida la capacidad de rechazar publicaciones. Algunos empleados de Google han criticado estas medidas, afirmando que «censurará su libertad de expresión», informa el periódico. El 7 de octubre, militantes de Hamás llevaron a cabo un ataque contra Israel, secuestraron a unas 250 personas y mataron a unas 1.200. Luego, Israel lanzó una guerra contra Hamás que ha provocado una enorme cantidad de muertes civiles. Desde el inicio de la guerra, las organizaciones de derechos humanos estiman que Israel ha matado a unos 30.000 palestinos, incluidos más de 12.000 niños. La guerra también ha provocado una crisis de hambruna para millones de habitantes de Gaza. Recientemente, las fuerzas israelíes dispararon y mataron a siete trabajadores del grupo de ayuda World Central Kitchen que estaban entregando alimentos a la Franja de Gaza. Las Naciones Unidas estiman que hasta 224 trabajadores de ayuda humanitaria han sido asesinados en Gaza desde el inicio de la guerra. Israel ha afirmado que el ataque a los trabajadores de WCK fue un “grave error”.

Source link

Reino Unido y EE. UU. acuerdan colaborar en el desarrollo de pruebas de seguridad para modelos de IA

El gobierno del Reino Unido acordó formalmente trabajar con Estados Unidos en el desarrollo de pruebas para modelos avanzados de inteligencia artificial. El 1 de abril de 2024, la Secretaria de Tecnología del Reino Unido, Michelle Donelan, y la Secretaria de Comercio de los Estados Unidos, Gina Raimondo, firmaron un Memorando de Entendimiento, que es un acuerdo no vinculante legalmente (Figura A). Figura A La secretaria de Comercio de Estados Unidos, Gina Raimondo (izquierda), y la secretaria de Tecnología del Reino Unido, Michelle Donelan (derecha). Fuente: Gobierno del Reino Unido. Imagen: Gobierno del Reino Unido Ambos países ahora “alinearán sus enfoques científicos” y trabajarán juntos para “acelerar e iterar rápidamente conjuntos sólidos de evaluaciones para modelos, sistemas y agentes de IA”. Esta medida se está tomando para mantener los compromisos establecidos en la primera Cumbre mundial sobre seguridad de la IA en noviembre pasado, donde gobiernos de todo el mundo aceptaron su papel en las pruebas de seguridad de la próxima generación de modelos de IA. ¿Qué iniciativas de IA han acordado el Reino Unido y Estados Unidos? Con el MoU, el Reino Unido y los EE. UU. acordaron cómo construirán un enfoque común para las pruebas de seguridad de la IA y compartirán sus desarrollos entre sí. Específicamente, esto implicará: Desarrollar un proceso compartido para evaluar la seguridad de los modelos de IA. Realizar al menos un ejercicio de prueba conjunto sobre un modelo de acceso público. Colaborar en la investigación técnica de seguridad de la IA, tanto para avanzar en el conocimiento colectivo de los modelos de IA como para garantizar que las nuevas políticas estén alineadas. Intercambio de personal entre respectivos institutos. Compartir información sobre todas las actividades realizadas en los respectivos institutos. Trabajar con otros gobiernos en el desarrollo de estándares de IA, incluida la seguridad. «Gracias a nuestra colaboración, nuestros institutos obtendrán una mejor comprensión de los sistemas de inteligencia artificial, realizarán evaluaciones más sólidas y emitirán directrices más rigurosas», dijo el secretario Raimondo en un comunicado. VER: Aprenda a utilizar la IA para su negocio (Academia TechRepublic) El MoU se relaciona principalmente con el avance de los planes elaborados por los Institutos de Seguridad de IA en el Reino Unido y EE. UU. Las instalaciones de investigación del Reino Unido se lanzaron en la Cumbre de Seguridad de IA con los tres objetivos principales. de evaluar los sistemas de IA existentes, realizar investigaciones fundamentales sobre la seguridad de la IA y compartir información con otros actores nacionales e internacionales. Empresas como OpenAI, Meta y Microsoft han acordado que el AISI del Reino Unido revise de forma independiente sus últimos modelos de IA generativa. De manera similar, el AISI de EE. UU., establecido formalmente por el NIST en febrero de 2024, fue creado para trabajar en las acciones prioritarias descritas en la Orden Ejecutiva de AI emitida en octubre de 2023; Estas acciones incluyen el desarrollo de estándares para la seguridad de los sistemas de IA. El AISI de EE. UU. cuenta con el apoyo de un consorcio del AI Safety Institute, cuyos miembros son Meta, OpenAI, NVIDIA, Google, Amazon y Microsoft. ¿Conducirá esto a la regulación de las empresas de IA? Si bien ni el AISI del Reino Unido ni el de los EE. UU. son un organismo regulador, es probable que los resultados de su investigación combinada sirvan de base para futuros cambios de políticas. Según el gobierno del Reino Unido, su AISI «proporcionará conocimientos fundamentales para nuestro régimen de gobernanza», mientras que la instalación estadounidense «desarrollará directrices técnicas que serán utilizadas por los reguladores». Podría decirse que la Unión Europea todavía está un paso por delante, ya que su histórica Ley de IA se convirtió en ley el 13 de marzo de 2024. La legislación describe medidas diseñadas para garantizar que la IA se utilice de forma segura y ética, entre otras normas relativas a la IA para el reconocimiento facial y la transparencia. . VER: La mayoría de los profesionales de la ciberseguridad esperan que la IA afecte sus trabajos La mayoría de los grandes actores tecnológicos, incluidos OpenAI, Google, Microsoft y Anthropic, tienen su sede en EE. UU., donde actualmente no existen regulaciones estrictas que puedan restringir sus actividades de IA. La EO de octubre proporciona orientación sobre el uso y la regulación de la IA, y se han tomado medidas positivas desde su firma; sin embargo, esta legislación no es ley. El Marco de Gestión de Riesgos de IA finalizado por el NIST en enero de 2023 también es voluntario. De hecho, estas grandes empresas tecnológicas son en su mayoría responsables de regularse a sí mismas y el año pasado lanzaron el Foro Modelo Frontier para establecer sus propias “barandillas” para mitigar el riesgo de la IA. ¿Qué piensan la IA y los expertos legales sobre las pruebas de seguridad? La regulación de la IA debería ser una prioridad La formación del AISI del Reino Unido no fue una forma universalmente popular de controlar la IA en el país. En febrero, el director ejecutivo de Faculty AI, una empresa involucrada con el instituto, dijo que desarrollar estándares sólidos puede ser un uso más prudente de los recursos gubernamentales en lugar de intentar examinar cada modelo de IA. «Creo que es importante que establezca estándares para el resto del mundo, en lugar de intentar hacerlo todo por sí mismo», dijo Marc Warner a The Guardian. Más cobertura de IA de lectura obligada Los expertos en derecho tecnológico tienen un punto de vista similar cuando se trata del MoU de esta semana. «Idealmente, los esfuerzos de los países se gastarían mucho mejor en desarrollar regulaciones estrictas en lugar de investigación», dijo a TechRepublic en un correo electrónico Aron Solomon, analista legal y director de estrategia de la agencia de marketing legal Amplify. “Pero el problema es este: pocos legisladores (yo diría, especialmente en el Congreso de Estados Unidos) tienen un conocimiento tan profundo de la IA como para regularla. Solomon añadió: “Deberíamos salir en lugar de entrar en un período de estudio profundo necesario, en el que los legisladores realmente entiendan colectivamente cómo funciona la IA y cómo se utilizará en el futuro. Pero, como lo puso de relieve la reciente debacle estadounidense en la que los legisladores intentan prohibir TikTok, ellos, como grupo, no entienden la tecnología, por lo que no están bien posicionados para regularla de manera inteligente. “Esto nos deja en la situación difícil en la que nos encontramos hoy. La IA está evolucionando mucho más rápido de lo que los reguladores pueden regular. Pero aplazar la regulación en favor de cualquier otra cosa en este momento es retrasar lo inevitable”. De hecho, dado que las capacidades de los modelos de IA cambian y se expanden constantemente, las pruebas de seguridad realizadas por los dos institutos deberán hacer lo mismo. «Algunos malos actores pueden intentar eludir las pruebas o aplicar incorrectamente las capacidades de IA de doble uso», dijo a TechRepublic en un correo electrónico Christoph Cemper, director ejecutivo de la plataforma de gestión rápida AIPRM. El doble uso se refiere a tecnologías que pueden utilizarse tanto con fines pacíficos como hostiles. Cemper dijo: “Si bien las pruebas pueden señalar problemas de seguridad técnica, no reemplazan la necesidad de directrices sobre cuestiones éticas, políticas y de gobernanza… Idealmente, los dos gobiernos considerarán las pruebas como la fase inicial de un proceso colaborativo continuo”. VER: La IA generativa puede aumentar la amenaza global de ransomware, según un estudio del Centro Nacional de Seguridad Cibernética Se necesita investigación para una regulación eficaz de la IA Si bien las directrices voluntarias pueden no resultar suficientes para incitar un cambio real en las actividades de los gigantes tecnológicos, una legislación de línea dura podría sofocar Según el Dr. Kjell Carlsson, el progreso en IA si no se considera adecuadamente. El ex analista de ML/AI y actual jefe de estrategia de Domino Data Lab dijo a TechRepublic en un correo electrónico: “Hoy en día, hay áreas relacionadas con la IA donde el daño es una amenaza real y creciente. Se trata de áreas como el fraude y el cibercrimen, donde normalmente existe regulación pero es ineficaz. “Desafortunadamente, pocas de las regulaciones de IA propuestas, como la Ley de IA de la UE, están diseñadas para abordar eficazmente estas amenazas, ya que se centran principalmente en ofertas comerciales de IA que los delincuentes no utilizan. Como tal, muchos de estos esfuerzos regulatorios dañarán la innovación y aumentarán los costos, al tiempo que harán poco para mejorar la seguridad real”. Por lo tanto, muchos expertos piensan que priorizar la investigación y la colaboración es más eficaz que apresurarse con las regulaciones en el Reino Unido y los EE. UU. El Dr. Carlsson dijo: “La regulación funciona cuando se trata de prevenir daños establecidos en casos de uso conocidos. Hoy en día, sin embargo, la mayoría de los casos de uso de la IA aún no se han descubierto y casi todo el daño es hipotético. Por el contrario, existe una increíble necesidad de investigar cómo probar, mitigar el riesgo y garantizar la seguridad de los modelos de IA de forma eficaz. «Como tal, el establecimiento y la financiación de estos nuevos Institutos de Seguridad de IA y estos esfuerzos de colaboración internacional son una excelente inversión pública, no sólo para garantizar la seguridad, sino también para fomentar la competitividad de las empresas en los EE.UU. y el Reino Unido».

Source link

Cómo burlar las noticias falsas en tu feed de Facebook

CNN — El hecho de que esté en Internet no significa que sea cierto. Parece muy simple, pero si todo el mundo supiera eso, Facebook y Google no tendrían que eliminar sitios de noticias falsos de sus algoritmos publicitarios y la gente no compartiría sin aliento historias que afirman que Donald Trump es un lagarto secreto o que Hillary Clinton es un androide. en traje pantalón. No tiene por qué ser así. En realidad, las noticias falsas son muy fáciles de detectar, si sabes cómo. Considere esta su Guía de alfabetización en nuevos medios. NOTA: Al preparar esto, buscamos el aporte de dos expertos en comunicaciones: la Dra. Melissa Zimdars, profesora asociada del Merrimack College en Massachusetts, cuya lista dinámica de sitios de noticias poco confiables se ha vuelto viral, y Alexios Mantzarlis, director de International Red de verificación de datos del Instituto Poynter. Primero, conozca los diferentes tipos de noticias engañosas y falsas. 1. Noticias falsas. Estas son las más fáciles de desacreditar y a menudo provienen de sitios falsos conocidos que están diseñados para parecerse a medios de noticias reales. Pueden incluir fotografías engañosas y titulares que, a primera vista, parecen reales. 2. Noticias engañosas Son las más difíciles de desacreditar porque a menudo contienen una pizca de verdad: un hecho, evento o cita que ha sido sacado de contexto. Busque titulares sensacionalistas que no estén respaldados por la información del artículo. 3. Noticias altamente partidistas Un tipo de noticia engañosa, que puede ser una interpretación de un hecho noticioso real donde los hechos se manipulan para ajustarlos a una agenda. 4. Clickbait Los titulares impactantes o provocativos de estas historias te engañan para que hagas clic para obtener más información, que puede o no estar a la altura de lo prometido. 5. Sátira Esta es difícil, porque la sátira no pretende ser real y sirve como comentario o entretenimiento. Pero si las personas no están familiarizadas con un sitio de sátira, pueden compartir la noticia como si fuera legítima. En segundo lugar, perfeccione sus habilidades de verificación de datos. Alexios Mantzarlis capacita a verificadores de datos para ganarse la vida. Dice que es importante tener una “buena cantidad de escepticismo” y pensar, pensar realmente, antes de compartir una noticia. «Si fuéramos un poco más lentos a la hora de compartir y retuitear contenido basándose únicamente en el titular, avanzaríamos mucho en la lucha contra las falsedades», dijo a CNN. Melissa Zimdars señala que incluso aquellos que pasan mucho tiempo en línea no son inmunes al contenido falso. “La gente piensa esto [thinking] se aplica sólo a las personas mayores”, dijo a CNN. “Creo que incluso la educación temprana debería enseñar sobre comunicación, medios e Internet. Crecer con Internet no significa necesariamente que seas un experto en Internet”. Para empezar, aquí hay 10 preguntas que debes hacer si algo parece falso: Zimdars dice que los sitios con sufijos extraños como “.co” o “.su”, o que están alojados en plataformas de terceros como WordPress, deberían generar una señal de alerta. Algunos sitios falsos, como National Report, tienen nombres que suenan legítimos, si no demasiado generales, que pueden engañar fácilmente a las personas en los sitios sociales. Por ejemplo, varios informes falsos de abcnews.com.co se volvieron virales antes de ser desacreditados, incluido un artículo de junio que afirmaba que el presidente Obama firmó una orden que prohibía la venta de armas de asalto. 2. ¿El titular coincide con la información del artículo? Mantzarlis dice que una de las principales razones por las que se difunden noticias falsas en Facebook es porque las personas se dejan atrapar por un titular y no se molestan en hacer clic. Esta misma semana, varias organizaciones dudosas hicieron circular una historia sobre la directora ejecutiva de Pepsi, Indra Nooyi. “Las acciones de Pepsi se desploman después de que el director ejecutivo les dijera a los partidarios de Trump que ‘llevaran sus negocios a otra parte’”, pregonaba uno de esos titulares. Sin embargo, los artículos en sí no contenían esa cita ni evidencia de que las acciones de Pepsi experimentaran una caída significativa (no fue así). Nooyi hizo comentarios grabados sobre la elección de Trump, pero nunca fue citado diciendo a sus seguidores que «llevaran sus asuntos a otra parte». A veces, las noticias legítimas pueden tergiversarse y resucitar años después para crear una falsa combinación de acontecimientos. Mantzarlis recuerda una historia errónea que en realidad citaba una noticia legítima de CNNMoney. Un blog llamado Viral Liberty informó recientemente que Ford había trasladado la producción de algunas de sus camionetas de México a Ohio debido a la victoria electoral de Donald Trump. La historia rápidamente se hizo popular en Internet; después de todo, parecía una gran victoria para la industria automotriz nacional. Resulta que Ford trasladó parte de su producción de México a Ohio en 2015. No tuvo nada que ver con los resultados electorales. Las fotos y los vídeos también se pueden sacar de contexto para respaldar una afirmación falsa. En abril, el sitio liberal Occupy Democrats publicó un vídeo que supuestamente mostraba a la policía sacando a una joven de un baño por no parecer lo suficientemente femenina. Esto fue durante el apogeo de la controversia sobre la “ley del baño” HB2, y el artículo vinculaba claramente los dos. “COMIENZA”, decía el titular. Sin embargo, no había fecha en el video ni evidencia de que fue filmado en Carolina del Norte, donde se aprobaría el “proyecto de ley sobre el baño”. De hecho, según Snopes, el mismo vídeo se publicó en una página de Facebook en 2015, lo que significa que es anterior a la controversia HB2. 5. ¿El artículo cita fuentes primarias? No son sólo las noticias políticas las que pueden ser falsas. Now8News es uno de los sitios falsos pero aparentemente reales más infames, y se especializa en el tipo de noticias extrañas que a menudo se vuelven virales. Uno de esos artículos afirma que Coca-Cola retiró del mercado las botellas de agua Dasani después de que se encontró un “parásito claro” en el agua. Incluso había una imagen asquerosa que supuestamente mostraba el parásito, aunque una búsqueda básica en Google revela que lo más probable es que sea una foto de una anguila joven. De todos modos, el artículo no tenía ninguna declaración o reclamo de ninguna empresa. Claramente esta sería una gran historia. Dasani o cualquier grupo de defensa del consumidor publicarían declaraciones o comunicados de prensa al respecto, ¿verdad? No se encuentra ninguno, porque la historia es 100% falsa. 6. ¿La historia incluye citas y son rastreables? Un meme favorito de los grupos liberales de Facebook presenta una cita falsa de Donald Trump que supuestamente proviene de una entrevista de la revista People en 1998: “Si tuviera que postularme, lo haría como republicano. Son el grupo de votantes más tontos del país. Creen cualquier cosa en Fox News. Podría mentir y aún así se lo comerían. Apuesto a que mis números serían fantásticos”. Esto se puede desacreditar fácilmente si te tomas un momento para pensar en ello: People.com tiene archivos extensos, y esta cita no se encuentra en ninguna parte de ellos. Durante esta temporada electoral, el Papa Francisco se vio envuelto en tres historias súper virales y completamente falsas. Según varios sitios web (falsos), el Papa respaldó a tres candidatos presidenciales estadounidenses: primero, Bernie Sanders, como “informaron” National Report y USAToday.com.co. Luego, Donald Trump, como lo “informó” el sitio de noticias falsas WTOE 5 News. Finalmente, otro sitio de noticias falsas, KYPO6.com, informó que había respaldado a Hillary Clinton. En todos estos casos, los informes posteriores volvieron a ser falsos. Siempre es bueno rastrear una historia hasta la fuente original, y si te encuentras en un bucle, o si todas conducen al mismo sitio dudoso, tienes motivos para dudar. Tanto Zimdars como Mantzarlis dicen que el sesgo de confirmación es una de las principales razones por las que las noticias falsas se difunden como lo hacen. Parte de eso está integrado en el algoritmo de Facebook: cuanto más te guste o interactúes con un determinado interés, más te mostrará Facebook relacionado con ese interés. De manera similar, si odias a Donald Trump, es más probable que pienses que las historias negativas sobre Donald Trump son ciertas, incluso si no hay evidencia. «Buscamos información que ya se ajuste a nuestras creencias establecidas», dice Zimdars. «Si entramos en contacto con información con la que no estamos de acuerdo, aún así puede reafirmarnos porque intentaremos encontrar fallas». Entonces, si encuentra un artículo escandaloso que le parezca “demasiado bueno para ser verdad”, tenga cuidado: podría serlo. ¿Sabías que en realidad existe una Red Internacional de Verificación de Datos (que lidera Mantzarlis)? ¿Y que tiene un código de principios? El código incluye los ideales de no partidismo y transparencia, entre otros. Sitios como FactCheck.org, Snopes y Politifact cumplen con este código, por lo que si ve una desacreditación allí, sabrá que está recibiendo el verdadero trato. Vea la lista completa aquí. Aquí es donde las cosas pueden ponerse complicadas. Obviamente, existe una gran diferencia entre noticias “engañosas”, que generalmente se basan en hechos, y noticias “falsas”, que son sólo ficción disfrazada de hechos. La ahora famosa lista de Zimdars cubre ambos tipos, así como también sátiras y sitios que aprovechan los titulares tipo clickbait. Snopes también mantiene una lista. Si bien Zimdars se alegra de que su lista haya recibido tanta atención, también advierte que descartar por completo algunos de los sitios como “falsos” no es exacto. «Quiero asegurarme de que esta lista no perjudique al objetivo final», dice. “Es interesante que algunos de los titulares [about my list] son tan hiperbólicos como los que estoy analizando”.

Source link

Página 1 de 4

Funciona con WordPress & Tema de Anders Norén