Australia debe tomar una mano más firme contra la actividad de los colonos israelíes en Cisjordania, exigió un parlamentario laborista. La ministra de Asuntos Exteriores, Penny Wong, partió el lunes para una misión de paz de una semana en Oriente Medio, donde visitará Israel y los territorios palestinos ocupados. Pero antes de su partida, el diputado laborista Julian Hill dijo que el gobierno debe tomar medidas más enérgicas, incluida la ilegalización. para que los australianos financien las actividades de asentamiento. “Las palabras firmes y las acusaciones severas no son suficientes”, tuiteó el lunes por la mañana. “La comunidad internacional debe imponer consecuencias para los colonos y las autoridades israelíes por la continua actividad ilegal de asentamientos. Prohibiciones de visas y otras medidas. “Australia también debería investigar si los vehículos deducibles de impuestos pueden canalizar dinero para apoyar la actividad de los colonos en Cisjordania, y considerar ilegalizar que los australianos financien la actividad de los asentamientos”. El domingo se cumplieron 100 días desde que el grupo terrorista Hamás mató a 1.200 israelíes y tomó a otros 240 rehenes. Las represalias de Israel han matado a más de 20.000 palestinos en Gaza en los tres meses transcurridos desde entonces. El senador Wong se reunirá con familias de rehenes israelíes y víctimas palestinas de la violencia de los colonos mientras las tensiones continúan aumentando en el Medio Oriente. La senadora Wong también visitará Omán, Jordania y los Emiratos Árabes Unidos, donde la ministra se reunirá con sus homólogos. El Ministro de Asuntos Exteriores aprovechará el viaje, que marca el primero realizado por un alto funcionario del gobierno australiano desde que estalló la guerra el 7 de octubre, para abogar por una salida al conflicto en Gaza y por pasos hacia un alto el fuego sostenible. “Australia no es «Somos un actor central en Medio Oriente, pero somos una voz respetada: somos parte del esfuerzo diplomático internacional que refuerza el imperativo de una paz duradera», dijo el senador Wong en un comunicado. «Cien días desde los ataques terroristas del 7 de octubre , esta visita tiene como objetivo abogar por una salida a este conflicto”. Pero ha sido criticada por no confirmar si viajará a las ciudades del sur de Israel donde ocurrieron los ataques del 7 de octubre. Se le preguntó por qué no visitará los sitios por Antes de partir, la senadora Wong reiteró que se reuniría con los sobrevivientes y las familias de los rehenes. «Eso será importante», dijo en una conferencia de prensa el lunes. «Creo que todas estas reuniones tienen como objetivo interactuar con una amplia muestra representativa de perspectivas y partidos en la región». El primer ministro Anthony Albanese dijo que el itinerario de viaje del senador Wong fue un “asunto para ella” cuando se le preguntó el lunes por la mañana. «Lo que no hago es tener un itinerario preciso de todos mis ministros», dijo. El viaje del senador Wong se produce pocos días después de que Australia apoyara los ataques aéreos de Estados Unidos y el Reino Unido contra Yemen en represalia por los ataques de los rebeldes hutíes en el Mar Rojo. Los rebeldes respaldados por Irán han lanzado 27 ataques contra buques comerciales en la crucial ruta comercial desde mediados de Noviembre: una respuesta al bombardeo israelí de Gaza. El Mar Rojo es una de las rutas marítimas más transitadas del mundo. Une el Mar Mediterráneo y el Canal de Suez con el Océano Índico. Albanese acusó la semana pasada a Irán de “intromisión” y de desempeñar un “papel destructivo” en el conflicto. El lunes se le preguntó si Australia ofrecería más apoyo a la misión encabezada por Estados Unidos. Albanese dijo que su gobierno ya había proporcionado «la ayuda que se necesita». «Siempre damos un análisis adecuado y considerado y actuamos en el interés nacional de Australia y esa ha sido la base de nuestro apoyo hasta este momento», dijo a RN de ABC. «Por supuesto, nuestra concentración está en el Indo-Pacífico, que es algo que cuentan con el apoyo de nuestros aliados». Publicado originalmente como Ministro de Asuntos Exteriores, Penny Wong, para abogar por un “alto el fuego sostenible” durante su visita a Israel a medida que se profundiza la crisis de guerra.
Source link
Etiqueta: Israel
La niebla de la guerra se ha espesado en Gaza, una invasión terrestre está cobrando fuerza y los bombardeos aéreos continúan a un ritmo vertiginoso. El martes, misiles alcanzaron un campo de refugiados en Jabaliya, donde las Fuerzas de Defensa de Israel dijeron que estaba estacionado un alto líder de Hamas, matando a docenas de civiles. El debate sobre la crisis continúa en línea y fuera de ella, pero a pesar de todo el discurso, hay una pregunta pendiente que tengo. No se ha considerado ampliamente: ¿Hasta qué punto Israel depende de la inteligencia artificial y los sistemas de armas automatizados para seleccionar y atacar objetivos? Sólo en la primera semana de su ataque, la fuerza aérea israelí dijo que había lanzado 6.000 bombas en toda Gaza, un territorio que Tiene 140 millas cuadradas (una décima parte del tamaño del estado más pequeño de Rhode Island en Estados Unidos) y se encuentra entre los lugares más densamente poblados del mundo. Ha habido muchos miles de explosiones más desde entonces. Israel comanda el ejército más poderoso y de mayor tecnología de Medio Oriente. Meses antes de los horribles ataques de Hamás el 7 de octubre, las FDI anunciaron que iban a incorporar IA en operaciones letales. Como informó Bloomberg el 15 de julio, a principios de este año, las FDI habían comenzado a “usar inteligencia artificial para seleccionar objetivos para ataques aéreos y organizar la logística en tiempos de guerra”. Los funcionarios israelíes dijeron en ese momento que las FDI empleaban un sistema de recomendación de IA para elegir objetivos para ataques aéreos. bombardeo y otro modelo que luego se utilizaría para organizar rápidamente las siguientes incursiones. Las FDI llaman a este segundo sistema Fire Factory y, según Bloomberg, “utiliza datos sobre objetivos aprobados por el ejército para calcular cargas de municiones, priorizar y asignar miles de objetivos a aviones y drones, y proponer un cronograma”. A petición de comentarios, un portavoz de las FDI se negó a discutir el uso militar de la IA en el país. En un año en el que la IA ha dominado los titulares de todo el mundo, este elemento del conflicto ha sido curiosamente subexaminado. Dadas las innumerables cuestiones prácticas y éticas que siguen rodeando a esta tecnología, se debe presionar a Israel sobre cómo está implementando la IA. «Los sistemas de IA son notoriamente poco fiables y frágiles, especialmente cuando se colocan en situaciones que son diferentes de sus datos de entrenamiento», dijo Paul Scharre. , vicepresidente del Centro para una Nueva Seguridad Estadounidense y autor de “Cuatro campos de batalla: el poder en la era de la inteligencia artificial”. Scharre dijo que no estaba familiarizado con los detalles del sistema específico que las FDI podrían estar usando, pero que la IA y la automatización que ayudaron en los ciclos de selección de objetivos probablemente se usarían en escenarios como la búsqueda de personal y material de Hamas por parte de Israel en Gaza. El uso de la IA en el campo de batalla está avanzando rápidamente, dijo, pero conlleva riesgos significativos. “Cualquier IA que esté involucrada en decisiones de selección de objetivos, un riesgo importante es que acierte al objetivo equivocado”, dijo Scharre. «Podría estar causando víctimas civiles o atacando objetivos amigos y causando fratricidio». Una de las razones por las que es algo sorprendente que no hayamos visto más discusión sobre el uso de IA militar por parte de Israel es que las FDI han estado promocionando su inversión y adopción de la IA durante años. En 2017, el brazo editorial de las FDI proclamó que “las FDI ven la inteligencia artificial como la clave para la supervivencia moderna”. En 2018, las FDI se jactaron de que sus “máquinas están siendo más astutas que los humanos”. En ese artículo, la entonces directora de Sigma, la rama de las FDI dedicada a la investigación, el desarrollo y la implementación de la IA, la teniente coronel Nurit Cohen Inger, escribió que “Cada cámara, cada tanque y cada soldado produce información de forma regular. «Entendemos que hay capacidades que una máquina puede adquirir y que un hombre no puede», continuó Nurit. “Estamos introduciendo poco a poco la inteligencia artificial en todas las áreas de las FDI, desde la logística y la mano de obra hasta la inteligencia”. Las FDI llegaron incluso a llamar a su último conflicto con Hamás en Gaza, en 2021, la “primera guerra de inteligencia artificial”, con Los líderes de las FDI promocionan las ventajas que su tecnología confiere en la lucha contra Hamás. «Por primera vez, la inteligencia artificial fue un componente clave y un multiplicador de poder en la lucha contra el enemigo», dijo un alto oficial del Cuerpo de Inteligencia de las FDI al Jerusalem Post. Un comandante de la unidad de inteligencia artificial y ciencia de datos de las FDI dijo que los sistemas de inteligencia artificial habían ayudado al ejército a apuntar y eliminar a dos líderes de Hamas en 2021, según el Post. Las FDI dicen que los sistemas de IA se han integrado oficialmente en operaciones letales desde principios de este año. Dice que los sistemas permiten a los militares procesar datos y localizar objetivos más rápido y con mayor precisión, y que cada objetivo es revisado por un operador humano. Sin embargo, los académicos del derecho internacional en Israel han expresado su preocupación sobre la legalidad del uso de tales herramientas, y los analistas temen que representen un avance hacia armas más completamente autónomas y advierten que existen riesgos inherentes al entregar sistemas de objetivos a la IA. Después de todo, muchas IA Los sistemas son cada vez más cajas negras cuyos algoritmos no se comprenden bien y están ocultos a la vista del público. En un artículo sobre la adopción de la IA por parte de las FDI para el Instituto Lieber, los académicos de derecho de la Universidad Hebrea Tal Mimran y Lior Weinstein enfatizan los riesgos de depender de sistemas automatizados opacos capaces de provocar la pérdida de vidas humanas. (Cuando Mimran sirvió en las FDI, revisó los objetivos para asegurarse de que cumplieran con el derecho internacional). “Mientras las herramientas de IA no sean explicables”, escriben Mimran y Weinstein, “en el sentido de que no podemos entender completamente por qué alcanzaron un cierto En conclusión, ¿cómo podemos justificarnos a nosotros mismos si debemos confiar en la decisión de la IA cuando hay vidas humanas en juego? Continúan: “Si uno de los ataques producidos por la herramienta de IA causa un daño significativo a civiles no involucrados, ¿quién debería asumir la responsabilidad de la decisión?” Una vez más, las FDI no me explicaron exactamente cómo están utilizando la IA, y el funcionario le dijo a Bloomberg que un humano revisó la salida del sistema, pero que solo tomó unos minutos hacerlo. (“Lo que antes tomaba horas ahora toma minutos, con unos minutos más para la revisión humana”, dijo el jefe de transformación digital del ejército). Hay una serie de preocupaciones aquí, dado lo que sabemos sobre el estado actual de la técnica. de los sistemas de IA, y es por eso que vale la pena presionar a las FDI para que revelen más sobre cómo los utilizan actualmente. Por un lado, los sistemas de IA permanecen codificados con sesgos y, si bien a menudo son buenos para analizar grandes cantidades de datos, rutinariamente producen resultados propensos a errores cuando se les pide que extrapolen a partir de esos datos. “Una diferencia realmente fundamental entre la IA y un analista humano al que se le asigna exactamente la misma tarea”, dijo Scharre, “es que los humanos hacen un muy buen trabajo al generalizar a partir de un pequeño número de ejemplos a situaciones novedosas, y los sistemas de inteligencia artificial tienen muchas dificultades para generalizarse a situaciones novedosas”. Un ejemplo: incluso se ha demostrado una y otra vez que incluso la tecnología de reconocimiento facial supuestamente de vanguardia, como la utilizada por los departamentos de policía estadounidenses, es menos precisa a la hora de identificar a las personas. de color, lo que resulta en que los sistemas señalen a ciudadanos inocentes y lleven a arrestos injustos. Además, cualquier sistema de inteligencia artificial que busque automatizar (y acelerar) la selección de objetivos aumenta la posibilidad de que los errores cometidos en el proceso sean más difíciles de discernir. Y si los militares mantienen en secreto el funcionamiento de sus sistemas de inteligencia artificial, no hay manera de evaluar el tipo de errores que están cometiendo. «Creo que los militares deberían ser más transparentes en la forma en que evalúan o abordan la IA», dijo Scharre. “Una de las cosas que hemos visto en los últimos años en Libia o Ucrania es una zona gris. Habrá acusaciones de que se está utilizando IA, pero los algoritmos o los datos de entrenamiento son difíciles de descubrir, y eso hace que sea muy difícil evaluar lo que están haciendo los militares”. Incluso con esos errores incorporados en el código de eliminación, la IA podría, mientras tanto, prestar un barniz de credibilidad a objetivos que de otro modo no serían aceptables para los operadores de base. Finalmente, los sistemas de IA pueden crear una falsa sensación de confianza, que tal vez fue evidente en cómo, a pesar de tener el mejor sistema de inteligencia artificial de su clase, Con el sistema de vigilancia vigente en Gaza, Israel no detectó la planificación de la brutal y altamente coordinada masacre del 7 de octubre. Como señaló Peter Apps de Reuters: “El 27 de septiembre, apenas una semana antes de que los combatientes de Hamás lanzaran el mayor ataque sorpresa contra Israel desde la guerra de Yom Kippur de 1973, los funcionarios israelíes tomaron la presidencia del comité militar de la OTAN en la frontera de Gaza para demostrar su uso de inteligencia artificial y vigilancia de alta tecnología. … Desde aviones teledirigidos que utilizan software de reconocimiento facial hasta puestos de control fronterizos y escuchas electrónicas de las comunicaciones, la vigilancia israelí de Gaza se considera ampliamente entre los esfuerzos más intensos y sofisticados que existen”. Sin embargo, nada de eso ayudó a detener a Hamás. “El error ha sido, en el las últimas dos semanas, diciendo que se trataba de un fallo de inteligencia. No lo fue, fue un fracaso político”, dijo Antony Loewenstein, periodista independiente y autor de “El Laboratorio de Palestina” que estuvo basado en Jerusalén Oriental entre 2016 y 2020. “El foco de Israel había estado en Cisjordania, creyendo que había rodeado a Gaza. Creían erróneamente que las tecnologías más sofisticadas por sí solas lograrían mantener controlada y ocupada a la población palestina”. Ésa puede ser una de las razones por las que Israel se ha mostrado reacio a discutir sus programas de IA. Otro puede ser que un argumento clave de venta de la tecnología a lo largo de los años, que la IA ayudará a elegir objetivos con mayor precisión y reducir las víctimas civiles, actualmente no parece creíble. «La afirmación de la IA se ha centrado en apuntar a las personas con más éxito», dijo Loewenstein. “Pero no ha sido un objetivo concreto en absoluto; Hay un gran número de civiles muriendo. Un tercio de las viviendas en Gaza han sido destruidas. Eso no es apuntar con precisión”. Y eso es un temor aquí: que la IA pueda usarse para acelerar o habilitar la capacidad destructiva de una nación que convulsiona de rabia, con errores potencialmente mortales en sus algoritmos que quedan oscurecidos por la niebla de la guerra.
Source link
El logotipo de SolarEdge se ve en un teléfono inteligente y en la pantalla de una PC.Pavlo Gonchar | Imágenes SOPA | Sipa USA vía AP Images Las acciones de SolarEdge se desplomaron el miércoles después de horas de trabajo, luego de la suave guía del fabricante de productos solares para su cuarto trimestre en medio de luchas de demanda en el sector de energía renovable. Así es como le fue a la compañía: Pérdida por acción: 55 centavos frente a 89 centavos por acción participación esperada por LSEG, anteriormente conocida como Refinitiv Ingresos: $ 725 millones frente a $ 768 millones esperados por LSEG Para su próximo cuarto trimestre, el productor solar informó ingresos esperados de entre $ 300 millones y $ 350 millones. Para el sector solar en general, espera que los ingresos estén entre 275 y 320 millones de dólares. El director ejecutivo de SolarEdge, Zvi Lando, dijo en un comunicado el miércoles que la decepción del tercer trimestre es un reflejo de «un entorno de mercado lento, que ha resultado en un alto inventario de nuestros productos en los canales de distribución, en particular en Europa.» SolarEdge advirtió a Wall Street en octubre que sus ganancias del tercer trimestre estarían por debajo de las expectativas, lo que hizo que sus acciones cayeran un 30 por ciento. En ese momento, Lando dijo que las tasas de instalación de paneles solares habían disminuido, aunque las tasas de instalación suelen aumentar durante el tercer trimestre. SolarEdge tiene su sede en Israel, pero Lando dijo en octubre que la guerra entre Israel y Hamas no ha afectado la fabricación. El sector solar se ha enfrentado a vientos en contra durante el año pasado a medida que el aumento de las tasas de interés pesa sobre la demanda de energía solar. En diciembre pasado, California votó a favor de recortar la tasa de compensación de un programa de incentivo solar para propietarios de viviendas. Ese incentivo más bajo entró en vigor en abril, provocando un aumento en la demanda de instalación solar a medida que los propietarios intentaban acceder antes de la fecha límite de abril. Pronto podría producirse un nuevo recorte a los programas de incentivos solares de California para edificios de apartamentos multifamiliares, escuelas y granjas y tiene el potencial de profundizar aún más la caída de la demanda. Otras acciones de energía solar cayeron ligeramente después de la campana del miércoles. Enphase Energy bajó un siete por ciento, mientras que Sunrun experimentó una disminución del cuatro por ciento.
Source link
Es un mal momento para estar en línea. Si ha iniciado sesión en cualquier plataforma de redes sociales en las últimas dos semanas, sabrá de lo que estoy hablando: desde que Hamas desató su horrible ataque contra Israel, e Israel desató Durante su horrible campaña de bombardeos de represalia en Gaza, no sólo ha habido una avalancha de historias e imágenes desgarradoras e inquietantes, sino también de vídeos falsos, publicaciones fuera de contexto, expertos falsos, discursos enfurecidos y noticias falsificadas, todo ello lloviendo en nuestras transmisiones en Los investigadores de desinformación y los periodistas han calificado el desorden como una “niebla de guerra impulsada algorítmicamente” y los analistas de noticias han denunciado la avalancha de mala información, el esfuerzo más difícil que nunca por separar los hechos de la ficción en línea. Culminó esta semana en una loca lucha por analizar la culpa de un terrible ataque a un hospital de Gaza que dejó muchos civiles muertos, grupos aliados de Hamas culpando a Israel y viceversa, y una legión de detectives en línea que publicaban en una búsqueda mayoritariamente vana de la verdad. Pero seamos claros acerca de algunas cosas: esta niebla de guerra digital ha existido desde que las redes sociales existen para desplazarse con enojo en tiempos de crisis. E incluso si esa neblina se ha disipado ocasionalmente para un bien mayor, como cuando se ha utilizado para el periodismo ciudadano y la organización de disidentes contra regímenes opresivos, la estructura de incentivos de las redes sociales beneficia principalmente a los poderosos y a los inescrupulosos; recompensa a propagandistas y oportunistas, vendedores ambulantes y cazadores de influencia. Como muchos de nosotros nos sentimos furiosos e impotentes, podríamos aprovechar esta ocasión para considerar las formas en que las redes sociales nos engañan haciéndonos creer que estamos interactuando con la historia, en lugar de gritarle a un pantalla, y cómo las grandes tecnologías también aprovechan ese impulso, animándonos a publicar publicaciones cada vez más polémicas, incluso antes de que los hechos queden claros, prometiendo recompensar a los más incendiarios con notoriedad y tal vez incluso con pagos. Para solucionar todo esto y dar forma a una red social que aspire a difundir información objetiva de manera confiable, debemos prestar mucha atención a lo que está sucediendo en las trincheras digitales de las plataformas en este momento, y a las formas particulares en que está fallando nuestra cosecha actual. Se apresuró a culpar a Elon Musk por las peores fallas del ecosistema de las redes sociales. Después de todo, Musk es dueño de X, la plataforma anteriormente conocida como Twitter, alguna vez considerada el principal destino en línea para encontrar información actualizada sobre los principales acontecimientos del mundo. Sin duda, Twitter se ha convertido en una fuente de noticias significativamente menos confiable desde que Musk asumió el control y destripó a los equipos de moderación de contenido encargados de mantener a raya los engaños, el acoso y la mala información. Para empeorar las cosas, la sustitución por parte de Musk del anterior «azul» «verificación», que, aunque imperfecto, buscaba verificar las identidades de funcionarios y creadores de noticias, con un sistema de pago que permite a cualquiera comprar esa verificación por 8 dólares al mes, significa que fuentes «verificadas» pueden difundir información errónea, e incluso gane dinero en efectivo a través del programa de reparto de ingresos para creadores de X. (Un estudio realizado por el servicio de clasificación de noticias NewsGuard encontró que el 74% de las afirmaciones virales falsas o sin fundamento sobre la guerra entre Israel y Hamas se difundieron a través de cuentas pagadas «verificadas».) Ahora es sólo un equipo mínimo contra millones de publicaciones cada día, nuevas incentivos para que los usuarios avanzados publiquen basura mordaz y un programa básico de “notas de la comunidad” donde los usuarios pueden ofrecer voluntariamente aclaraciones y contexto. Pero a la competencia no le está yendo mucho mejor. Facebook y TikTok han estado trabajando activamente para limitar la cantidad de noticias que aparecen en sus plataformas en primer lugar. Por un lado, están protestando contra leyes nuevas y propuestas en Canadá y Estados Unidos que obligan a los gigantes tecnológicos a compensar a las empresas de medios que producen contenido que se comparte en sus plataformas. Por otro lado, las noticias son más difíciles y costosas de moderar que las fotografías de vacaciones y el patrocinio de celebridades. En Instagram, Meta ha estado insertando erróneamente la palabra “terrorista” en traducciones de texto de biografías de cuentas de usuarios que contenían la palabra “palestino”. Pero este problema difícilmente comenzó con Musk o TikTok. Lo que hoy llamamos desinformación ha acompañado a todas las grandes crisis o catástrofes desde que comenzó la era de seguirlas en línea; es un síntoma de las redes sociales a gran escala, punto. Siempre hay imágenes falsas (ese tiburón nadando por la carretera después de cualquier inundación importante en una ciudad, una foto reciclada de una tragedia anterior, un horror transpuesto de otro contexto) y “noticias” de última hora que resultan ser falsas o verdad a medias. Esto se debe a que las redes sociales no están diseñadas de ninguna manera para ser servicios de transmisión de noticias. Como han demostrado numerosos académicos, las plataformas sociales que están diseñadas para llegar (y mostrar anuncios a) la mayor cantidad de personas posible están diseñadas para incentivar contenido incendiario: material violento, polémicas, falsificaciones sensacionalistas. Puede que esto ya sea de conocimiento común, pero la tendencia solo se ha visto exacerbada por la eliminación de barreras como la moderación de contenido sólida o los equipos de confianza y seguridad. En el mejor de los casos, son noticias digitales por cable y, en el peor, un foro de comentarios desquiciado de 8chan. Tomemos como ejemplo la intensa escaramuza en línea que se desarrolló esta semana sobre si fue Israel quien bombardeó un hospital en Gaza, matando al menos a 500 personas, o un cohete palestino que falló. , matando a muchos menos. Desde el principio, las ideologías se calentaban, y quizás el mayor predictor de cuál sería su explicación en línea de la tragedia fue su orientación política. Los detectives aficionados recurrieron a las imágenes satelitales disponibles y a las grabaciones de los cohetes en arco para enviar largos hilos que detallaban por qué. o por qué un lado no fue responsable en función de factores como si el cráter de impacto de la explosión pudo o no tener el tamaño que se ve en las imágenes disponibles. Me recordó a los detectives de Reddit que se pusieron a trabajar a toda marcha después del atentado con bomba en el maratón de Boston hace 10 años, reuniendo pruebas a partir de erratas digitales de vídeos de teléfonos móviles y secuencias de noticias, y finalmente señalaron a un transeúnte inocente como culpable. Dicho esto, el ejemplo también destaca Un hecho del nuevo entorno mediático: en la niebla algorítmica de la guerra, aquellos con más poder y recursos tienen una clara ventaja. Si bien los funcionarios de Gaza culparon a las Fuerzas de Defensa de Israel por el ataque en un comunicado, las FDI respondieron con un paquete de redes sociales mucho más hábil para refutar las afirmaciones: una serie de publicaciones cargadas de gráficos que afirmaban que la explosión fue el resultado de un cohete que fallaba, con información completa sobre lo que afirmó fue un audio interceptado de combatientes de Hamás discutiendo el accidente con niveles peculiares de detalle. Los críticos acusaron al producto mediático de ser un montaje, señalaron que Israel había negado falsamente su responsabilidad antes, y dimos vueltas y vueltas. Como era cierto hace 10 años, la hiperactividad en línea (las teorizaciones febriles, el análisis de capturas de pantalla, las opiniones implacables) — al final no sirvió de mucho, al menos para el 99 % de los implicados. Poco se logró que no se hubiera logrado si los carteles simplemente hubieran esperado a que los periodistas e investigadores realizaran su trabajo. Las redes sociales aún pueden ser cruciales. Ayer estuve en un vuelo, desplazándome por X durante horas hasta que casi me disociaré. Así que encendí CNN y lo que vi allí fue de alguna manera incluso peor: una cobertura de pared a pared alineada casi exclusivamente con el punto de vista de Israel. Una historia sobre cómo Hamás estaba sembrando desinformación en línea, sobre las víctimas de la brutal matanza de Hamás, sobre un israelí heroico que luchó contra los militantes, sobre la administración de Biden que respaldaba las afirmaciones israelíes de que los habitantes de Gaza eran los culpables de la explosión en Gaza. Ninguna de las cuales sería una historia terrible por sí sola, pero en las horas de cobertura que vi, solo hubo una historia sobre Gaza, y se trataba de un médico estadounidense varado allí. Para ver evidencia de las consecuencias de la campaña de bombardeos de Israel, tuve que recurrir a las redes sociales. A pesar de todo, sigue siendo el lugar donde se escuchan las voces que no se transmiten en ningún otro lugar. Después de todo, hay una razón por la que Israel está tratando de cortar el acceso a Internet de Gaza. Pero necesitamos urgentemente descubrir cómo aumentar el cociente de confiabilidad y seguridad en las plataformas, frenar nuestros peores impulsos al usarlas y aumentar nuestros medios. alfabetización sobre ellos en general, nada de lo cual es probable que suceda cuando las plataformas en cuestión están dirigidas por un megalómano egoísta o dependen de un aumento infinito de los ingresos publicitarios, o ambas cosas. En la era de la negación de la COVID y de QAnon y del colapso de la confianza en nuestras instituciones en todas partes, la verdad parece tan maleable, esquiva e incluso incognoscible como siempre; Después de un ataque atroz que ha generado comparaciones con el 11 de septiembre, y sabiendo cuán falibles eran nuestras instituciones después de esa tragedia, es realmente difícil saber en quién confiar, desde las redes sociales hasta las redes sociales en adelante. Una cosa es Lo cierto es que necesitamos un lugar donde podamos avanzar hacia una comprensión compartida de los acontecimientos mundiales. Pero los parques propiedad de multimillonarios nunca serán ese lugar.
Source link