La era de la inteligencia artificial ha comenzado y trae consigo muchas preocupaciones nuevas. Se están dedicando mucho esfuerzo y dinero para garantizar que la IA sólo haga lo que los humanos quieren. Pero lo que más deberíamos temer es la IA que hará lo que los humanos quieren. El verdadero peligro somos nosotros. Ese no es el riesgo que la industria se esfuerza por abordar. En febrero, se fundó toda una empresa, llamada Synth Labs, con el propósito expreso de “alinear la IA”, haciendo que se comporte exactamente como los humanos pretenden. Entre sus inversores se encuentran M12, propiedad de Microsoft, y First Start Ventures, fundada por el ex director ejecutivo de Google, Eric Schmidt. OpenAI, el creador de ChatGPT, ha prometido que el 20% de su potencia de procesamiento se destinará a una «superalineación» que «dirigirá y controlará los sistemas de IA de forma mucho más inteligente que nosotros». Las grandes tecnologías están en todo esto. Y eso probablemente sea algo bueno debido al rápido desarrollo tecnológico de la IA. Casi todas las conversaciones sobre riesgos tienen que ver con las posibles consecuencias de que los sistemas de IA persigan objetivos que divergen de aquellos para los que fueron programados y que no redundan en interés de los humanos. Todos pueden respaldar esta noción de alineación y seguridad de la IA, pero este es solo un lado del peligro. Imagínese lo que podría suceder si la IA hiciera lo que los humanos quieren. “Lo que los humanos quieren”, por supuesto, no es un monolito. Diferentes personas quieren cosas diferentes y tienen innumerables ideas sobre lo que constituye «el bien común». Creo que a la mayoría de nosotros nos preocuparía, con razón, si una inteligencia artificial estuviera alineada con las visiones de un mundo óptimo de Vladimir Putin o Kim Jong Un. Incluso si pudiéramos lograr que todos se centraran en el bienestar de toda la especie humana, es poco probable que Podríamos ponernos de acuerdo sobre cómo sería eso. Elon Musk dejó esto claro la semana pasada cuando compartió en X, su plataforma de redes sociales, que le preocupaba que la IA impulsara la “diversidad forzada” y estuviera demasiado “despierta”. (Esto se produjo inmediatamente después de que Musk presentara una demanda contra OpenAI, argumentando que la compañía no estaba cumpliendo su promesa de desarrollar IA para el beneficio de la humanidad). Las personas con prejuicios extremos podrían creer genuinamente que redundaría en interés general de humanidad a matar a cualquiera que consideraran desviado. La IA «alineada con los humanos» es esencialmente tan buena, mala, constructiva o peligrosa como las personas que la diseñan. Esa parece ser la razón por la que Google DeepMind, el brazo de desarrollo de IA de la corporación, fundó recientemente una organización interna centrada en la seguridad y prevención de la IA. su manipulación por parte de malos actores. Pero no es ideal que lo que es “malo” sea determinado por un puñado de individuos en esta corporación en particular (y un puñado de otras similares), con sus puntos ciegos y sus prejuicios personales y culturales. El problema potencial va más allá. humanos dañando a otros humanos. Lo que es “bueno” para la humanidad, muchas veces a lo largo de la historia, se ha producido a expensas de otros seres sintientes. Ésta es la situación actual. Sólo en Estados Unidos tenemos miles de millones de animales sometidos a cautiverio, a prácticas tortuosas y a la negación de sus necesidades psicológicas y fisiológicas básicas en un momento dado. Especies enteras son subyugadas y sistemáticamente sacrificadas para que podamos comer tortillas, hamburguesas y zapatos. Si la IA hace exactamente lo que “nosotros” (quienquiera que programe el sistema) queremos, eso probablemente significaría implementar esta crueldad masiva de manera más eficiente, a un nivel uniforme. a mayor escala y con más automatización y menos oportunidades para que seres humanos comprensivos intervengan y señalen cualquier cosa particularmente horripilante. De hecho, en las granjas industriales, esto ya está sucediendo, aunque en una escala mucho menor de lo que es posible. Los principales productores de productos animales, como Tyson Foods, con sede en Estados Unidos, CP Foods, con sede en Tailandia, y Mowi, con sede en Noruega, han comenzado a experimentar con sistemas de inteligencia artificial destinados a hacer más eficiente la producción y el procesamiento de animales. Estos sistemas se están probando para, entre otras actividades, alimentar animales, monitorear su crecimiento, recortar marcas en sus cuerpos e interactuar con animales usando sonidos o descargas eléctricas para controlar su comportamiento. Un objetivo mejor que alinear la IA con los intereses inmediatos de la humanidad sería cuál Yo lo llamaría alineación sensible: la IA actúa de acuerdo con los intereses de todos los seres sintientes, incluidos los humanos, todos los demás animales y, si existiera, la IA sintiente. En otras palabras, si una entidad puede experimentar placer o dolor, su destino debe tenerse en cuenta cuando los sistemas de IA tomen decisiones. Esto les parecerá a algunos una propuesta radical, porque lo que es bueno para toda la vida sensible puede no siempre coincidir con lo que es bueno para humanidad. A veces, incluso a menudo, puede estar en contra de lo que los humanos queremos o de lo que sería mejor para la mayoría de nosotros. Eso podría significar, por ejemplo, que la IA elimine los zoológicos, destruya ecosistemas no esenciales para reducir el sufrimiento de los animales salvajes o prohíba las pruebas con animales. Hablando recientemente en el podcast “All Thinks Considered”, Peter Singer, filósofo y autor del histórico libro de 1975 “Animal Liberation, » Argumentó que los objetivos y prioridades finales de un sistema de IA son más importantes que su alineación con los humanos. «La pregunta es realmente si esta IA superinteligente será benévola y querrá producir un mundo mejor», dijo Singer, «e incluso si Si no lo controlamos, producirá un mundo mejor en el que nuestros intereses serán tenidos en cuenta. A veces pueden verse superados por el interés de los animales no humanos o por los intereses de la IA, pero creo que aun así sería un buen resultado”. Estoy con Singer en esto. Parece que lo más seguro y compasivo que podemos hacer es tener en cuenta la vida sensible no humana, incluso si los intereses de esas entidades podrían chocar con lo que es mejor para los humanos. Descentrar a la humanidad en cualquier medida, y especialmente hasta este extremo, es una idea que desafiará a la gente. Pero eso es necesario si queremos evitar que nuestro especismo actual prolifere de maneras nuevas y terribles. Lo que realmente deberíamos pedir es que los ingenieros amplíen sus propios círculos de compasión al diseñar tecnología. Cuando pensamos en “seguro”, pensemos en lo que significa “seguro” para todos los seres sintientes, no sólo para los humanos. Cuando pretendemos hacer que la IA sea “benévola”, asegurémonos de que eso signifique benevolencia para el mundo en general, no solo para una sola especie que vive en él. Brian Kateman es cofundador de la Reducetarian Foundation, una organización sin fines de lucro dedicada a reducir la desigualdad social. consumo de productos animales. Su último libro y documental es «Meat Me Halfway».
Source link
Etiqueta: humano
Científicos noruegos cultivan ‘mini’ cerebros y corazones para ayudar a curar la demencia y el cáncer | Daily Telegraph Reproduciendo ahora
La histórica huelga de escritores de 146 días finalmente parece haber terminado. Los detalles son escasos, pero el Writers Guild of America suena triunfante: califica el acuerdo de “excepcional” y anuncia ganancias en casi todos los ámbitos. Y aunque hay muchas razones por las que el sindicato finalmente ganó (organización inteligente y un piquete memorable, una fuerte alianza con SAG-AFTRA y errores tácticos cometidos por los ejecutivos del estudio, entre ellos), hay una cosa sobre todo que iluminó la acción: la La forma en que los escritores se negaron a permitir que los jefes usaran la IA para explotarlos. En un momento en que la perspectiva de que los ejecutivos y gerentes usaran la automatización del software para socavar el trabajo en profesiones en todas partes cobraba gran importancia, la huelga se convirtió en una especie de batalla por poderes entre humanos y IA. Fue una batalla que la mayoría del público estaba ansioso por ver ganar a los escritores. No es la única razón por la que los estadounidenses respaldaban abrumadoramente a los escritores de los estudios (según una encuesta de Gallup, el público los apoyaba por encima de los ejecutivos por un sorprendente margen del 72% al 19%), pero era una razón importante. Como lo dirán los participantes de la huelga de cinco meses, las preocupaciones sobre el uso de IA generativa como ChatGPT ni siquiera eran una prioridad cuando los escritores se sentaron por primera vez con los estudios para comenzar a negociar. La primera propuesta de la WGA simplemente establecía que los estudios no usarían IA para generar guiones originales, y fue solo cuando los estudios se negaron rotundamente que se encendieron las banderas rojas. Fue entonces cuando los escritores se dieron cuenta de que los estudios tomaban en serio el uso de IA, si no para generar guiones terminados, algo que ambas partes sabían que era imposible en esta coyuntura, y luego como palanca contra los escritores, tanto como una amenaza como un medio para justificar el ofrecimiento de tarifas de reescritura más bajas. Fue entonces cuando la WGA trazó una línea en la arena, cuando comenzamos a ver carteles en los piquetes que denunciaban a AI que se volvían virales en las redes sociales y titulares que promocionaban el conflicto adornaban periódicos como este. Cada vez que iba a los piquetes, La IA era fácilmente el tema principal que los escritores querían discutir, en gran parte porque parecía una amenaza existencial directa al trabajo de ser guionista. Las opiniones sobre la naturaleza precisa de la amenaza de la IA variaron. Algunos pensaban que la tecnología era una completa basura que no podía escribir un guión que valiera la pena, sin importar las indicaciones que se le dieran, y temían que simplemente se usara como una excusa para reducir los salarios. Otros estaban legítimamente preocupados de que los estudios intentaran usar IA generativa. quitarles el trabajo de todos modos, o que con el tiempo sería lo suficientemente bueno como para producir un producto útil. Si ese fuera el caso, muchos temían lo que se perdería en el proceso: películas y series coloreadas por experiencias de la vida real, que exploraban la experiencia humana. Ya sabes, arte. Había un temor palpable de que los productos tecnológicos, creados por startups ricas y en su mayoría blancas en Silicon Valley, produjeran contenido que reflejara exactamente eso. Independientemente de la naturaleza de la queja, todos estuvieron de acuerdo en entregar a los estudios el poder de decidir cómo utilizar la generación generativa. La IA fue una mala idea. Todos parecían entender la importancia de esa línea roja contra permitir que los jefes automatizaran su trabajo en aras de reducir costos o mejorar la eficiencia. Y la naturaleza de esa resistencia era contagiosa. «Estoy convencido de muchas de las cosas por las que los escritores están en huelga, desde asegurarse de que tengan un número mínimo de escritores en una sala de escritores hasta regular la IA», dijo la actriz y miembro del SAG Ellen Adair al periodista laboral Alex Press. en los primeros días de la huelga. Cuando quedó claro que los estudios estaban tan interesados en automatizar la actuación como lo estaban escribiendo (los estudios supuestamente querían el derecho a usar la captura de movimiento para escanear a los actores de fondo y usar sus imágenes a perpetuidad), los actores rechazado también; La SAG se declaró en huelga en julio. Grandes celebridades como Bryan Cranston y el negociador del SAG Fran Drescher se pronunciaron en contra de la IA, haciendo causa común. La línea roja que trazaron los escritores fue claramente inspiradora y unificadora; no solo entre los actores de la pantalla que enfrentaron temores similares, sino también entre todos aquellos que miraban los titulares pregonando una inminente adquisición de la IA, o leían memorandos de sus gerentes anunciando iniciativas para explorar el uso de la IA en sus lugares de trabajo. Eso incluye a todos los ilustradores, periodistas y redactores que han estado observando con nerviosismo cómo su trabajo parecía agotarse a medida que la gerencia adoptaba herramientas como Midjourney y Bard. Entonces sucedió algo curioso. Observadores, periodistas e incluso los propios trabajadores de Hollywood comenzaron a referirse a los huelguistas como luditas. Los verdaderos luditas; no las caricaturas. La cultura estadounidense se ha burlado durante mucho tiempo de cualquiera que proteste contra la tecnología llamándolo ludita. Se supone que significa «ignorante» o «mirando hacia atrás», pero todo eso está mal. Empresas como Wired y Fast Co. llamaban luditas a los manifestantes en un sentido favorable, porque cada vez más personas entienden que los verdaderos luditas no se oponían a la tecnología en sí, sino a la forma en que se usaba y contra quién se usaba. He pasado los últimos cinco años investigando y escribiendo sobre esos luditas reales, por lo que puedo asegurarles que eran trabajadores inteligentes y conocedores de la tecnología que vieron a los empresarios tratando de automatizar sus trabajos o reemplazarlos con máquinas, y respondieron con fuerza. sólo después de que fracasaran los esfuerzos pacíficos para frenar la “maquinaria perjudicial para los intereses comunes”. Estaban bien con la mayoría de la tecnología, pero trazaron una línea en las cosas que las explotaban con el único propósito de enriquecer a otra. Como tal, al trazar esa línea roja contra la IA, una táctica que resultó tan exitosa, los escritores sacaron una página de el manual ludita de la vieja escuela. Y, al igual que los luditas de principios de la Revolución Industrial, que durante un tiempo fueron tan queridos en Inglaterra como Robin Hood, resultó extremadamente popular. También vale la pena celebrarlo, ya que supongo que esto es sólo el comienzo. Hollywood está lejos de ser la única industria ansiosa por reducir costos automatizando el trabajo con IA generativa. Desde el comienzo de la huelga, he argumentado que los escritores están liderando el camino al mostrar a los trabajadores de todo el mundo cómo resistir los usos potencialmente explotadores de la IA en el mundo. lugar de trabajo, y ahora, más que nunca, se ha demostrado que eso es cierto. Hay un gran poder en trazar una línea dura, en negarse a permitir que un jefe use la tecnología para borrar su trabajo, en hablar sobre cómo le gustaría o no que la tecnología moldeara su vida. Y, si parece que sólo va a degradar o alterar su forma de vida, decir no tiene un gran poder. Pregúntale a los escritores.
Source link
Si bien el factor de forma y el diseño de nuestros teléfonos han evolucionado a lo largo de los años, todavía son en gran medida similares en concepto, ya que son un dispositivo que sostenemos e interactuamos en nuestras manos. Humane está aquí para desafiar esa noción con el anuncio del AI Pin, un dispositivo portátil que podemos colocar en nuestra ropa. Humane, para quienes no lo conocen, es una startup dirigida por ex empleados de Apple. El AI Pin es una insignia que se lleva en nuestra ropa y que recuerda a un comunicador de Star Trek. No tiene pantalla ni tienda de aplicaciones propia, por lo que sólo hace lo que la compañía cree que debe hacer. Se ejecuta en un sistema operativo llamado Cosmos que depende en gran medida de la IA para realizar la tarea deseada, lo que significa que si bien no hay aplicaciones (al menos no en el sentido tradicional) que los usuarios puedan descargar para hacer cosas específicas, aún será capaz de terminando el trabajo. Hay una cámara que se puede usar para identificar objetos alrededor del usuario, y si los usuarios necesitan ver información como sus mensajes, hay un proyector incorporado que puede transmitir la interfaz del software a su mano. Se puede interactuar con esta interfaz mediante gestos con las manos y los dedos, lo cual es realmente genial si realmente funciona como se anuncia. También hay un micrófono para que los usuarios emitan comandos y también puede funcionar como traductor, donde puede detectar un idioma extranjero que se habla y traducirlo al inglés. Es un enfoque muy interesante, pero podría ser difícil de vender. Muchos de nosotros estamos acostumbrados a nuestros teléfonos y a cómo los usamos a diario, por lo que es difícil imaginar renunciar a todo eso tan repentinamente. Se espera que Humane comience a vender el AI Pin el 16 de noviembre, donde tendrá un precio de $699, pero también requerirá una conexión celular que costará $24 por mes, que también incluye acceso a un montón de herramientas de IA.
La niebla de la guerra se ha espesado en Gaza, una invasión terrestre está cobrando fuerza y los bombardeos aéreos continúan a un ritmo vertiginoso. El martes, misiles alcanzaron un campo de refugiados en Jabaliya, donde las Fuerzas de Defensa de Israel dijeron que estaba estacionado un alto líder de Hamas, matando a docenas de civiles. El debate sobre la crisis continúa en línea y fuera de ella, pero a pesar de todo el discurso, hay una pregunta pendiente que tengo. No se ha considerado ampliamente: ¿Hasta qué punto Israel depende de la inteligencia artificial y los sistemas de armas automatizados para seleccionar y atacar objetivos? Sólo en la primera semana de su ataque, la fuerza aérea israelí dijo que había lanzado 6.000 bombas en toda Gaza, un territorio que Tiene 140 millas cuadradas (una décima parte del tamaño del estado más pequeño de Rhode Island en Estados Unidos) y se encuentra entre los lugares más densamente poblados del mundo. Ha habido muchos miles de explosiones más desde entonces. Israel comanda el ejército más poderoso y de mayor tecnología de Medio Oriente. Meses antes de los horribles ataques de Hamás el 7 de octubre, las FDI anunciaron que iban a incorporar IA en operaciones letales. Como informó Bloomberg el 15 de julio, a principios de este año, las FDI habían comenzado a “usar inteligencia artificial para seleccionar objetivos para ataques aéreos y organizar la logística en tiempos de guerra”. Los funcionarios israelíes dijeron en ese momento que las FDI empleaban un sistema de recomendación de IA para elegir objetivos para ataques aéreos. bombardeo y otro modelo que luego se utilizaría para organizar rápidamente las siguientes incursiones. Las FDI llaman a este segundo sistema Fire Factory y, según Bloomberg, “utiliza datos sobre objetivos aprobados por el ejército para calcular cargas de municiones, priorizar y asignar miles de objetivos a aviones y drones, y proponer un cronograma”. A petición de comentarios, un portavoz de las FDI se negó a discutir el uso militar de la IA en el país. En un año en el que la IA ha dominado los titulares de todo el mundo, este elemento del conflicto ha sido curiosamente subexaminado. Dadas las innumerables cuestiones prácticas y éticas que siguen rodeando a esta tecnología, se debe presionar a Israel sobre cómo está implementando la IA. «Los sistemas de IA son notoriamente poco fiables y frágiles, especialmente cuando se colocan en situaciones que son diferentes de sus datos de entrenamiento», dijo Paul Scharre. , vicepresidente del Centro para una Nueva Seguridad Estadounidense y autor de “Cuatro campos de batalla: el poder en la era de la inteligencia artificial”. Scharre dijo que no estaba familiarizado con los detalles del sistema específico que las FDI podrían estar usando, pero que la IA y la automatización que ayudaron en los ciclos de selección de objetivos probablemente se usarían en escenarios como la búsqueda de personal y material de Hamas por parte de Israel en Gaza. El uso de la IA en el campo de batalla está avanzando rápidamente, dijo, pero conlleva riesgos significativos. “Cualquier IA que esté involucrada en decisiones de selección de objetivos, un riesgo importante es que acierte al objetivo equivocado”, dijo Scharre. «Podría estar causando víctimas civiles o atacando objetivos amigos y causando fratricidio». Una de las razones por las que es algo sorprendente que no hayamos visto más discusión sobre el uso de IA militar por parte de Israel es que las FDI han estado promocionando su inversión y adopción de la IA durante años. En 2017, el brazo editorial de las FDI proclamó que “las FDI ven la inteligencia artificial como la clave para la supervivencia moderna”. En 2018, las FDI se jactaron de que sus “máquinas están siendo más astutas que los humanos”. En ese artículo, la entonces directora de Sigma, la rama de las FDI dedicada a la investigación, el desarrollo y la implementación de la IA, la teniente coronel Nurit Cohen Inger, escribió que “Cada cámara, cada tanque y cada soldado produce información de forma regular. «Entendemos que hay capacidades que una máquina puede adquirir y que un hombre no puede», continuó Nurit. “Estamos introduciendo poco a poco la inteligencia artificial en todas las áreas de las FDI, desde la logística y la mano de obra hasta la inteligencia”. Las FDI llegaron incluso a llamar a su último conflicto con Hamás en Gaza, en 2021, la “primera guerra de inteligencia artificial”, con Los líderes de las FDI promocionan las ventajas que su tecnología confiere en la lucha contra Hamás. «Por primera vez, la inteligencia artificial fue un componente clave y un multiplicador de poder en la lucha contra el enemigo», dijo un alto oficial del Cuerpo de Inteligencia de las FDI al Jerusalem Post. Un comandante de la unidad de inteligencia artificial y ciencia de datos de las FDI dijo que los sistemas de inteligencia artificial habían ayudado al ejército a apuntar y eliminar a dos líderes de Hamas en 2021, según el Post. Las FDI dicen que los sistemas de IA se han integrado oficialmente en operaciones letales desde principios de este año. Dice que los sistemas permiten a los militares procesar datos y localizar objetivos más rápido y con mayor precisión, y que cada objetivo es revisado por un operador humano. Sin embargo, los académicos del derecho internacional en Israel han expresado su preocupación sobre la legalidad del uso de tales herramientas, y los analistas temen que representen un avance hacia armas más completamente autónomas y advierten que existen riesgos inherentes al entregar sistemas de objetivos a la IA. Después de todo, muchas IA Los sistemas son cada vez más cajas negras cuyos algoritmos no se comprenden bien y están ocultos a la vista del público. En un artículo sobre la adopción de la IA por parte de las FDI para el Instituto Lieber, los académicos de derecho de la Universidad Hebrea Tal Mimran y Lior Weinstein enfatizan los riesgos de depender de sistemas automatizados opacos capaces de provocar la pérdida de vidas humanas. (Cuando Mimran sirvió en las FDI, revisó los objetivos para asegurarse de que cumplieran con el derecho internacional). “Mientras las herramientas de IA no sean explicables”, escriben Mimran y Weinstein, “en el sentido de que no podemos entender completamente por qué alcanzaron un cierto En conclusión, ¿cómo podemos justificarnos a nosotros mismos si debemos confiar en la decisión de la IA cuando hay vidas humanas en juego? Continúan: “Si uno de los ataques producidos por la herramienta de IA causa un daño significativo a civiles no involucrados, ¿quién debería asumir la responsabilidad de la decisión?” Una vez más, las FDI no me explicaron exactamente cómo están utilizando la IA, y el funcionario le dijo a Bloomberg que un humano revisó la salida del sistema, pero que solo tomó unos minutos hacerlo. (“Lo que antes tomaba horas ahora toma minutos, con unos minutos más para la revisión humana”, dijo el jefe de transformación digital del ejército). Hay una serie de preocupaciones aquí, dado lo que sabemos sobre el estado actual de la técnica. de los sistemas de IA, y es por eso que vale la pena presionar a las FDI para que revelen más sobre cómo los utilizan actualmente. Por un lado, los sistemas de IA permanecen codificados con sesgos y, si bien a menudo son buenos para analizar grandes cantidades de datos, rutinariamente producen resultados propensos a errores cuando se les pide que extrapolen a partir de esos datos. “Una diferencia realmente fundamental entre la IA y un analista humano al que se le asigna exactamente la misma tarea”, dijo Scharre, “es que los humanos hacen un muy buen trabajo al generalizar a partir de un pequeño número de ejemplos a situaciones novedosas, y los sistemas de inteligencia artificial tienen muchas dificultades para generalizarse a situaciones novedosas”. Un ejemplo: incluso se ha demostrado una y otra vez que incluso la tecnología de reconocimiento facial supuestamente de vanguardia, como la utilizada por los departamentos de policía estadounidenses, es menos precisa a la hora de identificar a las personas. de color, lo que resulta en que los sistemas señalen a ciudadanos inocentes y lleven a arrestos injustos. Además, cualquier sistema de inteligencia artificial que busque automatizar (y acelerar) la selección de objetivos aumenta la posibilidad de que los errores cometidos en el proceso sean más difíciles de discernir. Y si los militares mantienen en secreto el funcionamiento de sus sistemas de inteligencia artificial, no hay manera de evaluar el tipo de errores que están cometiendo. «Creo que los militares deberían ser más transparentes en la forma en que evalúan o abordan la IA», dijo Scharre. “Una de las cosas que hemos visto en los últimos años en Libia o Ucrania es una zona gris. Habrá acusaciones de que se está utilizando IA, pero los algoritmos o los datos de entrenamiento son difíciles de descubrir, y eso hace que sea muy difícil evaluar lo que están haciendo los militares”. Incluso con esos errores incorporados en el código de eliminación, la IA podría, mientras tanto, prestar un barniz de credibilidad a objetivos que de otro modo no serían aceptables para los operadores de base. Finalmente, los sistemas de IA pueden crear una falsa sensación de confianza, que tal vez fue evidente en cómo, a pesar de tener el mejor sistema de inteligencia artificial de su clase, Con el sistema de vigilancia vigente en Gaza, Israel no detectó la planificación de la brutal y altamente coordinada masacre del 7 de octubre. Como señaló Peter Apps de Reuters: “El 27 de septiembre, apenas una semana antes de que los combatientes de Hamás lanzaran el mayor ataque sorpresa contra Israel desde la guerra de Yom Kippur de 1973, los funcionarios israelíes tomaron la presidencia del comité militar de la OTAN en la frontera de Gaza para demostrar su uso de inteligencia artificial y vigilancia de alta tecnología. … Desde aviones teledirigidos que utilizan software de reconocimiento facial hasta puestos de control fronterizos y escuchas electrónicas de las comunicaciones, la vigilancia israelí de Gaza se considera ampliamente entre los esfuerzos más intensos y sofisticados que existen”. Sin embargo, nada de eso ayudó a detener a Hamás. “El error ha sido, en el las últimas dos semanas, diciendo que se trataba de un fallo de inteligencia. No lo fue, fue un fracaso político”, dijo Antony Loewenstein, periodista independiente y autor de “El Laboratorio de Palestina” que estuvo basado en Jerusalén Oriental entre 2016 y 2020. “El foco de Israel había estado en Cisjordania, creyendo que había rodeado a Gaza. Creían erróneamente que las tecnologías más sofisticadas por sí solas lograrían mantener controlada y ocupada a la población palestina”. Ésa puede ser una de las razones por las que Israel se ha mostrado reacio a discutir sus programas de IA. Otro puede ser que un argumento clave de venta de la tecnología a lo largo de los años, que la IA ayudará a elegir objetivos con mayor precisión y reducir las víctimas civiles, actualmente no parece creíble. «La afirmación de la IA se ha centrado en apuntar a las personas con más éxito», dijo Loewenstein. “Pero no ha sido un objetivo concreto en absoluto; Hay un gran número de civiles muriendo. Un tercio de las viviendas en Gaza han sido destruidas. Eso no es apuntar con precisión”. Y eso es un temor aquí: que la IA pueda usarse para acelerar o habilitar la capacidad destructiva de una nación que convulsiona de rabia, con errores potencialmente mortales en sus algoritmos que quedan oscurecidos por la niebla de la guerra.
Source link