Todo lo que necesitas saber sobre tecnología

Etiqueta: Bloomberg

Los proyectos de IA generativa fracasan debido a los altos costos y riesgos

Los proyectos de IA generativa fracasan debido a los altos costos y riesgos

A pesar de la promesa de que la inteligencia artificial transformará las industrias, el aumento de los costos y los riesgos cada vez mayores están haciendo que muchos proyectos de IA fracasen, como lo destacan varios informes recientes. Al menos el 30% de los proyectos de IA generativa se abandonarán después de la etapa de prueba de concepto para fines de 2025, según un nuevo informe de Gartner. Las empresas están «luchando por demostrar y obtener valor» en sus esfuerzos, que cuestan entre 5 y 20 millones de dólares en inversiones iniciales. Un informe independiente de Deloitte proporcionó un resultado similar. De las 2.770 empresas encuestadas, el 70% dijo que solo ha trasladado el 30% o menos de sus experimentos de GenAI a la etapa de producción. La falta de preparación y los problemas relacionados con los datos se atribuyen a esta baja tasa de éxito. Las perspectivas generales para los proyectos de IA no son optimistas. Una investigación del grupo de expertos RAND descubrió que, a pesar de que las inversiones del sector privado en IA se multiplicaron por 18 entre 2013 y 2022, más del 80% de los proyectos de IA fracasan, el doble de la tasa de fracaso en los proyectos de TI corporativos que no involucran IA. La disparidad en el respaldo financiero y la finalización es un probable contribuyente a que las «Siete Magníficas» empresas tecnológicas (NVIDIA, Meta, Alphabet, Microsoft, Amazon, Tesla y Apple) pierdan un total de 1,3 billones de dólares en acciones en cinco días el mes pasado. VER: Casi 1 de cada 10 empresas gastará más de 25 millones de dólares en iniciativas de IA en 2024, según el informe de Searce Se requieren altas inversiones iniciales en proyectos GenAI antes de que se obtengan beneficios El uso de una API GenAI (una interfaz que permite a los desarrolladores integrar modelos GenAI en sus aplicaciones) podría costar hasta 200.000 dólares por adelantado y 550 dólares adicionales por usuario al año, estima Gartner. Además, crear o ajustar un modelo personalizado puede costar entre 5 y 20 millones de dólares, más entre 8.000 y 21.000 dólares por usuario al año. La inversión media en IA de los líderes mundiales de TI fue de 879.000 dólares el año pasado, según un informe del proveedor de software de automatización ABBYY. Casi todos (el 96%) de los encuestados dijeron que aumentarían estas inversiones el próximo año, a pesar de que un tercio afirmó que les preocupan estos altos costos. Los analistas de Gartner escribieron que GenAI «requiere una mayor tolerancia a los criterios de inversión financiera indirecta y futura frente al retorno inmediato de la inversión», con lo que «muchos directores financieros no se han sentido cómodos». Pero no son solo los directores financieros los que tienen preocupaciones sobre el retorno de la inversión de los esfuerzos de IA. Los inversores de las empresas tecnológicas más grandes del mundo han expresado recientemente dudas sobre cuándo, o si, su respaldo dará sus frutos. Jim Covello, analista de acciones de Goldman Sachs, escribió en un informe de junio: «A pesar de su elevado precio, la tecnología no está ni cerca de donde necesita estar para ser útil». VER: Las nuevas empresas tecnológicas del Reino Unido sufren su primera caída desde 2022, un 11% este trimestre Además, los valores de mercado de Alphabet y Google disminuyeron en agosto, ya que sus ingresos no compensaron sus inversiones en infraestructura de IA. Más cobertura de IA de lectura obligada Otras causas del fracaso de los proyectos GenAI ¿Una de las principales razones del fracaso en el lanzamiento de proyectos GenAI empresariales? La falta de preparación. Menos de la mitad de los encuestados por Deloitte sintieron que sus organizaciones estaban muy preparadas en las áreas de infraestructura tecnológica y gestión de datos, ambos elementos básicos necesarios para ampliar los proyectos de IA a un nivel en el que se puedan obtener beneficios. El estudio de RAND también descubrió que las organizaciones a menudo no tienen la «infraestructura adecuada para gestionar sus datos e implementar modelos de IA completos». Solo alrededor de 1 de cada 5 encuestados de Deloitte indicó preparación en las áreas de «talento» y «riesgo y gobernanza», y muchas organizaciones están contratando o mejorando activamente las habilidades para roles de ética de IA como resultado. VER: El 83% de las empresas del Reino Unido aumentan los salarios para las habilidades de IA La calidad de los datos representa un obstáculo adicional para ver los proyectos GenAI hasta su finalización. El estudio de Deloitte encontró que el 55% de las empresas han evitado ciertos casos de uso de GenAI debido a problemas relacionados con los datos, como la confidencialidad de los datos o las preocupaciones sobre su privacidad y seguridad. La investigación de RAND también destacó que muchas organizaciones no tienen los datos necesarios para entrenar un modelo efectivo. A través de entrevistas con 65 científicos e ingenieros de datos, los analistas de RAND descubrieron que la causa principal del fracaso del proyecto de IA implica una falta de claridad sobre el problema que promete resolver. Las partes interesadas de la industria a menudo malinterpretan o comunican mal este problema, o eligen uno que es demasiado complicado de resolver con la tecnología. La organización también puede estar más enfocada en emplear la «última y mejor tecnología» que en resolver realmente el problema en cuestión. Otras preocupaciones que pueden contribuir al fracaso del proyecto GenAI citadas por Deloitte incluyen el riesgo inherente de la IA (alucinaciones, sesgo, preocupaciones sobre la privacidad) y mantenerse al día con las nuevas regulaciones como la Ley de IA de la UE. Las empresas se mantienen firmes en su búsqueda de nuevos proyectos GenAI A pesar de las bajas tasas de éxito, el 66% de los CIO con sede en EE. UU. están en proceso de implementar copilotos GenAI, en comparación con el 32% en diciembre, según un informe de Bloomberg. El principal caso de uso citado fueron los agentes de chatbot, como para aplicaciones de servicio al cliente. El porcentaje de encuestados que afirmó que actualmente estaban entrenando modelos base también aumentó del 26% al 40% en el mismo período. El informe de RAND proporcionó evidencia de que las empresas no estaban reduciendo sus esfuerzos en GenAI como resultado de los desafíos para lograr que avanzaran. Según una encuesta, el 58% de las corporaciones medianas ya han implementado al menos un modelo de IA en producción. Impulsando esta perseverancia continua en GenAI hay algunos impactos tangibles en el ahorro de ingresos y la productividad, según Gartner. Mientras tanto, dos tercios de las organizaciones encuestadas por Deloitte dijeron que están aumentando sus inversiones porque han visto un fuerte valor inicial. Sin embargo, la investigación de ABBYY encontró que el 63% de los líderes de TI globales están preocupados de que su empresa se quede atrás si no la usan. Incluso hay evidencia de que GenAI se está convirtiendo en una distracción. Según IBM, el 47% de los líderes tecnológicos sienten que la función de TI de su empresa es efectiva en la prestación de servicios básicos, una disminución del 22% desde 2013. Los investigadores sugieren que esto está relacionado con que están dirigiendo su atención a GenAI, ya que el 43% de los ejecutivos de tecnología dicen que ha aumentado sus preocupaciones sobre la infraestructura en los últimos seis meses. Rita Sallam, analista vicepresidenta de Gartner, dijo: «Estos datos sirven como un valioso punto de referencia para evaluar el valor comercial derivado de la innovación del modelo comercial GenAI. «Pero es importante reconocer los desafíos en la estimación de ese valor, ya que los beneficios son muy específicos de la empresa, el caso de uso, el rol y la fuerza laboral. A menudo, el impacto puede no ser evidente de inmediato y puede materializarse con el tiempo. Sin embargo, este retraso no disminuye los beneficios potenciales”.

Merchant: ¿Cómo utiliza Israel la IA militar en los ataques a Gaza?


La niebla de la guerra se ha espesado en Gaza, una invasión terrestre está cobrando fuerza y ​​los bombardeos aéreos continúan a un ritmo vertiginoso. El martes, misiles alcanzaron un campo de refugiados en Jabaliya, donde las Fuerzas de Defensa de Israel dijeron que estaba estacionado un alto líder de Hamas, matando a docenas de civiles. El debate sobre la crisis continúa en línea y fuera de ella, pero a pesar de todo el discurso, hay una pregunta pendiente que tengo. No se ha considerado ampliamente: ¿Hasta qué punto Israel depende de la inteligencia artificial y los sistemas de armas automatizados para seleccionar y atacar objetivos? Sólo en la primera semana de su ataque, la fuerza aérea israelí dijo que había lanzado 6.000 bombas en toda Gaza, un territorio que Tiene 140 millas cuadradas (una décima parte del tamaño del estado más pequeño de Rhode Island en Estados Unidos) y se encuentra entre los lugares más densamente poblados del mundo. Ha habido muchos miles de explosiones más desde entonces. Israel comanda el ejército más poderoso y de mayor tecnología de Medio Oriente. Meses antes de los horribles ataques de Hamás el 7 de octubre, las FDI anunciaron que iban a incorporar IA en operaciones letales. Como informó Bloomberg el 15 de julio, a principios de este año, las FDI habían comenzado a “usar inteligencia artificial para seleccionar objetivos para ataques aéreos y organizar la logística en tiempos de guerra”. Los funcionarios israelíes dijeron en ese momento que las FDI empleaban un sistema de recomendación de IA para elegir objetivos para ataques aéreos. bombardeo y otro modelo que luego se utilizaría para organizar rápidamente las siguientes incursiones. Las FDI llaman a este segundo sistema Fire Factory y, según Bloomberg, “utiliza datos sobre objetivos aprobados por el ejército para calcular cargas de municiones, priorizar y asignar miles de objetivos a aviones y drones, y proponer un cronograma”. A petición de comentarios, un portavoz de las FDI se negó a discutir el uso militar de la IA en el país. En un año en el que la IA ha dominado los titulares de todo el mundo, este elemento del conflicto ha sido curiosamente subexaminado. Dadas las innumerables cuestiones prácticas y éticas que siguen rodeando a esta tecnología, se debe presionar a Israel sobre cómo está implementando la IA. «Los sistemas de IA son notoriamente poco fiables y frágiles, especialmente cuando se colocan en situaciones que son diferentes de sus datos de entrenamiento», dijo Paul Scharre. , vicepresidente del Centro para una Nueva Seguridad Estadounidense y autor de “Cuatro campos de batalla: el poder en la era de la inteligencia artificial”. Scharre dijo que no estaba familiarizado con los detalles del sistema específico que las FDI podrían estar usando, pero que la IA y la automatización que ayudaron en los ciclos de selección de objetivos probablemente se usarían en escenarios como la búsqueda de personal y material de Hamas por parte de Israel en Gaza. El uso de la IA en el campo de batalla está avanzando rápidamente, dijo, pero conlleva riesgos significativos. “Cualquier IA que esté involucrada en decisiones de selección de objetivos, un riesgo importante es que acierte al objetivo equivocado”, dijo Scharre. «Podría estar causando víctimas civiles o atacando objetivos amigos y causando fratricidio». Una de las razones por las que es algo sorprendente que no hayamos visto más discusión sobre el uso de IA militar por parte de Israel es que las FDI han estado promocionando su inversión y adopción de la IA durante años. En 2017, el brazo editorial de las FDI proclamó que “las FDI ven la inteligencia artificial como la clave para la supervivencia moderna”. En 2018, las FDI se jactaron de que sus “máquinas están siendo más astutas que los humanos”. En ese artículo, la entonces directora de Sigma, la rama de las FDI dedicada a la investigación, el desarrollo y la implementación de la IA, la teniente coronel Nurit Cohen Inger, escribió que “Cada cámara, cada tanque y cada soldado produce información de forma regular. «Entendemos que hay capacidades que una máquina puede adquirir y que un hombre no puede», continuó Nurit. “Estamos introduciendo poco a poco la inteligencia artificial en todas las áreas de las FDI, desde la logística y la mano de obra hasta la inteligencia”. Las FDI llegaron incluso a llamar a su último conflicto con Hamás en Gaza, en 2021, la “primera guerra de inteligencia artificial”, con Los líderes de las FDI promocionan las ventajas que su tecnología confiere en la lucha contra Hamás. «Por primera vez, la inteligencia artificial fue un componente clave y un multiplicador de poder en la lucha contra el enemigo», dijo un alto oficial del Cuerpo de Inteligencia de las FDI al Jerusalem Post. Un comandante de la unidad de inteligencia artificial y ciencia de datos de las FDI dijo que los sistemas de inteligencia artificial habían ayudado al ejército a apuntar y eliminar a dos líderes de Hamas en 2021, según el Post. Las FDI dicen que los sistemas de IA se han integrado oficialmente en operaciones letales desde principios de este año. Dice que los sistemas permiten a los militares procesar datos y localizar objetivos más rápido y con mayor precisión, y que cada objetivo es revisado por un operador humano. Sin embargo, los académicos del derecho internacional en Israel han expresado su preocupación sobre la legalidad del uso de tales herramientas, y los analistas temen que representen un avance hacia armas más completamente autónomas y advierten que existen riesgos inherentes al entregar sistemas de objetivos a la IA. Después de todo, muchas IA Los sistemas son cada vez más cajas negras cuyos algoritmos no se comprenden bien y están ocultos a la vista del público. En un artículo sobre la adopción de la IA por parte de las FDI para el Instituto Lieber, los académicos de derecho de la Universidad Hebrea Tal Mimran y Lior Weinstein enfatizan los riesgos de depender de sistemas automatizados opacos capaces de provocar la pérdida de vidas humanas. (Cuando Mimran sirvió en las FDI, revisó los objetivos para asegurarse de que cumplieran con el derecho internacional). “Mientras las herramientas de IA no sean explicables”, escriben Mimran y Weinstein, “en el sentido de que no podemos entender completamente por qué alcanzaron un cierto En conclusión, ¿cómo podemos justificarnos a nosotros mismos si debemos confiar en la decisión de la IA cuando hay vidas humanas en juego? Continúan: “Si uno de los ataques producidos por la herramienta de IA causa un daño significativo a civiles no involucrados, ¿quién debería asumir la responsabilidad de la decisión?” Una vez más, las FDI no me explicaron exactamente cómo están utilizando la IA, y el funcionario le dijo a Bloomberg que un humano revisó la salida del sistema, pero que solo tomó unos minutos hacerlo. (“Lo que antes tomaba horas ahora toma minutos, con unos minutos más para la revisión humana”, dijo el jefe de transformación digital del ejército). Hay una serie de preocupaciones aquí, dado lo que sabemos sobre el estado actual de la técnica. de los sistemas de IA, y es por eso que vale la pena presionar a las FDI para que revelen más sobre cómo los utilizan actualmente. Por un lado, los sistemas de IA permanecen codificados con sesgos y, si bien a menudo son buenos para analizar grandes cantidades de datos, rutinariamente producen resultados propensos a errores cuando se les pide que extrapolen a partir de esos datos. “Una diferencia realmente fundamental entre la IA y un analista humano al que se le asigna exactamente la misma tarea”, dijo Scharre, “es que los humanos hacen un muy buen trabajo al generalizar a partir de un pequeño número de ejemplos a situaciones novedosas, y los sistemas de inteligencia artificial tienen muchas dificultades para generalizarse a situaciones novedosas”. Un ejemplo: incluso se ha demostrado una y otra vez que incluso la tecnología de reconocimiento facial supuestamente de vanguardia, como la utilizada por los departamentos de policía estadounidenses, es menos precisa a la hora de identificar a las personas. de color, lo que resulta en que los sistemas señalen a ciudadanos inocentes y lleven a arrestos injustos. Además, cualquier sistema de inteligencia artificial que busque automatizar (y acelerar) la selección de objetivos aumenta la posibilidad de que los errores cometidos en el proceso sean más difíciles de discernir. Y si los militares mantienen en secreto el funcionamiento de sus sistemas de inteligencia artificial, no hay manera de evaluar el tipo de errores que están cometiendo. «Creo que los militares deberían ser más transparentes en la forma en que evalúan o abordan la IA», dijo Scharre. “Una de las cosas que hemos visto en los últimos años en Libia o Ucrania es una zona gris. Habrá acusaciones de que se está utilizando IA, pero los algoritmos o los datos de entrenamiento son difíciles de descubrir, y eso hace que sea muy difícil evaluar lo que están haciendo los militares”. Incluso con esos errores incorporados en el código de eliminación, la IA podría, mientras tanto, prestar un barniz de credibilidad a objetivos que de otro modo no serían aceptables para los operadores de base. Finalmente, los sistemas de IA pueden crear una falsa sensación de confianza, que tal vez fue evidente en cómo, a pesar de tener el mejor sistema de inteligencia artificial de su clase, Con el sistema de vigilancia vigente en Gaza, Israel no detectó la planificación de la brutal y altamente coordinada masacre del 7 de octubre. Como señaló Peter Apps de Reuters: “El 27 de septiembre, apenas una semana antes de que los combatientes de Hamás lanzaran el mayor ataque sorpresa contra Israel desde la guerra de Yom Kippur de 1973, los funcionarios israelíes tomaron la presidencia del comité militar de la OTAN en la frontera de Gaza para demostrar su uso de inteligencia artificial y vigilancia de alta tecnología. … Desde aviones teledirigidos que utilizan software de reconocimiento facial hasta puestos de control fronterizos y escuchas electrónicas de las comunicaciones, la vigilancia israelí de Gaza se considera ampliamente entre los esfuerzos más intensos y sofisticados que existen”. Sin embargo, nada de eso ayudó a detener a Hamás. “El error ha sido, en el las últimas dos semanas, diciendo que se trataba de un fallo de inteligencia. No lo fue, fue un fracaso político”, dijo Antony Loewenstein, periodista independiente y autor de “El Laboratorio de Palestina” que estuvo basado en Jerusalén Oriental entre 2016 y 2020. “El foco de Israel había estado en Cisjordania, creyendo que había rodeado a Gaza. Creían erróneamente que las tecnologías más sofisticadas por sí solas lograrían mantener controlada y ocupada a la población palestina”. Ésa puede ser una de las razones por las que Israel se ha mostrado reacio a discutir sus programas de IA. Otro puede ser que un argumento clave de venta de la tecnología a lo largo de los años, que la IA ayudará a elegir objetivos con mayor precisión y reducir las víctimas civiles, actualmente no parece creíble. «La afirmación de la IA se ha centrado en apuntar a las personas con más éxito», dijo Loewenstein. “Pero no ha sido un objetivo concreto en absoluto; Hay un gran número de civiles muriendo. Un tercio de las viviendas en Gaza han sido destruidas. Eso no es apuntar con precisión”. Y eso es un temor aquí: que la IA pueda usarse para acelerar o habilitar la capacidad destructiva de una nación que convulsiona de rabia, con errores potencialmente mortales en sus algoritmos que quedan oscurecidos por la niebla de la guerra.

Source link

Funciona con WordPress & Tema de Anders Norén