Bueno, eso no tomó mucho tiempo. Después de todos los comentarios del tipo «esta vez es diferente» sobre la inteligencia artificial (¡Te vemos, John Chambers!), las empresas están aceptando la realidad. La IA no te quitará el trabajo. No escribirá tu código. No escribirá todo tu texto de marketing (no a menos que estés preparado para volver a contratar a los humanos para que lo arreglen). Y, no, no está ni cerca de ser una inteligencia artificial general (AGI) y no lo estará en un futuro cercano. Posiblemente nunca. Así es: hemos entrado en el punto más bajo de la desilusión de la IA, cuando colectivamente dejamos de creer que la singularidad está a la vuelta de la esquina y comenzamos a encontrar formas en que la IA aumente, en lugar de reemplazar, a los humanos. Para aquellos nuevos en la industria, y por lo tanto nuevos en nuestra tendencia colectiva a exagerar prácticamente todo (blockchain, web3 (¿recuerdas eso?), sin servidor), esto no es motivo de alarma. La IA tendrá su lugar; Simplemente no estará en todas partes. Tantas esperanzas tontasLa IA, ya sea IA generativa, aprendizaje automático, aprendizaje profundo o como se le quiera llamar, nunca iba a poder sostener las inmensas expectativas que le hemos impuesto. Sospecho que parte de la razón por la que la hemos dejado funcionar hasta ahora durante tanto tiempo es que parecía que estaba más allá de nuestra capacidad de comprensión. Era esta cosa mágica, algoritmos de caja negra que ingieren indicaciones y crean imágenes o textos increíblemente realistas que suenan reflexivos e inteligentes. ¿Y por qué no? Los principales modelos de lenguaje grandes (LLM) han sido entrenados con miles de millones de ejemplos de otras personas que son reflexivas e inteligentes, y herramientas como ChatGPT imitan lo que han «aprendido». El problema, sin embargo, es que los LLM en realidad no aprenden nada. No pueden razonar. Son excelentes para la coincidencia de patrones, pero no para extrapolar datos de entrenamiento pasados ​​a problemas futuros, como descubrió un estudio reciente del IEEE. El desarrollo de software ha sido uno de los puntos más brillantes para las herramientas de genAI, pero tal vez no en la medida que esperábamos. Por ejemplo, GPT-3.5 carecía de datos de entrenamiento después de 2021. Como tal, tuvo dificultades con problemas de codificación fáciles en LeetCode que requerían información que salió después de 2021. El estudio descubrió que su tasa de éxito para problemas fáciles se desplomó del 89% al 52% y su capacidad para crear código para problemas de codificación difícil se desplomó del 40% al 0,66%. Según Michelle Hampson, el hallazgo muestra que ChatGPT «carece de las habilidades de pensamiento crítico de un humano y solo puede abordar problemas que ya ha encontrado anteriormente». Tim Klapdor afirma con menos gracia: «ChatGPT no aprendió el tema, no investigó, no realizó ninguna validación y no aportó pensamientos, ideas o conceptos novedosos. ChatGPT simplemente colonizó todos esos datos… y ahora puede copiar y pegar esa información para usted de manera oportuna porque está gastando $US 700K al día en computación». Ay. Esto no significa que genAI sea inútil para el desarrollo de software u otras áreas, pero sí significa que tenemos que reajustar nuestras expectativas y nuestro enfoque. Todavía no hemos aprendido. Esta decepción no es solo una cuestión de IA. Pasamos por este proceso de expectativas infladas y desilusión con prácticamente todas las nuevas y brillantes tecnologías. Incluso algo tan establecido como la nube sigue siendo discutido. Mi colega de InfoWorld, David Linthicum, recientemente criticó la computación en la nube, argumentando que «las ganancias de productividad y los ahorros de costos previstos no se han materializado, en su mayor parte». Creo que está exagerando, pero es difícil criticarlo, dado lo mucho que nosotros (incluido yo) vendimos la nube como la solución para prácticamente todos los problemas de TI. Linthicum también ha criticado la tecnología sin servidor. «La tecnología sin servidor seguirá desapareciendo en un segundo plano debido al auge de otros paradigmas de computación en la nube, como la computación de borde y las micronubes», dice. ¿Por qué? Porque estas “introdujeron soluciones más matizadas al mercado con enfoques personalizados que atienden necesidades comerciales específicas en lugar de la computación sin servidor de talla única”. Una vez sugerí que la computación sin servidor podría desplazar a Kubernetes y los contenedores. Estaba equivocado. El enfoque más medido de Linthicum parece correcto porque sigue lo que siempre parece suceder con las grandes tendencias nuevas: no se desploman por completo, simplemente dejan de pretender resolver todos nuestros problemas y, en cambio, se adoptan para aplicaciones modestas pero aún importantes. Hacia ahí nos dirigimos con la IA. Ya estoy viendo que las empresas fracasan cuando tratan a genAI como la respuesta a todo, pero están teniendo éxito al usar genAI como una solución complementaria para algunas cosas. No es momento de deshacerse de la IA. Lejos de eso. Más bien, es momento de reflexionar sobre cómo y dónde usarla. Entonces, como tantas tendencias anteriores (código abierto, nube, dispositivos móviles, etc., etc.), se convertirá en un complemento fundamental para nuestra forma de trabajar, en lugar de ser la única forma en que trabajamos. Derechos de autor © 2024 IDG Communications, Inc.