Es casi seguro que su proyecto de IA generativa fracasará, pero no se desanime: de todos modos, probablemente no debería haber estado usando IA para resolver su problema empresarial. Este parece ser un hecho aceptado entre los científicos de datos, pero esa sabiduría ha tardado en llegar a los ejecutivos de las empresas. Por ejemplo, el científico de datos Noah Lorang sugirió una vez: «Hay un subconjunto muy pequeño de problemas empresariales que se resuelven mejor mediante el aprendizaje automático; la mayoría de ellos solo necesitan buenos datos y una comprensión de lo que significan». Y, sin embargo, el 87% de las empresas encuestadas por Bain & Company dijeron que están desarrollando aplicaciones de IA generativa. Para algunas, ese es el enfoque exactamente correcto. Para muchas otras, no lo es. Nos hemos adelantado tanto colectivamente con la IA generativa que nos estamos preparando para el fracaso. Ese fracaso proviene de una variedad de fuentes, incluidos problemas de gobernanza o calidad de datos, pero el problema principal en este momento son las expectativas. La gente se mete con ChatGPT durante una tarde y espera que pueda resolver sus problemas de cadena de suministro o preguntas de atención al cliente. No lo hará. Pero la IA no es el problema, somos nosotros. «Las expectativas se establecen basándose únicamente en las vibraciones» Shreya Shankar, ingeniera de aprendizaje automático en Viaduct, sostiene que una de las bendiciones y maldiciones de genAI es que aparentemente elimina la necesidad de preparación de datos, que durante mucho tiempo ha sido uno de los aspectos más difíciles del aprendizaje automático. «Debido a que has puesto tan poco esfuerzo en la preparación de datos, es muy fácil llevarse una grata sorpresa con los resultados iniciales», dice, lo que luego «impulsa la siguiente etapa de experimentación, también conocida como ingeniería rápida». En lugar de hacer el trabajo duro y sucio de la preparación de datos, con todas las pruebas y el reentrenamiento para lograr que un modelo produzca resultados remotamente útiles, la gente está saltando directamente al postre, por así decirlo. Esto, a su vez, genera expectativas poco realistas: “La IA generativa y los LLM son un poco más interesantes en el sentido de que la mayoría de las personas no tienen ningún tipo de evaluación sistemática antes de enviar (¿por qué se verían obligados a hacerlo, si no recopilaran un conjunto de datos de entrenamiento?), por lo que sus expectativas se establecen basándose puramente en vibraciones”, dice Shankar. Las vibraciones, como se ve, no son un buen conjunto de datos para aplicaciones de IA exitosas. La verdadera clave para el éxito del aprendizaje automático es algo que en su mayoría falta en la IA generativa: el ajuste constante del modelo. “En la ingeniería de ML e IA”, escribe Shankar, “los equipos a menudo esperan una precisión o alineación demasiado alta con sus expectativas de una aplicación de IA justo después de su lanzamiento, y a menudo no construyen la infraestructura para inspeccionar continuamente los datos, incorporar nuevas pruebas y mejorar el sistema de extremo a extremo”. Es todo el trabajo que se realiza antes y después del aviso, en otras palabras, lo que genera éxito. En el caso de las aplicaciones de IA generativa, en parte debido a la rapidez con la que se ponen en marcha, se pierde gran parte de esta disciplina. Las cosas también se complican con la IA generativa porque no hay coherencia entre la indicación y la respuesta. Me encanta la forma en que lo expresó Amol Ajgaonkar, director de tecnología de innovación de productos en Insight. A veces pensamos que nuestras interacciones con los LLM son como tener una conversación madura con un adulto. No es así, dice, sino que, más bien, «es como darles instrucciones a mis hijos adolescentes. A veces tienes que repetirte para que se queden». Para hacerlo más complicado, «a veces la IA escucha y otras veces no sigue las instrucciones. Es casi como un idioma diferente». Aprender a conversar con sistemas de IA generativa es tanto un arte como una ciencia y requiere una experiencia considerable para hacerlo bien. Desafortunadamente, muchos se confían demasiado de sus experimentos casuales con ChatGPT y establecen expectativas mucho más altas de las que las herramientas pueden ofrecer, lo que lleva a un fracaso decepcionante. Deje el juguete nuevo y brillante Muchos se están lanzando a la IA generativa sin considerar primero si existen formas más simples y mejores de lograr sus objetivos. Santiago Valdarrama, fundador de Tideily, recomienda comenzar con heurísticas simples o reglas. Ofrece dos ventajas de este enfoque: «Primero, aprenderá mucho más sobre el problema que necesita resolver. Segundo, tendrá una línea de base para comparar con cualquier solución futura de aprendizaje automático». Al igual que con el desarrollo de software, donde el trabajo más difícil no es codificar sino más bien averiguar qué código escribir, lo más difícil en IA es averiguar cómo o si aplicar IA. Cuando las reglas simples deben dar paso a reglas más complicadas, Valdarrama sugiere cambiar a un modelo simple. Nótese el énfasis continuo en «simple». Como dice, «la simplicidad siempre gana» y debería dictar las decisiones hasta que sean absolutamente necesarios modelos más complicados. Entonces, volvamos a la IA generativa. Sí, la IA generativa puede ser lo que su empresa necesita para ofrecer valor al cliente en un escenario determinado. Tal vez. Es más probable que un análisis sólido y enfoques basados ​​en reglas den los resultados deseados. Para aquellos que están decididos a utilizar la nueva tecnología, bueno, incluso en ese caso es mejor empezar de a poco y de forma sencilla y aprender a utilizar la IA generativa con éxito. Copyright © 2024 IDG Communications, Inc.