Es casi seguro que su proyecto genAI fracasará. Pero no se desanime: de todos modos, probablemente no debería haber utilizado la IA para resolver su problema empresarial. Esto parece ser un hecho aceptado entre el sector de la ciencia de datos, pero esa sabiduría ha tardado en llegar a los ejecutivos empresariales. Por ejemplo, el científico de datos Noah Lorang sugirió una vez: “Existe un subconjunto muy pequeño de problemas empresariales que se resuelven mejor mediante el aprendizaje automático; la mayoría de ellos sólo necesitan buenos datos y una comprensión de lo que significan”, sin embargo, el 87% de los encuestados por Bain & Company dijeron que están desarrollando aplicaciones genAI. Para algunos, ese es exactamente el enfoque correcto. Para muchos otros, no lo es. Nos hemos adelantado tanto con la genAI que nos estamos preparando para el fracaso. Ese fracaso proviene de una variedad de fuentes, incluida la gobernanza de datos o problemas de calidad de los datos, pero el problema principal en este momento son las expectativas. La gente incursiona en ChatGPT durante una tarde y espera que pueda resolver sus problemas con la cadena de suministro o sus preguntas de atención al cliente. No lo hará. Pero la IA no es el problema, lo somos nosotros.“Las expectativas se basan exclusivamente en las vibraciones”Shreya Shankar, ingeniera de aprendizaje automático en Viaduct, sostiene que una de las bendiciones y maldiciones de la genAI es que aparentemente elimina la necesidad de preparación de datos, que ha sido durante mucho tiempo uno de los aspectos más difíciles del aprendizaje automático. «Debido a que se ha puesto tan poco esfuerzo en la preparación de datos, es muy fácil quedar gratamente sorprendido por los resultados iniciales», dice, lo que luego «impulsa la siguiente etapa de experimentación, también conocida como ingeniería rápida». El trabajo duro y sucio de preparación de datos, con todas las pruebas y el reentrenamiento para lograr que un modelo produzca resultados incluso remotamente útiles, la gente está saltando directamente al postre, por así decirlo. Esto, a su vez, conduce a expectativas poco realistas: “La IA generacional y los LLM son un poco más interesantes porque la mayoría de las personas no tienen ningún tipo de evaluación sistemática antes de realizar el envío (¿por qué se verían obligados a hacerlo, si no recopilaran información?). ¿un conjunto de datos de entrenamiento?), por lo que sus expectativas se establecen exclusivamente en función de las vibraciones”, dice Shankar. Resulta que las vibraciones no son un buen conjunto de datos para aplicaciones exitosas de IA. La verdadera clave para el éxito del aprendizaje automático es algo que en gran medida falta en genAI: el ajuste constante del modelo. «En ingeniería de aprendizaje automático e inteligencia artificial», escribe Shankar, «los equipos a menudo esperan una precisión o alineación demasiado alta con sus expectativas de una aplicación de inteligencia artificial inmediatamente después de su lanzamiento y, a menudo, no construyen la infraestructura para inspeccionar datos continuamente, incorporar nuevas pruebas». y mejorar el sistema de un extremo a otro”. En otras palabras, es todo el trabajo que ocurre antes y después de la indicación lo que genera éxito. Para las aplicaciones genAI, en parte debido a lo rápido que es comenzar, gran parte de esta disciplina se pierde. Las cosas también se complican más con genAI porque no hay coherencia entre el aviso y la respuesta. Me encanta la forma en que lo expresa Amol Ajgaonkar, CTO de innovación de productos en Insight. A veces pensamos que nuestras indicaciones a ChatGPT o un sistema similar son como tener una conversación madura con un adulto. No lo es, dice, sino más bien: “Es como darles instrucciones a mis hijos adolescentes. A veces hay que repetirlo para que se mantenga”. Para hacerlo más complicado, “a veces la IA escucha y otras veces no sigue las instrucciones. Es casi como un idioma diferente”. Aprender a conversar con sistemas genAI es tanto un arte como una ciencia y requiere una experiencia considerable para hacerlo bien. Desafortunadamente, muchos ganan demasiada confianza con sus experimentos casuales con ChatGPT y establecen expectativas mucho más altas de las que las herramientas pueden ofrecer, lo que lleva a un fracaso decepcionante. Deja a un lado el juguete nuevo y brillante. Muchos están corriendo hacia la genAI sin considerar primero si existen formas mejores y más simples de lograr sus objetivos. Santiago Valdarrama, fundador de Tideily, recomienda que la mayoría comience con el aprendizaje automático (o genAI), pero el primer paso suele ser una heurística o reglas simples. Ofrece dos ventajas a este enfoque: “Primero, aprenderá mucho más sobre el problema que necesita resolver. En segundo lugar, tendrá una base para comparar con cualquier solución futura de aprendizaje automático”. Al igual que con el desarrollo de software, donde el trabajo más difícil no es codificar sino descubrir qué código escribir, lo más difícil en la IA es descubrir cómo o si aplicar IA. Cuando las reglas simples deben ceder el paso a reglas más complicadas, Valdarrama sugiere cambiar a un modelo simple. Nótese el continuo énfasis en “simple”. Como él dice, “la simplicidad siempre gana” y debería dictar las decisiones hasta que sean absolutamente necesarios modelos más complicados. Así que volvamos a la genAI. Sí, podría ser lo que su empresa necesita para ofrecer valor al cliente en un escenario determinado. Tal vez. Es más probable que un análisis sólido y enfoques basados ​​en reglas den los resultados deseados. Para aquellos que están decididos a utilizar lo nuevo y brillante, bueno, incluso entonces es mejor comenzar de a poco y de manera simple y aprender a usar genAI con éxito. Copyright © 2024 IDG Communications, Inc.