Únase a nuestros boletines diarios y semanales para recibir las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información Durante los últimos 18 meses, he observado la creciente conversación en torno a los grandes modelos de lenguaje (LLM) y la IA generativa. La exageración y las conjeturas hiperbólicas sobre el futuro han crecido, tal vez incluso han llegado a burbujear, y han ensombrecido las aplicaciones prácticas de las herramientas de IA actuales. La exageración subraya las profundas limitaciones de la IA en este momento, al tiempo que socava la forma en que se pueden implementar estas herramientas para obtener resultados productivos. Todavía estamos en la fase infantil de la IA, donde las herramientas de IA populares como ChatGPT son divertidas y algo útiles, pero no se puede confiar en que hagan todo el trabajo. Sus respuestas son inseparables de las imprecisiones y los sesgos de los humanos que las crearon y las fuentes en las que se entrenaron, por más dudosas que hayan sido. Las «alucinaciones» se parecen mucho más a proyecciones de nuestra propia psique que a una inteligencia legítima y naciente. Además, existen problemas reales y tangibles, como el explosivo consumo de energía de la IA, que corre el riesgo de acelerar una crisis climática existencial. Un informe reciente concluyó que la visión general de la IA de Google, por ejemplo, debe crear información completamente nueva en respuesta a una búsqueda, lo que cuesta aproximadamente 30 veces más energía que extraerla directamente de una fuente. Una sola interacción con ChatGPT requiere la misma cantidad de electricidad que una bombilla de 60 W durante tres minutos. ¿Quién está alucinando? Un colega mío, sin una pizca de ironía, afirmó que debido a la IA, la educación secundaria quedaría obsoleta en cinco años y que en 2029 viviríamos en un paraíso igualitario, libres de trabajos serviles. Esta predicción, inspirada en el pronóstico de Ray Kurzweil sobre la “singularidad de la IA”, sugiere un futuro repleto de promesas utópicas. Acepto esa apuesta. Se necesitarán mucho más de cinco años —o incluso 25— para pasar de las “alucinaciones” y los comportamientos inesperados de ChatGPT-4o a un mundo en el que ya no necesite cargar mi lavavajillas. Hay tres problemas intratables e irresolubles con la IA general. Si alguien te dice que estos problemas se resolverán algún día, debes entender que no tienen idea de lo que están hablando, o que están vendiendo algo que no existe. Viven en un mundo de pura esperanza y fe en las mismas personas que nos trajeron la exageración de que las criptomonedas y Bitcoin reemplazarán a todos los bancos, los autos se conducirán solos dentro de cinco años y el metaverso reemplazará la realidad para la mayoría de los humanos. Están tratando de captar tu atención y compromiso ahora mismo para poder quedarse con tu dinero más tarde, después de que estés enganchado y hayan subido el precio y antes de que el piso toque fondo. Tres realidades irresolubles Alucinaciones No hay suficiente poder de cómputo ni suficientes datos de entrenamiento en el planeta para resolver el problema de las alucinaciones. La IA general puede producir resultados que son factualmente incorrectos o sin sentido, lo que la hace poco confiable para tareas críticas que requieren alta precisión. Según el director ejecutivo de Google, Sundar Pichai, las alucinaciones son una «característica inherente» de la IA general. Esto significa que los desarrolladores de modelos solo pueden esperar mitigar el daño potencial de las alucinaciones, no podemos eliminarlas. Resultados no deterministas La IA general es inherentemente no determinista. Es un motor probabilístico basado en miles de millones de tokens, con resultados formados y reformados a través de cálculos y porcentajes en tiempo real. Esta naturaleza no determinista significa que las respuestas de la IA pueden variar ampliamente, lo que plantea desafíos para campos como el desarrollo de software, las pruebas, el análisis científico o cualquier campo donde la consistencia sea crucial. Por ejemplo, aprovechar la IA para determinar la mejor manera de probar una aplicación móvil para una característica específica probablemente producirá una buena respuesta. Sin embargo, no hay garantía de que proporcione los mismos resultados incluso si ingresa la misma solicitud nuevamente, lo que crea una variabilidad problemática. Subsidios de tokens Los tokens son una pieza poco comprendida del rompecabezas de la IA. En resumen: cada vez que solicitas una LLM, tu consulta se divide en “tokens”, que son las semillas de la respuesta que recibes (también formada por tokens) y te cobran una fracción de centavo por cada token tanto en la solicitud como en la respuesta. Una parte significativa de los cientos de miles de millones de dólares invertidos en el ecosistema de IA gen se destina directamente a mantener bajos estos costos, para proliferar la adopción. Por ejemplo, ChatGPT genera alrededor de $400,000 en ingresos cada día, pero el costo de operar el sistema requiere un subsidio de inversión adicional de $700,000 para mantenerlo en funcionamiento. En economía, esto se llama “precio de oferta de pérdida” (loss lead pricing). ¿Recuerdas lo barato que era Uber en 2008? ¿Has notado que tan pronto como se volvió ampliamente disponible ahora es tan caro como un taxi? Aplica el mismo principio a la carrera de IA entre Google, OpenAI, Microsoft y Elon Musk, y tú y yo podemos comenzar a temer cuando decidan que quieren comenzar a obtener ganancias. Qué está funcionando Recientemente escribí un script para extraer datos de nuestra canalización CI/CD y subirlos a un lago de datos. Con la ayuda de ChatGPT, lo que hubiera llevado a mis oxidadas habilidades en Python de ocho a diez horas terminó tomando menos de dos: ¡un aumento del 80% en la productividad! Mientras no requiera que las respuestas sean las mismas cada vez, y mientras verifique dos veces su salida, ChatGPT es un socio de confianza en mi trabajo diario. Gen AI es extremadamente bueno para ayudarme a generar ideas, darme un tutorial o un impulso para aprender un tema ultra específico y producir el primer borrador de un correo electrónico difícil. Probablemente mejorará marginalmente en todas estas cosas y actuará como una extensión de mis capacidades en los próximos años. Eso es suficiente para mí y justifica gran parte del trabajo que se ha invertido en producir el modelo. Conclusión Si bien gen AI puede ayudar con una cantidad limitada de tareas, no amerita una reevaluación multimillonaria de la naturaleza de la humanidad. Las empresas que han aprovechado mejor la IA son las que se ocupan naturalmente de las zonas grises: piense en Grammarly o JetBrains. Estos productos han sido extremadamente útiles porque operan en un mundo en el que alguien verificará naturalmente las respuestas, o donde naturalmente hay múltiples caminos hacia la solución. Creo que ya hemos invertido mucho más en LLM (en términos de tiempo, dinero, esfuerzo humano, energía y anticipación sin aliento) de lo que jamás veremos a cambio. Es culpa de la economía podrida y la mentalidad de crecimiento a toda costa que no podamos simplemente mantener la IA general en su lugar como una herramienta bastante brillante para aumentar nuestra productividad en un 30%. En un mundo justo, eso sería más que suficiente para construir un mercado en torno a eso. Marcus Merrell es asesor técnico principal en Sauce Labs. DataDecisionMakers ¡Bienvenido a la comunidad VentureBeat! DataDecisionMakers es donde los expertos, incluidos los técnicos que realizan trabajo de datos, pueden compartir conocimientos e innovación relacionados con los datos. Si desea leer sobre ideas de vanguardia e información actualizada, mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers. ¡Incluso podría considerar contribuir con un artículo propio! Leer más de DataDecisionMakers