«La ventana de contexto multimillonario de Nvidia es un hito de ingeniería impresionante, pero para la mayoría de las empresas, es una solución en busca de un problema», dijo Wyatt Mayham, CEO y cofundador de Northwest AI Consulting. «Sí, aborda una limitación real en modelos existentes como el razonamiento de contexto largo y la escala cuadrática, pero hay una brecha entre lo que es técnicamente posible y lo que realmente es útil». El paralelismo de Helix ayuda a solucionar el gran problema de memoria de LLMS modelos de lenguaje grande (LLMS) todavía luchan por mantenerse enfocado en contextos ultra largo, señalan los expertos. «Durante mucho tiempo, los LLM fueron cuellos de botella por ventanas de contexto limitadas, lo que las obligó a» olvidar «la información anterior en tareas o conversaciones largas», dijo Justin St-Maurice, consejero técnico de Info-Tech Research Group.
Deja una respuesta