Los modelos de lenguaje grande (LLM) tienen un grave problema de “alucinación de paquetes” que podría conducir a una ola de paquetes codificados maliciosamente en la cadena de suministro, según descubrieron los investigadores en uno de los estudios más grandes y profundos jamás realizados para investigar el problema. De hecho, es tan malo que en 30 pruebas diferentes, los investigadores encontraron que 440.445 (19,7%) de 2,23 millones de muestras de código generaron experimentalmente en dos de los lenguajes de programación más populares, Python y JavaScript, utilizando 16 modelos LLM diferentes para Python. y 14 modelos para JavaScript, contenían referencias a paquetes que eran alucinados. El estudio multiuniversitario, publicado por primera vez en junio pero actualizado recientemente, también generó “la asombrosa cifra de 205.474 ejemplos únicos de nombres de paquetes alucinados, lo que subraya aún más la gravedad y omnipresencia de esta amenaza”.