Los desarrolladores bromean sobre «codificación como cavernos», ya que el servicio de IA sufre una interrupción importante

La creciente dependencia de las herramientas de codificación de IA, la velocidad a la que se extiende las noticias de la interrupción de la interrupción, muestra cómo los asistentes de codificación de IA profundamente integrados ya se han convertido en el desarrollo moderno de software. Claude Code, anunciado en febrero y ampliamente lanzado en mayo, se encuentra el agente de codificación basado en terminal de Anthrope que puede realizar tareas de codificación de varios pasos en una base de código existente. La herramienta compite con la función Codex de OpenAI, un agente de codificación que genera código listo para la producción en contenedores aislados, Gemini CLI de Google, el copiloto GitHub de Microsoft, que en sí mismo en sí mismo puede usar modelos Claude para código y cursor, un popular IDE con alimentación de IA construido en el código VS que también integra múltiples modelos AI, incluido Claude. Durante la interrupción de hoy, algunos desarrolladores recurrieron a soluciones alternativas. «Z.Ai funciona bien. Qwen funciona bien. Me alegro de haber cambiado», publicó un usuario en Hacker News. Otros bromearon sobre volver a métodos más antiguos, y uno sugirió que la «experiencia pseudo-llm» podría lograrse con un paquete de Python que importa código directamente desde el desbordamiento de la pila. Si bien los asistentes de codificación de IA han acelerado el desarrollo para algunos usuarios, también han causado problemas a otros que confían demasiado en ellos. La práctica emergente de la llamada «codificación de ambientes», que usa el lenguaje natural para generar y ejecutar el código a través de modelos de IA sin comprender completamente las operaciones subyacentes, ha llevado a fallas catastróficas. En incidentes recientes, Gemini CLI de Google destruyó los archivos de usuario al intentar reorganizarlos, y el servicio de codificación AI de Replic eliminó una base de datos de producción a pesar de las instrucciones explícitas de no modificar el código. Estas fallas ocurrieron cuando los modelos de IA confabularon las operaciones exitosas y construyeron acciones posteriores en premisas falsas, destacando los riesgos de depender de los asistentes de IA que puedan malinterpretar las estructuras de archivos o fabricar datos para ocultar sus errores. La interrupción del miércoles sirvió como un recordatorio de que a medida que crece la dependencia de la IA, incluso las interrupciones menores del servicio pueden convertirse en eventos importantes que afectan a toda una profesión. Pero tal vez eso podría ser algo bueno si es una excusa para tomar un descanso de una carga de trabajo estresante. Como bromeó un comentarista, podría ser «hora de salir y tocar un poco de hierba nuevamente».