Daniel Stenberg, fundador y desarrollador principal de la utilidad de la línea de comandos de curl de código abierto, solo quiere que la AI Slop se detenga. Stenberg y un puñado de otros mantenedores de rizos han sido abrumados por los informes falsos de errores creados por las personas que utilizan herramientas de IA generativas. Él y otros se han referido al contenido de IA generativo no deseado como «SLOP AI» y se ha quejado del problema que posa para los mantenedores desde enero de 2024. El problema ha empeorado en el último año y medio, compuesto por «Slop humano», presentaciones de baja calidad donde no es obvio si la sumisión proviene de una persona o un modelo de IA. La tendencia general hasta ahora en 2025 ha sido mucho más descuidada que nunca antes de «la tendencia general hasta ahora en 2025 ha sido mucho más pendiente de IA que nunca (aproximadamente el 20 por ciento de todas las presentaciones), ya que hemos promediado sobre dos presentaciones de informes de seguridad por semana», escribió en una publicación en el blog el lunes. «A principios de julio, alrededor del 5 por ciento de las presentaciones en 2025 habían resultado ser vulnerabilidades genuinas. La tasa válida ha disminuido significativamente en comparación con años anteriores». Acurrucarse y morir? La situación ha llevado a Stenberg a reevaluar si continuar con el programa de recompensa de errores de Curl, que según él ha pagado más de $ 90,000 por 81 premios desde su inicio en 2019. Dijo que espera pasar el resto del año reflexionando por las posibles respuestas a la creciente marea de AI. Actualmente, el programa de recompensa de errores de curl, subcontratado a Hackerone, requiere que el reportero de errores revele el uso de IA generativa. No prohíbe por completo las presentaciones asistidas por AI-AI, sino que las desalienta. «Debe verificar y verificar dos veces todos los hechos y reclamar cualquier IA que le dijera antes de transmitirnos tales informes», explica la política del programa. «Normalmente estás mucho mejor evitando la IA». Dos envíos de errores por semana en promedio pueden no parecer mucho, pero el equipo de seguridad de Curl consta de solo siete miembros. Como explica Stenberg, tres o cuatro revisores revisan cada envío, un proceso que toma de 30 minutos a tres horas. «Personalmente paso una cantidad loca de tiempo en Curl ya, perder tres horas todavía deja tiempo para otras cosas», lamentó Stenberg. «Sin embargo, mis compañeros no son a tiempo completo en Curl. Es posible que solo tengan tres horas por semana para Curl. Sin mencionar el peaje emocional que se necesita para lidiar con estas estúpidas que amontonan la mente». Stenberg señaló que la semana pasada el volumen de informes de AI-SLOP aumentó a ocho veces la tarifa habitual. Ahora ha compilado una lista de malos informes de recompensa de errores. En el momento en que se presentó esta historia, la lista contenía 22 informes de errores de SLOP. En diciembre pasado, Seth Larson, desarrollador de seguridad en residencia de la Python Software Foundation, publicó un Cri de Coeur similar sobre los informes de seguridad de SLOP contaminando el ecosistema de Python. Y en mayo de 2025, Benjamin Piouffle, un ingeniero de software de Open Collective, dijo en un Mastodon Post que Open Collective enfrenta un problema similar «inundado con basura de IA». «En última instancia, es posible que necesitemos migrar a una plataforma como Hackerone y restringir las presentaciones a los investigadores verificados (actualmente manejamos todo manualmente)», escribió Piouffle. «Todo esto eventualmente dificultará que los investigadores junior ingresen a la industria». Stenberg dice que no está claro qué debe hacer Hackerone para reducir el uso imprudente de la IA, pero insiste en que se debe hacer algo. Su publicación se refiere a una tarifa para presentar un informe o abandonar el premio Bug Bounty, al tiempo que expresa reservas sobre ambos recursos potenciales. «Como muchos de estos reporteros parecen pensar realmente que ayudan, aparentemente engañados descaradamente por el marketing de las máquinas de exageración de IA, no es seguro que eliminar el dinero de la mesa detenga por completo la inundación», concluye. ®
Deja una respuesta