Con Ai Chatbots, Big Tech se está moviendo rápidamente y rompiendo a la gente

No se trata de demonizar la IA o sugerir que estas herramientas son inherentemente peligrosas para todos. Millones usan asistentes de IA productivamente para codificar, escribir y hacer una lluvia de ideas sin incidentes todos los días. El problema es específico, que involucra a usuarios vulnerables, modelos de lenguaje grande sycophantic y bucles de retroalimentación dañina. Una máquina que usa el lenguaje de manera fluida, convincente e incansable es un tipo de peligro que nunca se encuentra en la historia de la humanidad. La mayoría de nosotros es probable que tengamos defensas innatas contra la manipulación: cuestionamos motivos, sentimos cuando alguien está demasiado agradable y reconocemos el engaño. Para muchas personas, estas defensas funcionan bien incluso con IA, y pueden mantener un escepticismo saludable sobre los resultados de chatbot. Pero estas defensas pueden ser menos efectivas contra un modelo de IA sin motivos para detectar, sin personalidad fija para leer, sin que biológica se indique que observe. Un LLM puede desempeñar cualquier papel, imitar cualquier personalidad y escribir cualquier ficción tan fácilmente como un hecho. A diferencia de una base de datos de computadora tradicional, un modelo de idioma AI no recupera los datos de un catálogo de «hechos» almacenados; Genera salidas de las asociaciones estadísticas entre ideas. En la tarea de completar una entrada del usuario llamada «aviso», estos modelos generan texto estadísticamente plausible basado en datos (libros, comentarios de Internet, transcripciones de YouTube) alimentados en sus redes neuronales durante un proceso de capacitación inicial y luego ajuste fino. Cuando escribe algo, el modelo responde a su aporte de una manera que completa la transcripción de una conversación de manera coherente, pero sin ninguna garantía de precisión fáctica. Además, toda la conversación se convierte en parte de lo que se alimenta repetidamente en el modelo cada vez que interactúas con él, por lo que todo lo que haces da forma a lo que sale, creando un bucle de retroalimentación que refleja y amplifica tus propias ideas. El modelo no tiene memoria verdadera de lo que usted dice entre las respuestas, y su red neuronal no almacena información sobre usted. Solo está reaccionando a un aviso cada vez mayor que se alimenta de nuevo cada vez que agrega a la conversación. Cualquier asistente de IA de «Memorias» que se mantenga sobre usted es parte de ese mensaje de entrada, alimentado al modelo por un componente de software separado.