Hackear ChatGPT colocando recuerdos falsos en sus datos Esta vulnerabilidad piratea una característica que permite a ChatGPT tener memoria a largo plazo, donde utiliza información de conversaciones pasadas para informar conversaciones futuras con ese mismo usuario. Un investigador descubrió que podía utilizar esa característica para plantar «recuerdos falsos» en esa ventana contextual que podría subvertir el modelo. Un mes después, el investigador presentó una nueva declaración de divulgación. Esta vez, incluyó una prueba de concepto que provocó que la aplicación ChatGPT para macOS enviara una copia literal de todas las entradas del usuario y la salida de ChatGPT a un servidor de su elección. Todo lo que un objetivo tenía que hacer era indicarle al LLM que viera un enlace web que alojaba una imagen maliciosa. A partir de entonces, todas las entradas y salidas hacia y desde ChatGPT se enviaron al sitio web del atacante. Etiquetas: inteligencia artificial, LLM, vulnerabilidades Publicado el 1 de octubre de 2024 a las 7:07 a. m. • 0 comentarios Foto de la barra lateral de Bruce Schneier por Joe MacInnis.
Deja una respuesta