Recientemente, el fundador de NVIDIA, Jensen Huang, cuya compañía construye los chips que alimentan los sistemas de inteligencia artificiales más avanzados de hoy, comentó: «Lo que es realmente, muy sorprendente es la forma en que programas una IA es como la forma en que programas una persona». Ilya Sutskever, cofundadora de OpenAi y una de las principales figuras de la Revolución AI, también declaró que es solo cuestión de tiempo antes de que la IA pueda hacer todo lo que los humanos pueden hacer, porque «el cerebro es una computadora biológica». Soy un investigador de neurociencia cognitiva, y creo que están peligrosamente equivocados. La mayor amenaza no es que estas metáforas nos confundan sobre cómo funciona la IA, pero que nos engañan sobre nuestros propios cerebros. Durante las revoluciones tecnológicas pasadas, los científicos, así como la cultura popular, tendieron a explorar la idea de que el cerebro humano podría entenderse como análogo a una máquina nueva tras otra: un reloj, una centralita, una computadora. La última metáfora errónea es que nuestros cerebros son como sistemas de IA. He visto este cambio en los últimos dos años en conferencias, cursos y conversaciones en el campo de la neurociencia y más allá. Palabras como «entrenamiento», «ajuste fino» y «optimización» se usan con frecuencia para describir el comportamiento humano. Pero no entrenamos, afinamos u optimizamos de la manera que AI lo hace. Y tales metáforas inexactas pueden causar daño real. La idea de la mente de la mente de la «pizarra en blanco» imaginó a los niños como superficies vacías formadas por completo por influencias externas. Esto llevó a sistemas educativos rígidos que intentaron eliminar las diferencias en los niños neurodivergentes, como aquellos con autismo, TDAH o dislexia, en lugar de ofrecer apoyo personalizado. Del mismo modo, el modelo de «caja negra» de principios del siglo XX de la psicología conductista afirmaba que solo el comportamiento visible importaba. Como resultado, la atención médica mental a menudo se centró en manejar los síntomas en lugar de comprender sus causas emocionales o biológicas. Y ahora hay nuevos enfoques desagradables que emergen a medida que comenzamos a vernos a la imagen de la IA. Las herramientas educativas digitales se desarrollaron en los últimos años, por ejemplo, ajustar lecciones y preguntas basadas en las respuestas de un niño, manteniendo en teoría al estudiante en un nivel de aprendizaje óptimo. Esto se inspira en gran medida en cómo se capacita un modelo de IA. Este enfoque adaptativo puede producir resultados impresionantes, pero pasa por alto factores menos medibles, como la motivación o la pasión. Imagine a dos niños que aprenden piano con la ayuda de una aplicación inteligente que se ajusta por su competencia cambiante. Uno aprende rápidamente a jugar sin problemas, pero odia cada sesión de práctica. El otro comete errores constantes pero disfruta cada minuto. Juzgando solo en los términos que aplicamos a los modelos de IA, diríamos que el niño que juega sin problemas ha superado al otro estudiante. Pero educar a los niños es diferente de capacitar un algoritmo de IA. Esa evaluación simplista no daría cuenta de la miseria del primer estudiante o el disfrute del segundo niño. Esos factores importan; Hay una buena posibilidad de que el niño se divierta sea el que todavía toque una década a partir de ahora, e incluso podrían terminar con un músico mejor y más original porque disfrutan de la actividad, los errores y todo. Definitivamente creo que la IA en el aprendizaje es inevitable y potencialmente transformadora para mejor, pero si evaluamos a los niños solo en términos de lo que puede ser «capacitado» y «ajustado», repetiremos el viejo error de enfatizar la producción sobre la experiencia. Veo esto con los estudiantes de pregrado, quién, por primera vez, cree que pueden lograr los mejores resultados medidos al superar completamente el proceso de aprendizaje. Muchos han estado utilizando herramientas de IA en los últimos dos años (algunos cursos lo permiten y otros no) y ahora confían en ellas para maximizar la eficiencia, a menudo a expensas de la reflexión y la comprensión genuina. Utilizan la IA como una herramienta que les ayuda a producir buenos ensayos, sin embargo, el proceso en muchos casos ya no tiene mucha conexión con el pensamiento original o a descubrir lo que provoca la curiosidad de los estudiantes. Si continuamos pensando en este marco cerebral como AI, también corremos el riesgo de perder los procesos de pensamiento vitales que han llevado a grandes ruptivos en ciencia y arte. Estos logros no provienen de identificar patrones familiares, sino de romperlos a través del desorden y los errores inesperados. Alexander Fleming descubrió la penicilina al notar que el moho que crecía en una placa de Petri que había dejado fuera accidentalmente estaba matando a las bacterias circundantes. Un error afortunado cometido por un investigador desordenado que pasó a salvar la vida de cientos de millones de personas. Este desorden no solo es importante para los científicos excéntricos. Es importante para cada cerebro humano. Uno de los descubrimientos más interesantes en neurociencia en las últimas dos décadas es la «red de modo predeterminada», un grupo de regiones cerebrales que se activa cuando estamos soñando soñando y no nos enfocamos en una tarea específica. También se ha encontrado que esta red juega un papel en la reflexión sobre el pasado, imaginando y pensando en nosotros mismos y en los demás. No tener en cuenta este comportamiento de peso mental como un problema técnico en lugar de adoptarlo como una característica humana central inevitablemente nos llevará a construir sistemas defectuosos en educación, salud mental y derecho. Desafortunadamente, es particularmente fácil confundir la IA con el pensamiento humano. Microsoft describe modelos de IA generativos como ChatGPT en su sitio web oficial como herramientas que «reflejan la expresión humana, redefiniendo nuestra relación con la tecnología». Y el CEO de Operai, Sam Altman, destacó recientemente su nueva característica favorita en Chatgpt llamada «Memory». Esta función permite al sistema retener y recuperar los datos personales en las conversaciones. Por ejemplo, si le pregunta a ChatGPT dónde comer, podría recordarle un restaurante tailandés que mencionó querer probar meses antes. «No es que conectes tu cerebro en un día», explicó Altman, «pero … te conocerá, y se convertirá en esta extensión de ti mismo». La sugerencia de que la «memoria» de AI será una extensión propia es nuevamente una metáfora defectuosa, lo que nos lleva a mal entendimiento de la nueva tecnología y nuestras propias mentes. A diferencia de la memoria humana, que evolucionó para olvidar, actualizar y remodelar recuerdos basados ​​en innumerables factores, la memoria de IA puede diseñarse para almacenar información con mucha menos distorsión u olvido. Una vida en la que las personas externalizan la memoria a un sistema que recuerda que casi todo no es una extensión del yo; Se rompe de los mismos mecanismos que nos hacen humanos. Marcaría un cambio en cómo nos comportamos, entendemos el mundo y tomamos decisiones. Esto puede comenzar con cosas pequeñas, como elegir un restaurante, pero puede avanzar rápidamente a decisiones mucho más grandes, como tomar una carrera profesional diferente o elegir un socio diferente de lo que tendríamos, porque los modelos de IA pueden superficiales de las conexiones y el contexto que nuestros cerebros pueden haber eliminado por una razón u otra. Como nosotros. Las consecuencias de esta confusión en curso podrían ser desastrosas, no porque la IA sea inherentemente dañina, sino porque en lugar de darle forma a una herramienta que complementa nuestras mentes humanas, permitiremos que nos remodele en su propia imagen. Su boletín de subsistencia, Neuron Stories, conecta las ideas de neurociencia con el comportamiento humano.