Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información Más de 500 millones de personas cada mes confían en Gemini y ChatGPT para mantenerse informados sobre todo, desde pasta hasta sexo o tarea. Pero si la IA te dice que cocines la pasta en gasolina, probablemente tampoco deberías seguir sus consejos sobre anticonceptivos o álgebra. En el Foro Económico Mundial de enero, el director ejecutivo de OpenAI, Sam Altman, fue deliberadamente tranquilizador: “No puedo mirar tu cerebro para entender por qué estás pensando lo que estás pensando. Pero puedo pedirle que explique su razonamiento y decida si me parece razonable o no. … Creo que nuestros sistemas de inteligencia artificial también podrán hacer lo mismo. Podrán explicarnos los pasos de A a B y podremos decidir si creemos que son buenos pasos”. El conocimiento requiere justificación No sorprende que Altman quiera que creamos que los grandes modelos de lenguaje (LLM) como ChatGPT pueden producir explicaciones transparentes para todo lo que dicen: sin una buena justificación, nada de lo que los humanos creen o sospechan que es cierto equivale a conocimiento. ¿Por qué no? Bueno, piensa en cuando te sientas cómodo diciendo que sabes algo positivamente. Lo más probable es que sea cuando te sientes absolutamente seguro de tu creencia porque está bien respaldada: por evidencia, argumentos o el testimonio de autoridades confiables. Los LLM están destinados a ser autoridades confiables; proveedores confiables de información. Pero a menos que puedan explicar su razonamiento, no podemos saber si sus afirmaciones cumplen con nuestros estándares de justificación. Por ejemplo, supongamos que me dice que la neblina actual de Tennessee es causada por incendios forestales en el oeste de Canadá. Quizás te tome la palabra. Pero supongamos que ayer me juraste con toda seriedad que las peleas de serpientes son una parte rutinaria de la defensa de una tesis. Entonces sé que no eres del todo confiable. Entonces puedo preguntarle por qué cree que el smog se debe a los incendios forestales canadienses. Para que mi creencia esté justificada, es importante que sepa que su informe es confiable. El problema es que los sistemas de inteligencia artificial actuales no pueden ganarse nuestra confianza compartiendo el razonamiento detrás de lo que dicen, porque no existe tal razonamiento. Los LLM no están ni remotamente diseñados para razonar. En cambio, los modelos se entrenan con grandes cantidades de escritura humana para detectar y luego predecir o ampliar patrones complejos en el lenguaje. Cuando un usuario ingresa un mensaje de texto, la respuesta es simplemente la proyección del algoritmo de cómo probablemente continuará el patrón. Estos resultados imitan (cada vez más) de manera convincente lo que podría decir un ser humano informado. Pero el proceso subyacente no tiene nada que ver con si el resultado está justificado, y mucho menos verdadero. Como lo expresaron Hicks, Humphries y Slater en «ChatGPT es una mierda», los LLM «están diseñados para producir texto que parezca adecuado a la verdad sin ninguna preocupación real por la verdad». Entonces, si el contenido generado por IA no es el equivalente artificial del conocimiento humano, ¿qué es? Hicks, Humphries y Slater tienen razón al llamarlo una tontería. Aun así, mucho de lo que dicen los LLM es cierto. Cuando estas máquinas de “tonterías” producen resultados objetivamente precisos, producen lo que los filósofos llaman casos Gettier (en honor al filósofo Edmund Gettier). Estos casos son interesantes por la extraña forma en que combinan creencias verdaderas con ignorancia sobre la justificación de esas creencias. Los resultados de la IA pueden ser como un espejismo. Consideremos este ejemplo, tomado de los escritos del filósofo budista indio del siglo VIII, Dharmottara: Imaginemos que estamos buscando agua en un día caluroso. De repente vemos agua, o eso creemos. En realidad no estamos viendo agua sino un espejismo, pero cuando llegamos al lugar, tenemos suerte y encontramos agua justo debajo de una roca. ¿Podemos decir que teníamos un conocimiento genuino del agua? La gente está ampliamente de acuerdo en que, sea cual sea el conocimiento, los viajeros de este ejemplo no lo tienen. En cambio, tuvieron la suerte de encontrar agua precisamente donde no tenían buenas razones para creer que la encontrarían. La cuestión es que cada vez que creemos que sabemos algo que aprendimos en un LLM, nos ponemos en la misma posición que los viajeros de Dharmottara. Si el LLM se capacitó con un conjunto de datos de calidad, entonces es muy probable que sus afirmaciones sean ciertas. Esas afirmaciones pueden compararse con el espejismo. Y probablemente también existan pruebas y argumentos que podrían justificar sus afirmaciones en algún lugar de su conjunto de datos, del mismo modo que el agua que brotó bajo la roca resultó ser real. Pero la evidencia justificativa y los argumentos que probablemente existen no jugaron ningún papel en el resultado del LLM, del mismo modo que la existencia del agua no jugó ningún papel en la creación de la ilusión que apoyó la creencia de los viajeros de que la encontrarían allí. Las garantías de Altman son, por tanto, profundamente engañosas. Si le pide a un LLM que justifique sus resultados, ¿qué hará? No te dará una justificación real. Le dará una justificación de Gettier: un patrón de lenguaje natural que imita de manera convincente una justificación. Una quimera de justificación. Como dirían Hicks et al, una justificación de mierda. Lo cual, como todos sabemos, no tiene justificación alguna. En este momento, los sistemas de IA regularmente fallan o “alucinan” de maneras que hacen que la máscara se deslice. Pero a medida que la ilusión de la justificación se vuelve más convincente, sucederá una de dos cosas. Para aquellos que entienden que el verdadero contenido de IA es un gran caso de Gettier, la afirmación evidentemente falsa de un LLM de explicar su propio razonamiento socavará su credibilidad. Sabremos que la IA está siendo diseñada y entrenada deliberadamente para ser sistemáticamente engañosa. Y aquellos de nosotros que no somos conscientes de que la IA escupe justificaciones de Gettier: ¿justificaciones falsas? Bueno, simplemente seremos engañados. En la medida en que dependamos de los LLM, viviremos en una especie de cuasi matriz, incapaces de separar los hechos de la ficción y sin darnos cuenta de que deberíamos preocuparnos de que pueda haber una diferencia. Cada resultado debe estar justificado. Al sopesar la importancia de esta situación, es importante tener en cuenta que no hay nada de malo en que los LLM trabajen como lo hacen. Son herramientas increíbles y poderosas. Y las personas que entienden que los sistemas de inteligencia artificial escupen casos de Gettier en lugar de conocimiento (artificial) ya utilizan los LLM de una manera que tiene eso en cuenta. Los programadores utilizan los LLM para redactar código y luego utilizan su propia experiencia en codificación para modificarlo de acuerdo con sus propios estándares y propósitos. Los profesores utilizan los LLM para redactar propuestas de trabajos y luego revisarlas de acuerdo con sus propios objetivos pedagógicos. Cualquier redactor de discursos digno de ese nombre durante este ciclo electoral verificará en detalle cualquier borrador que AI redacte antes de dejar que su candidato suba al escenario con él. Etcétera. Pero la mayoría de la gente recurre a la IA precisamente cuando carecemos de experiencia. Piense en los adolescentes que investigan álgebra… o profilácticos. O personas mayores que buscan asesoramiento dietético (o de inversión). Si los LLM van a mediar en el acceso del público a ese tipo de información crucial, entonces al menos necesitamos saber si podemos confiar en ellos y cuándo. Y la confianza requeriría saber precisamente lo que los LLM no pueden decirnos: si cada resultado está justificado y cómo. Afortunadamente, probablemente sepas que el aceite de oliva funciona mucho mejor que la gasolina para cocinar espaguetis. Pero, ¿qué recetas peligrosas para la realidad te has tragado enteras, sin probar nunca la justificación? Hunter Kallay es estudiante de doctorado en filosofía en la Universidad de Tennessee. Kristina Gehrman, PhD, es profesora asociada de filosofía en la Universidad de Tennessee. DataDecisionMakers ¡Bienvenido a la comunidad VentureBeat! DataDecisionMakers es el lugar donde los expertos, incluidos los técnicos que trabajan con datos, pueden compartir conocimientos e innovación relacionados con los datos. Si desea leer sobre ideas de vanguardia e información actualizada, mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers. ¡Incluso podrías considerar contribuir con un artículo propio! Leer más de DataDecisionMakers