Pulse/Corbis a través de Getty Imagesfollow Zdnet: agréguenos como una fuente preferida en las cosas clave de Google.ZDNET no sabemos por completo cómo funciona la IA, por lo que atribuimos poderes mágicos a él. afirma la importancia más profunda de la tecnología, incluso afirmando la posibilidad de una comprensión humana. Los académicos se convierten en filosóficos porque incluso los científicos que crearon modelos de IA como el GPT-5 de OpenAI no entienden realmente cómo funcionan los programas, no del todo. Además: Altman de OpenAI ve ‘Superinteligencia’ a la vuelta de la esquina, pero le resulta corto en la ‘caja negra’ de Deteakai y los programas Hype Machineai como LLM son infamemente «cajas negras». Logran mucho que es impresionante, pero en su mayor parte, no podemos observar todo lo que están haciendo cuando toman una entrada, como un mensaje de su tipo de aviso, y producen una salida, como el documento de término universitario que solicitó o la sugerencia de su nueva novela. En la violación, los científicos han aplicado términos coloquiales como «razonamiento» para describir la forma en que realizan los programas. En el proceso, han implicado o directamente afirmado que los programas pueden «pensar», «razón» y «conocer» de la manera que los humanos. En los últimos dos años, la retórica ha superado a la ciencia, ya que los ejecutivos de IA han usado hipérbole para torcer lo que fueron simples logros de ingeniería. Además: ¿Qué es el GPT-5 de OpenAI? Aquí está todo lo que necesita saber sobre el último comunicado de prensa de ModelOpenai de la compañía en septiembre pasado que anuncia su modelo de razonamiento O1 declaró que, «similar a cómo un humano puede pensar durante mucho tiempo antes de responder a una pregunta difícil, O1 usa una cadena de pensamiento al intentar resolver un problema», de modo que «O1 aprende a su cadena de pensamiento y refina las estrategias que usa». Es un paso breve de esos antropulentes de los que se mudan a los que se oponen a los que se oponen a los que se oponen a los tocos de todos los tipos de la cadena a la cadena de la cadena de las estrategias que usa «. Reclamaciones, como el comentario del CEO de OpenAi, Sam Altman, en junio, que «pasamos el horizonte del evento; el despegue ha comenzado. La humanidad está cerca de construir superinteligencia digital». (Divulgación: Ziff Davis, la compañía matriz de Zdnet, presentó una demanda de abril de 2025 contra OpenAI, alegando que Ziff Davis DAVIS en capacitación en la capacitación y operación de sus sistemas AI). Sin embargo, la construcción de reacción de la reacción de los científicos de IA que desacreditan los supuestos de la inteligencia humana a través del riguroso escrutinio técnico. En un artículo publicado el mes pasado en el servidor de pre-impresión ARXIV y aún no revisado por sus compañeros, los autores, Chengshuai Zhao y sus colegas de la Universidad Estatal de Arizona, desarman las afirmaciones de razonamiento a través de un experimento simple. Lo que concluyeron es que «el razonamiento de la cadena de pensamiento es un espejismo frágil», y «no es un mecanismo para la inferencia lógica genuina, sino una forma sofisticada de coincidencia de patrones estructurados». También: Sam Altman dice que la singularidad es inminente: aquí está el cual el término «cadena de pensamiento» (cot) se usa comúnmente para describir el flujo de salida verboso que ve cuando un modelo de razonamiento grande, como GPT -O1 o DeepSeek V1, le muestra cómo funciona a través de un problema antes de dar la respuesta final. Esa corriente de declaraciones no es tan profunda o significado como parece, escribir zhao y equipo. «Los éxitos empíricos del razonamiento de COT conducen a la percepción de que los modelos de idiomas grandes (LLM) participan en procesos inferenciales deliberados», escriben. Pero, «un cuerpo en expansión de análisis revela que los LLM tienden a depender de la semántica y pistas a nivel de superficie en lugar de procedimientos lógicos», explican. «LLMS construyen cadenas superficiales de lógica basadas en asociaciones de tokens aprendidos, a menudo fallando en las tareas que se desvían de la heurística de sentido común o plantillas familiares». El término «cadenas de tokens» es una forma común de referirse a una serie de elementos que se ingresan a una LLM, como palabras o personajes. Prueba de lo que LLMS realmente DOTO prueban la hipótesis de que los LLM son simplemente una combinación de patrones, no realmente razonando, entrenaron a la LLM de código abierto de OpenAI, GPT-2, desde 2019, al comenzar desde cero, un enfoque que llaman «alquimia de datos». Arizona State University El modelo fue entrenado desde el principio para manipular las 26 letras del alfabeto inglés, «A, B, C, … etc.». Ese corpus simplificado permite que Zhao y el equipo prueben el LLM con un conjunto de tareas muy simples. Todas las tareas implican manipular secuencias de las letras, como, por ejemplo, cambiar cada letra un cierto número de lugares, de modo que «Apple» se convierte en «EAPPL». También: el CEO de OpenAi ve una lucha cuesta arriba a GPT-5, potencial para el nuevo tipo de hardanes de los consumidores. Se prueba el modelo terminado, como «cambiar cada elemento por 13 lugares». Es una prueba de si el modelo de idioma puede razonar una forma de funcionar incluso cuando se enfrenta a nuevas tareas nunca antes vistas. Descubrieron que cuando las tareas no estaban en los datos de capacitación, el modelo de lenguaje no logró lograr esas tareas correctamente utilizando una cadena de pensamiento. El modelo AI intentó usar tareas que estaban en sus datos de entrenamiento, y su «razonamiento» suena bien, pero la respuesta que generó fue incorrecta. Como lo expresaron Zhao y el equipo, «LLMS intentan generalizar las rutas de razonamiento basadas en las más similares […] visto durante el entrenamiento, lo que lleva a las rutas de razonamiento correctas, sin embargo, las respuestas incorrectas «. Especificidad para contrarrestar a los hipopeos que los autores atraen algunas lecciones. Primero:» Protección contra la dependencia excesiva y la falsa confianza «, aconsejan, porque» la capacidad de los LLM para producir ‘sinsentido fluido’: el razonamiento plausible pero lógicamente fallado razonando las cadenas de razones, puede ser más falso, como una respuesta incorrecta, como una respuesta incorrecta, como es una respuesta falsa, como es una respuesta más falsa, como una respuesta falsa, como es una respuesta más falsa, como una respuesta falsa, como es una respuesta más falsa, como una respuesta falsa, como una respuesta, como una respuesta, como una respuesta es una respuesta más falsa, como una respuesta. confiabilidad. «Además, pruebe las tareas que no sean explícitamente no es probable que se hayan contenido en los datos de entrenamiento para que el modelo de IA se probe. Jason Wei y sus colegas de Google Brain realizó un razonamiento en los modelos de idiomas grandes «, se realizó en los modelos de idiomas grandes»: la investigación que desde entonces ha sido citado más de 10,000 veces, los autores no hicieron reclamos sobre el razonamiento real y el equipo y el equipo notaron que un LLM en la lista de los pasos en un problema, como un problema de palabra aritmética «. ¿Cuántos quedan en el frasco? «) tendieron a conducir a soluciones más correctas, en promedio. Google BrainThey tuvo cuidado de no afirmar las habilidades de tipo humano». Aunque la cadena de pensamiento emula los procesos de pensamiento de los razonadores humanos, esto no responde si la red neuronal está realmente ‘razonando’, lo que dejamos una pregunta abierta «, escriben en el momento. También: ¿AI creen como humanos? Los comunicados de prensa de los promotores de IA han enfatizado cada vez más la naturaleza humana del razonamiento utilizando una retórica informal y descuidada que no respeta la descripción puramente técnica de Wei y del equipo.
Deja una respuesta