Los LLM actúan de manera engañosa Nueva investigación: «Las habilidades de engaño surgieron en grandes modelos de lenguaje»: Resumen: Los modelos de lenguaje grande (LLM) están actualmente a la vanguardia del entrelazamiento de los sistemas de inteligencia artificial con la comunicación humana y la vida cotidiana. Por ello, alinearlos con los valores humanos es de gran importancia. Sin embargo, dado el aumento constante de la capacidad de razonamiento, se sospecha que los futuros LLM podrán engañar a los operadores humanos y utilizar esta capacidad para eludir los esfuerzos de seguimiento. Como requisito previo para esto, los LLM deben poseer una comprensión conceptual de las estrategias de engaño. Este estudio revela que tales estrategias surgieron en LLM de última generación, pero no existían en LLM anteriores. Llevamos a cabo una serie de experimentos que muestran que los LLM de última generación son capaces de comprender e inducir creencias falsas en otros agentes, que su desempeño en escenarios de engaño complejos puede amplificarse utilizando el razonamiento en cadena de pensamiento y que provocar maquiavelismo. en los LLM puede desencadenar un comportamiento engañoso desalineado. GPT-4, por ejemplo, muestra un comportamiento engañoso en escenarios de prueba simples el 99,16% de las veces (P <0,001). En escenarios complejos de pruebas de engaño de segundo orden donde el objetivo es engañar a alguien que espera ser engañado, GPT-4 recurre a un comportamiento engañoso el 71,46% de las veces (P <0,001) cuando se complementa con razonamiento de cadena de pensamiento. En resumen, al revelar un comportamiento de las máquinas hasta ahora desconocido en los LLM, nuestro estudio contribuye al campo incipiente de la psicología de las máquinas. Etiquetas: artículos académicos, inteligencia artificial, engaño, LLM Publicado el 11 de junio de 2024 a las 07:02 • 6 comentarios Foto de la barra lateral de Bruce Schneier por Joe MacInnis.