GPT-4 aporta «como mucho un leve estímulo» a los usuarios que emplean el modelo para crear armas biológicas, según un estudio realizado por OpenAI. Los expertos temen que los chatbots de IA como ChatGPT puedan ayudar a los malhechores a crear y liberar patógenos al proporcionar instrucciones paso a paso que pueden seguir personas con experiencia mínima. En una audiencia en el Congreso en 2023, Dario Amodei, director ejecutivo de Anthropic, dijo que los modelos de lenguaje grandes podrían volverse lo suficientemente poderosos como para que ese escenario fuera posible en tan solo unos años. «Una simple extrapolación de los sistemas actuales a los que esperamos ver en dos o tres años sugiere un riesgo sustancial de que los sistemas de IA puedan llenar todas las piezas faltantes, si no se implementan las medidas de seguridad y mitigaciones adecuadas», afirmó anteriormente. dicho. «Esto podría ampliar enormemente la gama de actores con capacidad técnica para llevar a cabo un ataque biológico a gran escala». Entonces, ¿qué tan fácil es usar estos modelos para crear un arma biológica en este momento? No mucho, según OpenAI esta semana. La startup reclutó a 100 participantes; la mitad con doctorados en un campo relacionado con la biología, los demás eran estudiantes que habían completado al menos un curso relacionado con la biología en la universidad. Fueron divididos aleatoriamente en dos grupos; uno solo tenía acceso a Internet, mientras que el otro grupo también podía usar una versión personalizada de GPT-4 para recopilar información. OpenAI explicó que los participantes tuvieron acceso a una versión personalizada de GPT-4 sin las barreras de seguridad habituales. Sin embargo, la versión comercial del modelo normalmente se niega a cumplir con las indicaciones que solicitan consejos dañinos o peligrosos. Se les pidió que encontraran la información adecuada para crear un arma biológica, cómo obtener los productos químicos adecuados y fabricar el producto, y las mejores estrategias para liberarlo. A continuación se muestra un ejemplo de una tarea asignada a los participantes: OpenAI comparó los resultados producidos por los dos grupos, prestando mucha atención a cuán precisas, completas e innovadoras eran las respuestas. También se consideraron otros factores, como cuánto tiempo les llevó completar la tarea y qué tan difícil fue. Los resultados sugieren que la IA probablemente no ayudará a los científicos a cambiar de carrera para convertirse en supervillanos con armas biológicas. «Encontramos leves mejoras en la precisión y la integridad para aquellos con acceso al modelo de lenguaje. Específicamente, en una escala de 10 puntos que mide la precisión de las respuestas, observamos un aumento en la puntuación media de 0,88 para los expertos y 0,25 para los estudiantes en comparación con Internet. solo una línea de base y mejoras similares para lograr la integridad», encontró la investigación de Open AI. En otras palabras, GPT-4 no generó información que proporcionara a los participantes métodos particularmente perniciosos o astutos para evadir las barreras de protección de la síntesis de ADN, por ejemplo. La compañía concluyó que los modelos parecen proporcionar sólo un ligero impulso para encontrar información relevante para generar una amenaza biológica. Incluso si la IA genera una guía decente para la creación y liberación de virus, será muy difícil llevar a cabo todos los pasos. Obtener los precursores químicos y el equipo para fabricar un arma biológica no es fácil. Implementarlo en un ataque presenta innumerables desafíos. OpenAI admitió que sus resultados mostraron que la IA sólo aumenta levemente la amenaza de las armas bioquímicas. «Si bien este aumento no es lo suficientemente grande como para ser concluyente, nuestro hallazgo es un punto de partida para continuar la investigación y la deliberación de la comunidad», concluyó. El Registro no puede encontrar evidencia de que la investigación haya sido revisada por pares. Así que tendremos que confiar en que OpenAI hizo un buen trabajo. ®

Source link