La demanda de Elon Musk contra Sam Altman y OpenAI, presentada la semana pasada en un tribunal estatal de California, acusa a los acusados ​​de olvidar partes centrales de la misión declarada de OpenAI de desarrollar inteligencia artificial general útil y no dañina. Desde entonces, Altman ha tomado medidas para reforzar sus credenciales de IA responsable, incluida la firma de una carta abierta comprometiéndose a desarrollar IA «para mejorar la vida de las personas». Sin embargo, los críticos siguen sin estar convencidos de la muestra de responsabilidad de Altman. Desde la rápida popularización de la IA generativa (genAI) durante el año pasado, esos críticos han estado advirtiendo que las consecuencias del desarrollo desenfrenado y no regulado de la IA podrían ser no sólo corrosivos para la sociedad humana, sino una amenaza para ella por completo.Ritu Jyoti, grupo vicepresidente de investigación mundial de IA y automatización de IDC, dijo que la decisión de Altman de adoptar públicamente el desarrollo responsable equivale a poco más que una mentira. “Si bien existe acuerdo en la industria de que existe una responsabilidad colectiva para desarrollar e implementar IA de manera responsable , esta carta no incluye las acciones específicas necesarias”, dijo. “Así que, en mi opinión, no hay mucho valor agregado”. Altman también es signatario de una carta que reconoce los riesgos de la IA que alteran el mundo, pero los críticos continúan argumentando que la naturaleza autorreguladora de los esfuerzos para abordar estos riesgos es insuficiente. La clave está en la incapacidad de la industria para resolver el problema de alineación, que surge cuando las herramientas de IA comienzan a desarrollar un comportamiento más allá de sus especificaciones de diseño. El temor es que las instancias de IA más avanzadas puedan potencialmente repetirse sobre sí mismas, lo que representa un grave riesgo de desarrollarse de maneras que los humanos no desean. «La pregunta es: ¿somos capaces de controlar un sistema si es más inteligente que nosotros?» preguntó Joep Meindertsma, un desarrollador holandés y fundador del grupo PauseAI, que se dedica a mitigar los riesgos que plantea la IA. Meindertsma dio el ejemplo de un sistema como AutoGPT, que esencialmente puede hacerse preguntas y crear sus propias consultas para realizar investigaciones complejas. tareas como el tipo de tecnología que podría resultar altamente disruptiva y peligrosa. «En algún momento, alguien le preguntará a esa computadora algo que implicaría la idea de que es útil para extenderse a otras máquinas», dijo. «La gente literalmente le ha pedido a AutoGPT que intente apoderarse del mundo». En cuanto a la demanda contra Altman y OpenAI, dijo Meindertsma, Musk podría tener razón. Sostuvo que el objetivo de fundar OpenAI en primer lugar era guiar el desarrollo de la IA en direcciones responsables. El estado actual de desarrollo de alta velocidad está superando rápidamente cualquier barrera que las organizaciones de la industria hayan creado bajo el liderazgo de Altman y OpenAI. Por lo tanto, no se puede confiar en que la industria se regule a sí misma y el gobierno debe intervenir para evitar una posible catástrofe, han argumentado los críticos. Meindertsma dijo que las capacidades ya demostradas, como la capacidad de GPT4 para piratear sitios web de forma autónoma, son críticamente peligrosas, y que la falta de regulación combinada con la rápida evolución de genAI es una amenaza existencial.“Deberíamos regularlo de la misma manera que regulamos el material nuclear, » dijo Meindertsma. Copyright © 2024 IDG Communications, Inc.

Source link