Inteligencia artificial y aprendizaje automático, gobernanza y gestión de riesgos, tecnologías de próxima generación y desarrollo seguro La denuncia busca una investigación de la SEC sobre las prácticas de los denunciantes y una sanción financieraRashmi Ramesh (rashmiramesh_) • 15 de julio de 2024 Imagen: Shutterstock Los denunciantes de OpenAI supuestamente se quejaron ante la Comisión de Bolsa y Valores de EE. UU. de que la empresa restringió ilegalmente a los empleados para alertar a los reguladores sobre los riesgos potenciales de la tecnología de inteligencia artificial para la humanidad. Ver también: Cierre las brechas en su estrategia de seguridad Los denunciantes buscan una investigación sobre estas prácticas, dijo The Washington Post, citando una carta de siete páginas enviada al presidente de la SEC, Gary Gensler. Los empleados afirman que OpenAI impuso acuerdos de empleo, indemnización y confidencialidad excesivamente restrictivos que eximían a los empleados de los derechos federales a la compensación de los denunciantes, lo que les exigía obtener el consentimiento de la empresa antes de revelar información a las autoridades federales. Los denunciantes dijeron que los acuerdos violaban las leyes federales diseñadas para proteger a quienes buscan denunciar la mala conducta corporativa de forma anónima, sin temor a represalias. “Estos contratos enviaron un mensaje de que ‘no queremos que los empleados hablen con los reguladores federales’”, dijo un denunciante anónimamente a The Washington Post, citando temores de represalias. “Las empresas de inteligencia artificial no pueden desarrollar tecnología que sea segura y de interés público si se protegen del escrutinio y la disidencia”. La portavoz de OpenAI, Hannah Wong, negó las acusaciones y dijo que la empresa “cree que es esencial un debate riguroso sobre esta tecnología y ya ha realizado cambios importantes en nuestro proceso de salida para eliminar los términos de no desprestigio”. La noticia llega poco después de las recientes acusaciones de que OpenAI no informó sobre una violación de datos a las fuerzas del orden federales ni hizo pública la noticia. La empresa dijo que cree que no se robó información de los clientes y que el incidente no representó una amenaza para la seguridad nacional. Algunos empleados criticaron esa explicación, planteando inquietudes sobre el compromiso de OpenAI con la ciberseguridad y la posibilidad de que naciones adversarias como China roben información de IA (ver: OpenAI no reveló la violación de 2023 a los federales, público: informe). OpenAI se fundó como una organización sin fines de lucro, pero controla un negocio comercial en rápido crecimiento. Los críticos han expresado su preocupación de que OpenAI pueda estar priorizando las ganancias sobre la seguridad. Según se informa, la empresa aceleró el lanzamiento de su último modelo de IA que impulsa ChatGPT para cumplir con la fecha límite de mayo a pesar de las preocupaciones de los empleados sobre las pruebas de seguridad insuficientes, solo unos meses después de comprometerse con la Casa Blanca a realizar pruebas de seguridad rigurosas de las nuevas versiones para garantizar que su tecnología no pudiera usarse indebidamente. La empresa incluso creó un comité para tomar decisiones de seguridad y protección «críticas» para todos sus proyectos en mayo, después de disolver su equipo de seguridad de «superalineación» dedicado a evitar que los sistemas de IA se vuelvan rebeldes (ver: OpenAI formula un marco para mitigar los «riesgos catastróficos»). Los líderes del equipo de seguridad de superalineación (el cofundador de OpenAI, Ilya Sutskever, y Jan Leike) abandonaron la empresa por su desacuerdo sobre el enfoque de la seguridad, al igual que la investigadora de políticas Gretchen Krueger. Tanto Sutskever como Leike trabajaron para abordar los riesgos de seguridad a largo plazo que enfrenta la empresa y la tecnología, y Leike en una publicación en las redes sociales criticó la falta de apoyo de OpenAI al equipo de seguridad de superalineación. «En los últimos años, la cultura y los procesos de seguridad han quedado en segundo plano frente a los productos brillantes», dijo Leike. Sutskever estuvo entre los miembros de la junta que en noviembre eliminaron a Sam Altman de OpenAI solo para verlo reinstalado como CEO cinco días después. Krueger dijo que decidió renunciar unas horas antes que sus otros dos colegas, ya que compartió sus preocupaciones de seguridad. “Las políticas y prácticas de OpenAI parecen tener un efecto paralizante en el derecho de los denunciantes a hablar y recibir la compensación debida por sus divulgaciones protegidas”, dijo el senador Chuck Grassley al Post. Las empresas de inteligencia artificial en los EE. UU. no tienen marcos regulatorios específicos, lo que hace que el papel de los denunciantes para informar a los reguladores sea aún más crucial. “El desarrollo actual de la IA de frontera plantea riesgos urgentes y crecientes para la seguridad nacional. El auge de la IA avanzada y la inteligencia artificial general tiene el potencial de desestabilizar la seguridad global de maneras que recuerdan la introducción de armas nucleares”, dice un informe encargado por el Departamento de Estado de EE. UU. Los denunciantes pidieron a la SEC que obligue a OpenAI a presentar todos los acuerdos de empleo, indemnización y de inversores con cláusulas de confidencialidad para su revisión y que notifique a todos los empleados anteriores y actuales de sus derechos a la confidencialidad al presentar quejas. También pidieron a la SEC que penalice a OpenAI por cada acuerdo indebido. URL de la publicación original: https://www.databreachtoday.com/los-empleados-dicen-que-openai-protege-a-los-denunciantes-de-los-reguladores-a-25769