Los denunciantes de OpenAI han presentado una denuncia ante la Comisión de Bolsa y Valores de Estados Unidos (SEC, por sus siglas en inglés) alegando que la empresa de inteligencia artificial prohibió ilegalmente a sus empleados advertir a los reguladores sobre los graves riesgos que su tecnología puede suponer para la humanidad, y piden una investigación. Los denunciantes dijeron que OpenAI emitió a sus empleados acuerdos de empleo, indemnización y confidencialidad excesivamente restrictivos que podrían haber dado lugar a sanciones contra los trabajadores que plantearon inquietudes sobre OpenAI a los reguladores federales, según una carta de siete páginas enviada al comisionado de la SEC a principios de este mes que hacía referencia a la denuncia formal. La carta fue obtenida en exclusiva por The Washington Post. OpenAI hizo que el personal firmara acuerdos laborales que les exigían renunciar a sus derechos federales a la compensación de los denunciantes, decía la carta. Estos acuerdos también exigían que el personal de OpenAI obtuviera el consentimiento previo de la empresa si deseaba revelar información a las autoridades federales. OpenAI no creó exenciones en sus cláusulas de no desprestigio de empleados para revelar violaciones de valores a la SEC. Estos acuerdos excesivamente amplios violaron leyes y regulaciones federales de larga data destinadas a proteger a los denunciantes que desean revelar información condenatoria sobre su empresa de forma anónima y sin temor a represalias, decía la carta. «Estos contratos enviaron un mensaje de que ‘no queremos… empleados hablando con reguladores federales'», dijo uno de los denunciantes, que habló bajo condición de anonimato por temor a represalias. «No creo que las empresas de IA puedan desarrollar tecnología que sea segura y de interés público si se protegen del escrutinio y la disidencia». DÉJESE ATRAPARHistorias para mantenerte informadoEn una declaración, Hannah Wong, portavoz de OpenAI, dijo: «Nuestra política de denuncia de irregularidades protege los derechos de los empleados a hacer divulgaciones protegidas. Además, creemos que es esencial un debate riguroso sobre esta tecnología y ya hemos realizado cambios importantes en nuestro proceso de salida para eliminar las condiciones de no desprestigio”. La carta de los denunciantes llega en medio de preocupaciones de que OpenAI, que comenzó como una organización sin fines de lucro con una misión altruista, está anteponiendo las ganancias a la seguridad al crear su tecnología. El Post informó el viernes que OpenAI se apresuró a presentar su último modelo de IA que alimenta ChatGPT para cumplir con una fecha de lanzamiento de mayo establecida por los líderes de la empresa, a pesar de las preocupaciones de los empleados de que la empresa «no cumplió» con su propio protocolo de pruebas de seguridad que, según dijo, mantendría su IA a salvo de daños catastróficos, como enseñar a los usuarios a construir armas biológicas o ayudar a los piratas informáticos a desarrollar nuevos tipos de ciberataques. En una declaración, la portavoz de OpenAI, Lindsey Held, dijo que la empresa «no escatimó en nuestro proceso de seguridad, aunque reconocemos que el lanzamiento fue estresante para nuestros equipos». Los estrictos acuerdos de confidencialidad de las empresas tecnológicas han irritado durante mucho tiempo a los trabajadores y a los reguladores. Durante el movimiento #MeToo y las protestas nacionales en respuesta al asesinato de George Floyd, los trabajadores advirtieron que esos acuerdos legales limitaban su capacidad para denunciar conductas sexuales inapropiadas o discriminación racial. Mientras tanto, los reguladores se han preocupado de que los términos amordacen a los empleados de tecnología que podrían alertarlos sobre conductas inapropiadas en el opaco sector tecnológico, especialmente en medio de acusaciones de que los algoritmos de las empresas promueven contenido que socava las elecciones, la salud pública y la seguridad de los niños. El rápido avance de la inteligencia artificial agudizó las preocupaciones de los responsables políticos sobre el poder de la industria tecnológica, lo que provocó una avalancha de pedidos de regulación. En los Estados Unidos, las empresas de IA están operando en gran medida en un vacío legal, y los responsables políticos dicen que no pueden crear efectivamente nuevas políticas de IA sin la ayuda de los denunciantes, quienes pueden ayudar a explicar las amenazas potenciales que plantea la tecnología de rápido avance. «Las políticas y prácticas de OpenAI parecen tener un efecto paralizante en el derecho de los denunciantes a hablar y recibir la debida compensación por sus divulgaciones protegidas», dijo el senador Chuck Grassley (republicano de Iowa) en una declaración a The Post. “Para que el gobierno federal se mantenga un paso por delante de la inteligencia artificial, los acuerdos de confidencialidad de OpenAI deben cambiar”. Se envió al Congreso una copia de la carta, dirigida al presidente de la SEC, Gary Gensler. El Post obtuvo la carta del denunciante de la oficina de Grassley. Las quejas oficiales a las que se hace referencia en la carta se presentaron a la SEC en junio. Stephen Kohn, un abogado que representa a los denunciantes de OpenAI, dijo que la SEC ha respondido a la queja. No se pudo determinar si la SEC ha iniciado una investigación. La agencia no respondió a una solicitud de comentarios. La SEC debe tomar medidas “rápidas y agresivas” para abordar estos acuerdos ilegales, dice la carta, ya que podrían ser relevantes para el sector de la IA en general y podrían violar la orden ejecutiva de la Casa Blanca de octubre que exige que las empresas de IA desarrollen la tecnología de manera segura. “En el centro de cualquier esfuerzo de cumplimiento de este tipo está el reconocimiento de que las personas con información privilegiada… deben tener la libertad de informar sus inquietudes a las autoridades federales”, decía la carta. “Los empleados están en la mejor posición para detectar y advertir sobre los tipos de peligros a los que se hace referencia en la Orden Ejecutiva y también están en la mejor posición para ayudar a garantizar que la IA beneficie a la humanidad, en lugar de tener el efecto contrario”. Estos acuerdos amenazaban a los empleados con procesos penales si denunciaban violaciones de la ley a las autoridades federales en virtud de las leyes de secreto comercial, dijo Kohn. Se instruyó a los empleados para que mantuvieran la confidencialidad de la información de la empresa y se les amenazó con “severas sanciones” sin reconocer su derecho a informar dicha información al gobierno, dijo. “En términos de supervisión de la IA, estamos en el comienzo”, dijo Kohn. “Necesitamos que los empleados den un paso adelante, y necesitamos que OpenAI sea abierta”. La SEC debería exigir a OpenAI que presente todos los acuerdos de empleo, indemnización e inversores que contengan cláusulas de confidencialidad para garantizar que no violen las leyes federales, decía la carta. Los reguladores federales deberían exigir a OpenAI que notifique a todos los empleados pasados ​​y actuales de las violaciones que cometió la empresa, así como notificarles que tienen derecho a informar de forma confidencial y anónima a la SEC sobre cualquier violación de la ley. La SEC debería multar a OpenAI por “cada acuerdo indebido” según la ley de la SEC y ordenar a OpenAI que corrija el “efecto paralizante” de sus prácticas pasadas, según la carta de los denunciantes. Varios empleados de tecnología, incluida la denunciante de Facebook Frances Haugen, han presentado quejas ante la SEC, que estableció un programa de denuncia de irregularidades a raíz de la crisis financiera de 2008. Luchar contra el uso de acuerdos de confidencialidad por parte de Silicon Valley para “monopolizar la información” ha sido una batalla prolongada, dijo Chris Baker, un abogado de San Francisco. Ganó un acuerdo de 27 millones de dólares para los empleados de Google en diciembre contra las acusaciones de que el gigante tecnológico utilizó acuerdos de confidencialidad onerosos para bloquear la denuncia de irregularidades y otras actividades protegidas. Ahora las empresas de tecnología están contraatacando cada vez más con formas inteligentes de disuadir la libertad de expresión, dijo. “Los empleadores han aprendido que el costo de las filtraciones a veces es mucho mayor que el costo del litigio, por lo que están dispuestos a correr el riesgo”, dijo Baker.