La inteligencia artificial que puede generar texto, imágenes y otros contenidos podría ayudar a mejorar los programas estatales, pero también plantea riesgos, según un informe publicado por la oficina del gobernador el martes. La IA generativa podría ayudar a traducir rápidamente materiales gubernamentales a varios idiomas y analizar declaraciones fiscales para detectar fraude, resumir comentarios públicos y responder preguntas sobre servicios estatales. Aún así, el análisis advirtió que la implementación de la tecnología también conlleva preocupaciones en torno a la privacidad de los datos, la desinformación, la equidad y el sesgo. “Cuando se usa de manera ética y transparente, GenAI tiene el potencial de mejorar drásticamente los resultados de la prestación de servicios y aumentar el acceso y la utilización de los programas gubernamentales. ”, afirma el informe. El informe de 34 páginas, encargado por el gobernador Gavin Newsom, ofrece una idea de cómo California podría aplicar la tecnología a programas estatales incluso cuando los legisladores luchan por cómo proteger a las personas sin obstaculizar la innovación. Las preocupaciones sobre la seguridad de la IA han dividido a los ejecutivos de tecnología. Líderes como el multimillonario Elon Musk han hecho sonar la alarma de que la tecnología podría conducir a la destrucción de la civilización, señalando que si los humanos se vuelven demasiado dependientes de la automatización, eventualmente podrían olvidar cómo funcionan las máquinas. Otros ejecutivos de tecnología tienen una visión más optimista sobre el potencial de la IA para ayudar a salvar a la humanidad al facilitar la lucha contra el cambio climático y las enfermedades. Al mismo tiempo, las principales empresas de tecnología, incluidas Google, Facebook y OpenAI, respaldada por Microsoft, están compitiendo entre sí para desarrollar y lanzar nuevas herramientas de IA que puedan producir contenido. El informe también llega en un momento en que la IA generativa está alcanzando otro punto de inflexión importante. La semana pasada, la junta directiva del fabricante de ChatGPT OpenAI despidió al director ejecutivo Sam Altman por no ser “consistentemente sincero en sus comunicaciones con la junta directiva”, lo que sumió a la empresa y al sector de la IA en el caos. El martes por la noche, OpenAI dijo que había llegado a “un acuerdo de principio” para que Altman regresara como director ejecutivo y la empresa nombrara miembros de una nueva junta directiva. La empresa enfrentó presiones para reintegrar a Altman por parte de inversores, ejecutivos de tecnología y empleados, que amenazaron con renunciar. OpenAI no ha proporcionado detalles públicamente sobre lo que llevó al sorpresivo derrocamiento de Altman, pero, según se informa, la compañía tuvo desacuerdos sobre mantener segura la IA y al mismo tiempo ganar dinero. Una junta sin fines de lucro controla OpenAI, una estructura de gobierno inusual que hizo posible expulsar al CEO. Newsom calificó el informe de IA como un “primer paso importante” mientras el estado sopesa algunas de las preocupaciones de seguridad que conlleva la IA. «Estamos adoptando un enfoque mesurado y matizado: comprender los riesgos que plantea esta tecnología transformadora y al mismo tiempo examinar cómo aprovechar sus beneficios», dijo en un comunicado. Los avances en la IA podrían beneficiar a la economía de California. El estado alberga a 35 de las 50 principales empresas de IA del mundo y los datos de Pitchbook dicen que el mercado de GenAI podría alcanzar los 42.600 millones de dólares en 2023, según el informe. Algunos de los riesgos descritos en el informe incluyen la difusión de información falsa y dar a los consumidores consejos médicos peligrosos. y permitir la creación de sustancias químicas nocivas y armas nucleares. Las filtraciones de datos, la privacidad y los prejuicios también son las principales preocupaciones, además de si la IA eliminará puestos de trabajo. “Dados estos riesgos, el uso de la tecnología GenAI siempre debe evaluarse para determinar si esta herramienta es necesaria y beneficiosa para resolver un problema en comparación con el estado actual. quo”, dice el informe. Mientras el estado trabaja en pautas para el uso de IA generativa, el informe dice que, mientras tanto, los empleados estatales deben cumplir con ciertos principios para salvaguardar los datos de los californianos. Por ejemplo, los empleados estatales no deberían proporcionar datos de los californianos a herramientas de IA generativa como ChatGPT o Bard de Google ni utilizar herramientas no aprobadas en dispositivos estatales, según el informe. El uso potencial de la IA va más allá del gobierno estatal. Los organismos encargados de hacer cumplir la ley, como la policía de Los Ángeles, planean utilizar inteligencia artificial para analizar el tono y la elección de palabras de los agentes en los videos de las cámaras corporales. Los esfuerzos de California para regular algunas de las preocupaciones de seguridad, como los prejuicios que rodean a la IA, no ganaron mucho impulso durante la última sesión legislativa. Pero los legisladores han presentado nuevos proyectos de ley para abordar algunos de los riesgos de la IA cuando regresen en enero, como proteger a los trabajadores del entretenimiento de ser reemplazados por clones digitales. Mientras tanto, los reguladores de todo el mundo todavía están descubriendo cómo proteger a las personas de los riesgos potenciales de la IA. En octubre, el presidente Biden emitió una orden ejecutiva que describía estándares en materia de seguridad a medida que los desarrolladores crean nuevas herramientas de inteligencia artificial. La regulación de la IA fue un tema importante de discusión en la reunión de Cooperación Económica Asia-Pacífico en San Francisco la semana pasada. Durante un panel de discusión con ejecutivos de Google y la empresa matriz de Facebook, Meta, Altman dijo que pensaba que la orden ejecutiva de Biden era un «buen comienzo». “Aunque había áreas de mejora. Los modelos actuales de IA, dijo, están «buenos» y no se necesita una «regulación estricta», pero expresó preocupación por el futuro. «En algún momento, cuando el modelo pueda generar la producción equivalente a toda una empresa y luego a todo un país y luego a todo el mundo, tal vez queramos algún tipo de supervisión global colectiva de eso», dijo, un día antes de ser despedido como director ejecutivo de OpenAI.