Pensilvania se ha inscrito en un plan ChatGPT Enterprise, que permite a los empleados gubernamentales de la Commonwealth utilizar la inteligencia artificial generativa de OpenAI para completar las tareas del día a día, o eso espera el gobernador Josh Shapiro. «Pensilvania es el primer estado del país en poner a prueba ChatGPT Enterprise para su fuerza laboral», dijo el jefe de OpenAI, Sam Altman. «Nuestra colaboración con el gobernador Shapiro y el equipo de Pensilvania proporcionará información valiosa sobre cómo las herramientas de inteligencia artificial pueden mejorar de manera responsable los servicios estatales». El personal que trabaja en la Oficina de Administración (OA) de Pensilvania probará cómo el chatbot multimodal de IA mejora o impide su trabajo como parte de un estudio piloto. Se dice que el experimento es el primer uso aprobado de ChatGPT para empleados del gobierno estatal de EE. UU., y probará si la herramienta se puede utilizar de forma segura y si aumenta la productividad y las operaciones… o no. Recuerde, esta cosa alucina y simplemente inventa cosas con confianza. La oficina de Shapiro ha creado una Junta de Gobierno de IA que ha consultado a expertos para descubrir cómo utilizar la tecnología de forma responsable. «La IA generativa ya está aquí y ya está impactando nuestra vida diaria, y mi administración está adoptando un enfoque proactivo para aprovechar el poder de sus beneficios y al mismo tiempo mitigar sus riesgos potenciales», dijo el gobernador Shapiro esta semana. «Al establecer una Junta de Gobierno de IA generativa dentro de mi administración y asociarnos con universidades que son líderes nacionales en el desarrollo y la implementación de IA, ya nos hemos apoyado en la innovación para garantizar que nuestros enfoques de la Commonwealth utilicen la IA generativa de manera responsable y ética para aprovechar las oportunidades». Herramientas como ChatGPT pueden generar texto e imágenes a partir de una descripción de entrada, lo que ayuda a los trabajadores del conocimiento a hacer cosas como redactar correos electrónicos, crear presentaciones o analizar informes. Los departamentos gubernamentales de todo Estados Unidos, al menos, están interesados ​​en probar herramientas de aprendizaje automático para la creación de contenidos, aunque los funcionarios parecían preocupados de que la tecnología pudiera exponer información confidencial. El año pasado, la Fuerza Espacial de Estados Unidos prohibió a sus empleados utilizar modelos generativos de IA. Lisa Costa, directora de tecnología e innovación de la organización militar, dijo que la tecnología plantea «riesgos de agregación de datos». Cualquier información secreta ingerida por el software podría usarse potencialmente para entrenar modelos futuros, dependiendo de la configuración, que luego podría regurgitar información militar a otros, afirmó. Sin embargo, la prohibición es temporal y puede levantarse en el futuro a medida que el Departamento de Defensa de EE. UU. descubra cómo implementar la tecnología de forma segura. La subsecretaria de Defensa Kathleen Hicks lanzó el Task Force Lima, un grupo liderado por la Oficina Principal de Inteligencia Artificial y Digital del Pentágono, para investigar cómo las agencias militares pueden integrar capacidades generativas de IA internamente y mitigar los riesgos de seguridad nacional. En virtud de la orden ejecutiva «Promover el uso de inteligencia artificial confiable en el gobierno federal» del presidente Biden, las agencias del gobierno federal han publicado información sobre cómo utilizan la IA en aplicaciones no clasificadas y no sensibles. Algunos de estos parecen pertenecer a la IA generativa, como las imágenes de rayos X simuladas utilizadas por la Oficina de Aduanas y Protección Fronteriza de EE. UU. para entrenar algoritmos para detectar drogas y otros artículos ilícitos en el equipaje, o ImageLabeler de la NASA, descrito como una «web». Herramienta de generación de datos de capacitación de aprendizaje automático colaborativo basada en «. ®

Source link