El gobierno de California pronto utilizará herramientas de inteligencia artificial generativa. La administración del gobernador demócrata Gavin Newsom anunció el jueves que el estado se asociará con cinco empresas para desarrollar y probar herramientas de inteligencia artificial generativa que podrían mejorar el servicio público. California se encuentra entre los primeros estados en implementar pautas sobre cuándo y cómo las agencias estatales pueden comprar herramientas de inteligencia artificial mientras los legisladores de todo el país lidian con cómo regular la tecnología emergente. He aquí un vistazo más de cerca a los detalles: la IA generativa es una rama de la inteligencia artificial que puede crear contenido nuevo, como texto, audio y fotos, en respuesta a indicaciones. Es la tecnología detrás de ChatGPT, la controvertida herramienta de escritura lanzada por OpenAI, respaldada por Microsoft. La empresa Anthropic, con sede en San Francisco, con el respaldo de Google y Amazon, también participa en el juego de la IA generativa. California prevé utilizar este tipo de tecnología para ayudar a reducir los tiempos de espera de las llamadas de los clientes en las agencias estatales y mejorar el tráfico y la seguridad vial, entre otras cosas. Inicialmente, cuatro departamentos estatales probarán herramientas de IA generativa: el Departamento de Administración de Impuestos y Tasas, el Departamento de Transporte de California, el Departamento de Salud Pública y el Departamento de Salud y Servicios Humanos. La agencia de impuestos y tasas administra más de 40 programas y recibió más de 660.000 llamadas de empresas el año pasado, dijo el director Nick Maduros. El estado espera implementar IA para escuchar esas llamadas y obtener información clave sobre los códigos tributarios estatales en tiempo real, lo que permitirá a los trabajadores responder preguntas más rápidamente porque no tienen que buscar la información ellos mismos. En otro ejemplo, el estado quiere utilizar la tecnología para brindar a las personas información sobre beneficios de servicios sociales y de salud en otros idiomas además del inglés. El público aún no tiene acceso a estas herramientas, pero posiblemente lo tenga en el futuro. El estado iniciará una prueba de seis meses, durante la cual los trabajadores estatales probarán las herramientas internamente. En el ejemplo fiscal, el Estado planea que la tecnología analice grabaciones de llamadas de empresas y vea cómo las maneja la IA después, en lugar de ejecutarla en tiempo real, dijo Maduros. Sin embargo, no todas las herramientas están diseñadas para interactuar con el público. Por ejemplo, las herramientas diseñadas para ayudar a mejorar la congestión y la seguridad vial solo serían utilizadas por funcionarios estatales para analizar datos de tráfico e intercambiar ideas sobre posibles soluciones. Los trabajadores estatales probarán y evaluarán su efectividad y riesgos. Si las pruebas salen bien, el estado considerará implementar la tecnología de manera más amplia. El costo final no está claro. Por ahora, el estado pagará 1 dólar a cada una de las cinco empresas para iniciar una prueba interna de seis meses. Luego, el Estado puede evaluar si firma nuevos contratos para el uso a largo plazo de las herramientas. “Si resulta que no sirve mejor al público, entonces nos quedaremos sin un dólar”, dijo Maduros. «Y creo que es un buen trato para los ciudadanos de California». El estado tiene actualmente un enorme déficit presupuestario, lo que podría dificultar que Newsom defienda que vale la pena implementar dicha tecnología. Los funcionarios de la administración dijeron que no tenían una estimación de lo que dichas herramientas eventualmente le costarían al estado, y no publicaron de inmediato copias de los acuerdos con las cinco compañías que probarán la tecnología a modo de prueba. Esas empresas son: Deloitte Consulting, LLP, INRIX, Inc., Accenture, LLP, Ignyte Group, LLC, SymSoft Solutions LLC. El rápido crecimiento de la tecnología también ha generado preocupaciones sobre la pérdida de empleos, la desinformación, la privacidad y el sesgo de automatización. Los funcionarios estatales y los expertos académicos dicen que la IA generativa tiene un potencial significativo para ayudar a las agencias gubernamentales a ser más eficientes, pero también existe una necesidad urgente de salvaguardias y supervisión. Probar las herramientas de forma limitada es una forma de limitar los riesgos potenciales, dijo Meredith Lee, asesora técnica principal de la Facultad de Computación, Ciencia de Datos y Sociedad de UC Berkeley. Pero, añadió, las pruebas no pueden detenerse después de seis meses. El Estado debe tener un proceso consistente para probar y conocer los riesgos potenciales de las herramientas si decide implementarlas a una escala más amplia. © Copyright 2024 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.