Con la rápida proliferación de los sistemas de IA, los responsables de las políticas públicas y los líderes de la industria exigen una orientación más clara sobre la gestión de la tecnología. La mayoría de los miembros del IEEE de EE. UU. expresan que el enfoque regulatorio actual para la gestión de sistemas de inteligencia artificial (IA) es inadecuado. También dicen que priorizar la gobernanza de la IA debería ser una cuestión de política pública, al igual que cuestiones como la atención sanitaria, la educación, la inmigración y el medio ambiente. Esto es de acuerdo con los resultados de una encuesta realizada por IEEE para el Comité de Políticas de IA de IEEE-USA. Somos presidentes del Comité de Políticas de IA y sabemos que los miembros de IEEE son un recurso crucial e invaluable para obtener conocimientos informados sobre la tecnología. Para guiar nuestro trabajo de promoción de políticas públicas en Washington, DC y comprender mejor las opiniones sobre la gobernanza de los sistemas de IA en los EE. UU., IEEE encuestó una muestra aleatoria de 9.000 miembros activos de IEEE-USA más 888 miembros activos que trabajan en IA y redes neuronales. La encuesta no definió intencionalmente el término IA. En cambio, pidió a los encuestados que utilizaran su propia interpretación de la tecnología al responder. Los resultados demostraron que, incluso entre los miembros del IEEE, no existe un consenso claro sobre una definición de IA. Existen variaciones significativas en la forma en que los miembros piensan sobre los sistemas de IA, y esta falta de convergencia tiene repercusiones en las políticas públicas. En general, se preguntó a los miembros su opinión sobre cómo regir el uso de algoritmos en la toma de decisiones consiguiente y sobre la privacidad de los datos, y si los EE.UU. El gobierno debería aumentar la capacidad de su fuerza laboral y su experiencia en IA. El estado de la gobernanza de la IA Durante años, IEEE-USA ha estado abogando por una gobernanza sólida para controlar el impacto de la IA en la sociedad. Es evidente que los responsables de las políticas públicas estadounidenses luchan con la regulación de los datos que impulsan los sistemas de IA. Las leyes federales existentes protegen ciertos tipos de datos financieros y de salud, pero el Congreso aún tiene que aprobar una legislación que implementaría un estándar nacional de privacidad de datos, a pesar de numerosos intentos de hacerlo. La protección de datos para los estadounidenses es fragmentaria y el cumplimiento de las complejas leyes federales y estatales de privacidad de datos puede resultar costoso para la industria. Numerosos formuladores de políticas estadounidenses han defendido que la gobernanza de la IA no puede ocurrir sin una ley nacional de privacidad de datos que proporcione estándares y barreras técnicas en torno a la recopilación y el uso de datos, particularmente en el mercado de la información disponible comercialmente. Los datos son un recurso crítico para modelos de lenguaje grande de terceros, que los utilizan para entrenar herramientas de inteligencia artificial y generar contenido. Como ha reconocido el gobierno de Estados Unidos, el mercado de información disponible comercialmente permite a cualquier comprador obtener hordas de datos sobre individuos y grupos, incluidos detalles que de otro modo estarían protegidos por la ley. La cuestión plantea importantes preocupaciones sobre la privacidad y las libertades civiles. Resulta que la regulación de la privacidad de los datos es un área en la que los miembros del IEEE tienen puntos de vista de consenso fuertes y claros. Conclusiones de la encuesta La mayoría de los encuestados (alrededor del 70 por ciento) dijo que el enfoque regulatorio actual es inadecuado. Las respuestas individuales nos dicen más. Para brindar contexto, hemos dividido los resultados en cuatro áreas de discusión: gobernanza de las políticas públicas relacionadas con la IA; riesgo y responsabilidad; confianza; y perspectivas comparadas. Gobernanza de la IA como política pública Aunque existen opiniones divergentes en torno a aspectos de la gobernanza de la IA, lo que destaca es el consenso en torno a la regulación de la IA en casos específicos. Más del 93 por ciento de los encuestados apoyan la protección de la privacidad de los datos individuales y están a favor de la regulación para abordar la información errónea generada por la IA. Alrededor del 84 por ciento apoya que se requieran evaluaciones de riesgos para productos de IA de riesgo medio y alto. El ochenta por ciento pidió imponer requisitos de transparencia o explicabilidad a los sistemas de inteligencia artificial, y el 78 por ciento pidió restricciones a los sistemas de armas autónomos. Más del 72 por ciento de los miembros apoyan políticas que restringen o gobiernan el uso del reconocimiento facial en ciertos contextos, y casi el 68 por ciento apoyan políticas que regulan el uso de algoritmos en decisiones importantes. Hubo un fuerte acuerdo entre los encuestados en cuanto a priorizar la gobernanza de la IA como una cuestión de política pública. Dos tercios dijeron que a la tecnología se le debería dar al menos la misma prioridad que a otras áreas dentro del ámbito del gobierno, como la atención médica, la educación, la inmigración y el medio ambiente. El ochenta por ciento apoya el desarrollo y uso de la IA, y más del 85 por ciento dice que debe gestionarse con cuidado, pero los encuestados no estuvieron de acuerdo sobre cómo y quién debería llevar a cabo dicha gestión. Si bien solo un poco más de la mitad de los encuestados dijeron que el gobierno debería regular la IA, este dato debe yuxtaponerse con el claro apoyo de la mayoría a la regulación gubernamental en áreas específicas o escenarios de casos de uso. Solo un porcentaje muy pequeño de computadoras no centradas en la IA Los científicos e ingenieros de software pensaron que las empresas privadas deberían autorregular la IA con una mínima supervisión gubernamental. Por el contrario, casi la mitad de los profesionales de la IA prefieren la supervisión gubernamental. Más de tres cuartas partes de los miembros del IEEE apoyan la idea de que los órganos rectores de todo tipo deberían hacer más para controlar los impactos de la IA. Riesgo y responsabilidad Varias de las preguntas de la encuesta se referían a la percepción del riesgo de la IA. Casi el 83 por ciento de los miembros dijeron que el público no está suficientemente informado sobre la IA. Más de la mitad está de acuerdo en que los beneficios de la IA superan sus riesgos. En términos de responsabilidad de los sistemas de IA, poco más de la mitad dijo que los desarrolladores deberían asumir la responsabilidad principal de garantizar que los sistemas sean seguros y eficaces. Aproximadamente un tercio dijo que el gobierno debería asumir la responsabilidad. Organizaciones confiables Los encuestados clasificaron a las instituciones académicas, las organizaciones sin fines de lucro y las pequeñas y medianas empresas de tecnología como las entidades más confiables para el diseño, desarrollo e implementación responsables. Las tres facciones menos confiables son las grandes empresas de tecnología, las organizaciones internacionales y los gobiernos. Las entidades en las que se confía más para gestionar o gobernar la IA de manera responsable son las instituciones académicas y las instituciones de terceros independientes. Las menos confiables son las grandes empresas de tecnología y las organizaciones internacionales. Perspectivas comparativas Los miembros demostraron una fuerte preferencia por regular la IA para mitigar los riesgos sociales y éticos, y el 80 por ciento de los profesionales de ciencia e ingeniería que no pertenecen a la IA y el 72 por ciento de los trabajadores de IA respaldan esta opinión. El 30 por ciento de los profesionales que trabajan en IA expresan que la regulación podría sofocar la innovación, en comparación con aproximadamente el 19 por ciento de sus homólogos que no se dedican a la IA. Una mayoría de todos los grupos está de acuerdo en que es crucial comenzar a regular la IA, en lugar de esperar, y el 70 por ciento de los profesionales no especializados en IA y el 62 por ciento de los trabajadores de IA apoyan una regulación inmediata. Una mayoría significativa de los encuestados reconoció los riesgos sociales y éticos de la IA. , enfatizando la necesidad de una innovación responsable. Más de la mitad de los profesionales de la IA se inclinan por herramientas regulatorias no vinculantes, como los estándares. Aproximadamente la mitad de los profesionales que no son de IA están a favor de reglas gubernamentales específicas. Un enfoque de gobernanza mixto La encuesta establece que la mayoría de los miembros del IEEE con sede en EE. UU. apoyan el desarrollo de la IA y abogan firmemente por su gestión cuidadosa. Los resultados guiarán al IEEE-USA en su trabajo con el Congreso y la Casa Blanca. Los encuestados reconocen los beneficios de la IA, pero expresaron preocupación por sus impactos sociales, como la desigualdad y la desinformación. La confianza en las entidades responsables de la creación y gestión de la IA varía mucho; Las instituciones académicas se consideran las entidades más confiables. Una minoría notable se opone a la participación del gobierno y prefiere pautas y estándares no regulatorios, pero las cifras no deben verse de forma aislada. Aunque conceptualmente existen actitudes mixtas hacia la regulación gubernamental, existe un consenso abrumador a favor de una regulación rápida en escenarios específicos como la privacidad de los datos, el uso de algoritmos en la toma de decisiones consecuentes, el reconocimiento facial y los sistemas de armas autónomos. para un enfoque de gobernanza mixto, utilizando leyes, regulaciones y estándares técnicos e industriales.

Source link