A medida que la IA generativa se vuelve más popular, las organizaciones deben considerar cómo implementarla éticamente. Pero, ¿cómo es la implementación ética de la IA? ¿Implica controlar la inteligencia a nivel humano? ¿Prevenir el sesgo? ¿O ambas cosas? Para evaluar cómo las empresas abordan este tema, Deloitte encuestó recientemente a 100 ejecutivos de nivel C en empresas estadounidenses con entre $ 100 millones y $ 10 mil millones en ingresos anuales. Los resultados indicaron cómo los líderes empresariales incorporan la ética en sus políticas de IA generativa. Principales prioridades para la ética de la IA ¿Qué cuestiones éticas consideran más importantes estas organizaciones? Las organizaciones priorizaron las siguientes cuestiones éticas en el desarrollo y la implementación de la IA: Equilibrar la innovación con la regulación (62%). Garantizar la transparencia en cómo se recopilan y utilizan los datos (59%). Abordar las preocupaciones sobre la privacidad de los usuarios y los datos (56%). Garantizar la transparencia en cómo funcionan los sistemas empresariales (55%). Mitigar el sesgo en algoritmos, modelos y datos (52%). Garantizar que los sistemas funcionen de manera confiable y como se espera (47%). Las organizaciones con mayores ingresos (1.000 millones de dólares o más al año) tenían más probabilidades que las empresas más pequeñas de afirmar que sus marcos éticos y estructuras de gobernanza fomentan la innovación tecnológica. Los usos poco éticos de la IA pueden incluir la desinformación, especialmente crítica durante las temporadas electorales, y el refuerzo de los prejuicios y la discriminación. La IA generativa puede replicar los prejuicios humanos accidentalmente al copiar lo que ve, o los actores maliciosos pueden usar la IA generativa para crear intencionalmente contenido sesgado más rápidamente. Los actores de amenazas que utilizan correos electrónicos de phishing pueden aprovechar la velocidad de escritura de la IA generativa. Otros casos de uso potencialmente poco éticos pueden incluir la IA que toma decisiones importantes en la guerra o la aplicación de la ley. El gobierno de Estados Unidos y las principales empresas tecnológicas acordaron un compromiso voluntario en septiembre de 2023 que establece estándares para revelar el uso de la IA generativa y el contenido creado con ella. La Oficina de Política Científica y Tecnológica de la Casa Blanca publicó un plan para una Carta de Derechos de la IA, que incluye esfuerzos contra la discriminación. Las empresas estadounidenses que utilizan IA en determinadas escalas y para tareas de alto riesgo deben informar la información al Departamento de Comercio a partir de enero de 2024. VER: Comience con una plantilla para una Política de ética de IA. «Para cualquier organización que adopte IA, la tecnología presenta tanto el potencial de resultados positivos como el riesgo de resultados no deseados», dijo Beena Ammanath, directora ejecutiva del Global Deloitte AI Institute y líder de IA confiable en Deloitte, en un correo electrónico a TechRepublic. Más cobertura de IA de lectura obligada ¿Quién toma decisiones éticas de IA? En el 34% de los casos, las decisiones éticas de IA provienen de directores o títulos superiores. En el 24% de los casos, todos los profesionales toman decisiones de IA de forma independiente. En casos más raros, los líderes de negocios o departamentales (17%), gerentes (12%), profesionales con capacitación o certificaciones obligatorias (7%) o una junta de revisión de IA (7%) toman decisiones éticas relacionadas con la IA. Las grandes empresas (mil millones de dólares o más de ingresos anuales) tenían más probabilidades de permitir que los trabajadores tomen decisiones independientes sobre el uso de IA que las empresas con menos de mil millones de dólares de ingresos anuales. La mayoría de los ejecutivos encuestados (76%) dijeron que su organización realiza capacitación ética en IA para su fuerza laboral, y el 63% dice que lo hacen para la junta directiva. Los trabajadores en las fases de construcción (69%) y de predesarrollo (49%) reciben capacitación en IA ética con menos frecuencia. “A medida que las organizaciones continúan explorando oportunidades con IA, es alentador observar cómo han surgido marcos de gobernanza en conjunto para empoderar a las fuerzas laborales para promover resultados éticos e impulsar un impacto positivo”, dijo Kwasi Mitchell, director de propósito y DEI de EE. UU. en Deloitte. “Al adoptar procedimientos diseñados para promover la responsabilidad y salvaguardar la confianza, los líderes pueden establecer una cultura de integridad e innovación que les permita aprovechar de manera efectiva el poder de la IA, al mismo tiempo que promueven la equidad e impulsan el impacto”. ¿Las organizaciones están contratando y mejorando las habilidades para roles de ética en IA? Los siguientes roles fueron contratados o son parte de los planes de contratación para las organizaciones encuestadas: Investigador de IA (59%). Analista de políticas (53%). Gerente de cumplimiento de IA (50%). Científico de datos (47%). Especialista en gobernanza de IA (40%). Ética de datos (34%). Ética de IA (27%). Muchos de esos profesionales (68%) provienen de programas internos de capacitación y perfeccionamiento. Menos aún han recurrido a fuentes externas, como programas tradicionales de contratación o certificación, y menos aún recurren a contrataciones en campus y colaboraciones con instituciones académicas. “En última instancia, las empresas deben tener la seguridad de que su tecnología es confiable para proteger la privacidad, la seguridad y el trato equitativo de sus usuarios, y está alineada con sus valores y expectativas”, dijo Ammanath. “Un enfoque eficaz de la ética de la IA debe basarse en las necesidades y valores específicos de cada organización, y las empresas que implementan marcos éticos estratégicos a menudo descubrirán que estos sistemas respaldan e impulsan la innovación, en lugar de obstaculizarla”.