Todo lo que necesitas saber sobre tecnología

Etiqueta: ética de la inteligencia artificial

Las empresas buscan equilibrar la innovación y la ética en la IA, según Deloitte

Las empresas buscan equilibrar la innovación y la ética en la IA, según Deloitte

A medida que la IA generativa se vuelve más popular, las organizaciones deben considerar cómo implementarla éticamente. Pero, ¿cómo es la implementación ética de la IA? ¿Implica controlar la inteligencia a nivel humano? ¿Prevenir el sesgo? ¿O ambas cosas? Para evaluar cómo las empresas abordan este tema, Deloitte encuestó recientemente a 100 ejecutivos de nivel C en empresas estadounidenses con entre $ 100 millones y $ 10 mil millones en ingresos anuales. Los resultados indicaron cómo los líderes empresariales incorporan la ética en sus políticas de IA generativa. Principales prioridades para la ética de la IA ¿Qué cuestiones éticas consideran más importantes estas organizaciones? Las organizaciones priorizaron las siguientes cuestiones éticas en el desarrollo y la implementación de la IA: Equilibrar la innovación con la regulación (62%). Garantizar la transparencia en cómo se recopilan y utilizan los datos (59%). Abordar las preocupaciones sobre la privacidad de los usuarios y los datos (56%). Garantizar la transparencia en cómo funcionan los sistemas empresariales (55%). Mitigar el sesgo en algoritmos, modelos y datos (52%). Garantizar que los sistemas funcionen de manera confiable y como se espera (47%). Las organizaciones con mayores ingresos (1.000 millones de dólares o más al año) tenían más probabilidades que las empresas más pequeñas de afirmar que sus marcos éticos y estructuras de gobernanza fomentan la innovación tecnológica. Los usos poco éticos de la IA pueden incluir la desinformación, especialmente crítica durante las temporadas electorales, y el refuerzo de los prejuicios y la discriminación. La IA generativa puede replicar los prejuicios humanos accidentalmente al copiar lo que ve, o los actores maliciosos pueden usar la IA generativa para crear intencionalmente contenido sesgado más rápidamente. Los actores de amenazas que utilizan correos electrónicos de phishing pueden aprovechar la velocidad de escritura de la IA generativa. Otros casos de uso potencialmente poco éticos pueden incluir la IA que toma decisiones importantes en la guerra o la aplicación de la ley. El gobierno de Estados Unidos y las principales empresas tecnológicas acordaron un compromiso voluntario en septiembre de 2023 que establece estándares para revelar el uso de la IA generativa y el contenido creado con ella. La Oficina de Política Científica y Tecnológica de la Casa Blanca publicó un plan para una Carta de Derechos de la IA, que incluye esfuerzos contra la discriminación. Las empresas estadounidenses que utilizan IA en determinadas escalas y para tareas de alto riesgo deben informar la información al Departamento de Comercio a partir de enero de 2024. VER: Comience con una plantilla para una Política de ética de IA. «Para cualquier organización que adopte IA, la tecnología presenta tanto el potencial de resultados positivos como el riesgo de resultados no deseados», dijo Beena Ammanath, directora ejecutiva del Global Deloitte AI Institute y líder de IA confiable en Deloitte, en un correo electrónico a TechRepublic. Más cobertura de IA de lectura obligada ¿Quién toma decisiones éticas de IA? En el 34% de los casos, las decisiones éticas de IA provienen de directores o títulos superiores. En el 24% de los casos, todos los profesionales toman decisiones de IA de forma independiente. En casos más raros, los líderes de negocios o departamentales (17%), gerentes (12%), profesionales con capacitación o certificaciones obligatorias (7%) o una junta de revisión de IA (7%) toman decisiones éticas relacionadas con la IA. Las grandes empresas (mil millones de dólares o más de ingresos anuales) tenían más probabilidades de permitir que los trabajadores tomen decisiones independientes sobre el uso de IA que las empresas con menos de mil millones de dólares de ingresos anuales. La mayoría de los ejecutivos encuestados (76%) dijeron que su organización realiza capacitación ética en IA para su fuerza laboral, y el 63% dice que lo hacen para la junta directiva. Los trabajadores en las fases de construcción (69%) y de predesarrollo (49%) reciben capacitación en IA ética con menos frecuencia. “A medida que las organizaciones continúan explorando oportunidades con IA, es alentador observar cómo han surgido marcos de gobernanza en conjunto para empoderar a las fuerzas laborales para promover resultados éticos e impulsar un impacto positivo”, dijo Kwasi Mitchell, director de propósito y DEI de EE. UU. en Deloitte. “Al adoptar procedimientos diseñados para promover la responsabilidad y salvaguardar la confianza, los líderes pueden establecer una cultura de integridad e innovación que les permita aprovechar de manera efectiva el poder de la IA, al mismo tiempo que promueven la equidad e impulsan el impacto”. ¿Las organizaciones están contratando y mejorando las habilidades para roles de ética en IA? Los siguientes roles fueron contratados o son parte de los planes de contratación para las organizaciones encuestadas: Investigador de IA (59%). Analista de políticas (53%). Gerente de cumplimiento de IA (50%). Científico de datos (47%). Especialista en gobernanza de IA (40%). Ética de datos (34%). Ética de IA (27%). Muchos de esos profesionales (68%) provienen de programas internos de capacitación y perfeccionamiento. Menos aún han recurrido a fuentes externas, como programas tradicionales de contratación o certificación, y menos aún recurren a contrataciones en campus y colaboraciones con instituciones académicas. “En última instancia, las empresas deben tener la seguridad de que su tecnología es confiable para proteger la privacidad, la seguridad y el trato equitativo de sus usuarios, y está alineada con sus valores y expectativas”, dijo Ammanath. “Un enfoque eficaz de la ética de la IA debe basarse en las necesidades y valores específicos de cada organización, y las empresas que implementan marcos éticos estratégicos a menudo descubrirán que estos sistemas respaldan e impulsan la innovación, en lugar de obstaculizarla”.

El informe de Thomson Reuters sobre el futuro de los profesionales muestra un optimismo cauteloso respecto de la IA en el ámbito jurídico

El informe de Thomson Reuters sobre el futuro de los profesionales muestra un optimismo cauteloso respecto de la IA en el ámbito jurídico

Hoy en día, se ha vuelto un estribillo común que la IA generativa puede encargarse de tareas más simples, pero tiene dificultades con las más difíciles. En ese caso, ¿cuánto ahorra realmente la IA generativa o mejora el rendimiento en el trabajo? Thomson Reuters, una empresa de servicios profesionales y tecnología en los campos del derecho, los impuestos, el cumplimiento normativo y más, exploró cómo los profesionales están utilizando la IA en su informe Future of Professionals 2024. Hablamos con el director de productos de Thomson Reuters, David Wong, sobre la IA generativa en el lugar de trabajo en una entrevista exclusiva sobre la publicación del informe. Thomson Reuters encuestó a 2205 profesionales de los sectores legal, fiscal, de riesgo y cumplimiento normativo en todo el mundo. El informe no especificó la inteligencia artificial generativa cuando preguntó sobre la IA, pero las capacidades analizadas en el informe a menudo se relacionan con la IA generativa. En la conversación con Wong, utilizamos IA como un término general para los modelos generativos que pueden redactar imágenes o texto. El porcentaje de profesionales que cree que la IA será «transformadora» aumentó un 10% El informe fue en gran medida optimista sobre la IA, y se espera que la inteligencia artificial libere tiempo. Y el 77% de los encuestados dijo que cree que la IA tendrá un «impacto alto o transformador en su trabajo durante los próximos cinco años»; ese número aumentó un 10% con respecto al informe del año pasado. «Me sorprendió un poco que aumentara la relevancia estratégica, porque podría haber pensado el año pasado cuando ChatGPT y GPT-4 aparecieron en escena que el ciclo de exageración estaría en su apogeo y que la gente estaría tan emocionada», dijo Wong. Sin embargo, el interés en la relevancia estratégica de la IA se extendió principalmente de los bufetes de abogados a casi todas las industrias a las que sirve Thomson Reuters. Entonces, dijo Wong, los números más altos podrían reflejar un interés más amplio en todas las industrias en lugar de un interés intensificado de los bufetes de abogados. La división entre aquellos que son muy cautelosos con la IA y aquellos que son muy ambiciosos con la IA Wong señaló que hay una división interesante entre las personas que son cautelosas y las personas que son ambiciosas en términos de IA generativa. En el informe, esto aparece como una pregunta en la que Thomson Reuters preguntó: “En un año, tres años y cinco años, aproximadamente qué porcentaje del trabajo que actualmente produce su equipo cree que será [performed by either humans or AI].” La encuesta proporcionó cuatro posibles respuestas (un espectro de trabajo dirigido por IA o dirigido por humanos) para determinar si los profesionales eran cautelosos o ambiciosos sobre el uso de la tecnología de IA para el trabajo. Encontraron que el 13% de los profesionales caían en la categoría de “cautelosos”, pensando que un bajo porcentaje del trabajo será realizado por asistentes de IA incluso dentro de cinco años. El otro extremo era la categoría de “ambiciosos”, en la que el 19% de los profesionales predijo que la IA hará una gran parte de su trabajo dentro de cinco años. “Muchos profesionales se han dado cuenta de cuál es la implicación práctica, la realidad de gran parte de la tecnología”, dijo Wong. “Y en base a esa experimentación que ocurrió durante los últimos 12 meses aproximadamente, ahora estamos empezando a ver a esos profesionales traducir la experimentación en implementación”. ¿Qué tareas no puede realizar la IA? Las expectativas para la IA generativa fueron muy altas en 2023, pero es probable que vuelvan a bajar antes de estabilizarse, según Gartner. Para los profesionales del derecho y los demás puestos de trabajo que se tratan en el informe de Thomson Reuters, “las soluciones de IA son extremadamente buenas en cualquier tipo de tarea en la que se pueda proporcionar, francamente, un conjunto bastante bueno de instrucciones”, dijo Wong. Ese tipo de tarea incluye la investigación, el resumen de documentos o “la investigación de conceptos de alto nivel que no requieren citas legales específicas”, como dijo uno de los encuestados en el informe. Lo que la IA no puede hacer es tomar decisiones por sí misma. Las empresas de IA quieren que, con el tiempo, pueda hacer esto; de hecho, llevar a cabo acciones de forma autónoma en nombre de un usuario es el nivel 3 de 5 en las nuevas clasificaciones de capacidades de IA de OpenAI. Pero la IA aún no ha llegado a ese punto, y Wong señaló que, para las industrias de Thomson Reuters, este problema es una cuestión tanto de las capacidades de la tecnología como de la confianza que la gente deposita en ella. VER: Una organización de datos empresariales moderna necesita los miembros del equipo humano adecuados para prosperar. “Creo que la IA realmente no ha podido llegar a un punto, al menos en términos de confianza, para poder tomar decisiones por sí misma”, dijo Wong. En muchos casos, dijo Wong, la IA «no funciona tan bien como los revisores humanos, excepto en las cosas más simples». Según el informe, el 83% de los profesionales legales, el 43% de los profesionales de riesgo, fraude y cumplimiento y el 35% de los profesionales de impuestos piensan que «utilizar la IA para brindar asesoramiento o recomendaciones estratégicas» es «éticamente… un paso demasiado lejos». La mayoría de los encuestados (el 95% de los encuestados legales y fiscales) piensan que «permitir que la IA represente a los clientes en los tribunales o tome decisiones finales sobre asuntos legales, fiscales, de riesgo, fraude y cumplimiento complejos» sería «un paso demasiado lejos». «Si haces la pregunta ‘¿qué probabilidad crees que la IA tomaría la decisión correcta o una decisión tan buena como la de un humano?’ Creo que la respuesta en realidad sería potencialmente diferente a ‘¿es ético?'», dijo Wong. Más cobertura de IA de lectura obligada ¿Todos tendrán un asistente de IA dentro de cinco años? A pesar de estos reparos, Thomson Reuters hizo una afirmación audaz en el informe de que «Todos los profesionales tendrán un asistente genAI dentro de cinco años». Ese asistente funcionará como un miembro del equipo humano y realizará tareas complejas, predijeron. Wong señaló que parte del optimismo proviene de cifras puras. La cantidad de empresas que ofrecen productos de IA se ha disparado en los últimos dos años, incluidos los gigantescos fabricantes de teléfonos inteligentes. “Casi todo el mundo que tiene un iPhone 15 o superior e iOS 18 tendrá un sistema de IA en su bolsillo”, dijo Wong. “Y estoy seguro de que en un par de años más, en cada nueva versión y en cada dispositivo Apple podrás tener acceso a ese asistente. Microsoft también ha estado implementando Copilot de manera muy agresiva. Creo que, en unos años, será bastante difícil tener una versión de Microsoft 365 que no tenga Copilot”. VER: Aprenda todo lo que necesita saber sobre Microsoft Copilot con la hoja de trucos de TechRepublic. Además de usar potencialmente la IA para crear, analizar o resumir contenido, las organizaciones están considerando cómo su producto o proceso de producción podría cambiar usando la IA. Según el informe, la mayoría de los encuestados de la alta dirección consideran que la IA influye más fuertemente en su estrategia operativa (59%) y en su estrategia de producto/servicio (53%). “Creo que eso es lo que prácticamente todas las empresas están considerando en este momento, que las operaciones de una empresa tienen mucho trabajo rutinario y repetitivo que se podría describir con un manual de instrucciones”, dijo Wong. Esas tareas repetitivas son ideales para la IA. En el campo legal, dijo, la IA podría cambiar el proceso de las empresas para presentar documentos reglamentarios o estatutarios. Cómo es una IA responsable y de «nivel profesional» Los encuestados del informe tenían ideas variadas sobre lo que constituía un uso responsable de la IA en el trabajo. Muchos consideraban que la seguridad de los datos era una parte clave del uso responsable de la IA. Otros valoraban: La seguridad de los datos en el paso de solicitud o consulta. La revisión obligatoria de los resultados por parte de un profesional humano. El cuidado en términos de para qué tareas se pueden utilizar las tecnologías impulsadas por IA. La transparencia en las fuentes de datos de las que se han extraído las respuestas. “Si alguien dice que [generative AI is] “Si los sistemas de IA responsables que se utilizan en entornos profesionales son perfectos, sin alucinaciones, sin errores, entonces están engañados o la afirmación debería ser objeto de un escrutinio minucioso”, dijo Wong. “Sin embargo, lo que se quiere es tener transparencia en el rendimiento”. Los sistemas de IA responsables que se utilizan en entornos profesionales deben basarse en contenido validado, ser medibles y poder citar sus referencias, dijo. Deben construirse teniendo en cuenta la seguridad, la fiabilidad y la confidencialidad. ChatGPT es “el peor ejemplo de una solución de IA generativa para profesionales porque no satisface esas necesidades”, dijo Wong. “Pero, de hecho, se puede diseñar un ChatGPT que sea seguro para la privacidad y respete la confidencialidad y que no se entrene con datos. Esas son opciones de diseño de los sistemas. No son inherentes a la IA”.

Funciona con WordPress & Tema de Anders Norén

d567 d567 d567 d567 d567 d567 d567 d567 d567 d567 d567 d567 d567 d567 d567 d567 d567 d567 d567 d567 d567 d567 d567 d567 d567 d567 d567 d567 d567 d567