Todo lo que necesitas saber sobre tecnología

Etiqueta: ética de la IA

Si bien aumenta la adopción empresarial de la IA, las barreras limitan su uso

Alrededor del 42% de las empresas de escala empresarial informan haber implementado activamente inteligencia artificial en sus negocios y, de ellas, el 59% ha acelerado su implementación o inversiones en la tecnología, según el Índice Global de Adopción de IA 2023 de IBM. de 1.000 empleados. «Herramientas de IA más accesibles, el impulso hacia la automatización de procesos clave y cantidades cada vez mayores de IA integrada en aplicaciones comerciales listas para usar son los principales factores que impulsan la expansión de la IA a nivel empresarial», afirmó Rob Thomas, vicepresidente senior de IBM Software, en un comunicado. «Vemos organizaciones que aprovechan la IA para casos de uso en los que creo que la tecnología puede tener un impacto profundo más rápidamente, como la automatización de TI, la mano de obra digital y la atención al cliente», afirmó. Aunque la investigación reveló que el 40% de las empresas encuestadas siguen “estancadas en la zona de pruebas”, Thomas dijo que confía en que superarán barreras como la brecha de habilidades y la complejidad de los datos este año. Qué está impulsando la adopción de la IA Los principales factores que impulsan la adopción de la IA son: Avances en las herramientas de IA que las hacen más accesibles (45%). La necesidad de reducir costes y automatizar procesos clave (42%). La creciente cantidad de IA integrada en aplicaciones empresariales estándar (37%). La mayoría de las empresas encuestadas (59%) que implementan o exploran activamente la IA han acelerado su implementación o inversiones en los últimos 24 meses. Las principales inversiones en IA para las organizaciones que exploran o implementan IA se realizan en investigación y desarrollo (44%) y recapacitación/desarrollo de la fuerza laboral (39%). Para los profesionales de TI, las dos mejoras más importantes de la IA en los últimos años son herramientas que son más fáciles de implementar (43%) y la mayor prevalencia de datos, IA y habilidades de automatización (42%). Los servicios financieros son una de las industrias más maduras en la adopción de IA, seguida de las telecomunicaciones, dijo un portavoz de IBM a TechRepublic. Más estadísticas del Índice global de adopción de IA de IBM 2023 La investigación también encontró que: Más de un tercio de los profesionales de TI empresariales (38%) informan que su empresa está implementando activamente IA generativa y otro 42% la está explorando. Organizaciones en India (59%), China (50%), Singapur (53%) y los Emiratos Árabes Unidos (58%) están liderando el uso activo de la IA, en comparación con mercados rezagados como España (28%), Australia ( 29%) y Francia (26%). Las empresas dentro de la industria de servicios financieros tienen más probabilidades de utilizar IA, y aproximadamente la mitad de los profesionales de TI en esa industria informan que su empresa ha implementado IA activamente. Dentro de la industria de las telecomunicaciones, el 37% de los profesionales de TI afirman que su empresa está implementando IA. El principal caso de uso de la IA es la automatización. Los casos de uso de la IA que están impulsando la adopción por parte de las empresas encuestadas que actualmente exploran o implementan la IA abarcan muchas áreas clave de las operaciones comerciales. En particular, la automatización es el principal caso de uso en varias áreas, entre ellas: Procesos de TI (33%). Procesamiento, comprensión y flujo de documentos (24%). Respuestas y acciones de autoservicio de clientes o empleados (23%). Procesos de negocio (22%). Procesos de red (22%). Otras áreas donde se utiliza la IA incluyen: Seguridad y detección de amenazas (26%). Monitoreo o gobernanza de la IA (25%). Analítica o inteligencia empresarial (24%). Trabajo digital (22%). Marketing y ventas (22%). Detección de fraude (22%). Búsqueda y descubrimiento de conocimiento (21%). Recursos humanos y adquisición de talento (19%). Planificación y análisis financiero (18%). Inteligencia de la cadena de suministro (18%). Las principales barreras para el uso de la IA El cuarenta por ciento de las empresas encuestadas están explorando o experimentando con la IA, pero no han implementado sus modelos. Las principales barreras que impiden el despliegue incluyen habilidades y experiencia limitadas en IA (33%), demasiada complejidad de datos (25%) y preocupaciones éticas (23%), dijo la compañía. La IA generativa plantea barreras de entrada diferentes a las de los modelos tradicionales de IA, señala el informe. Por ejemplo, los profesionales de TI de las organizaciones encuestadas que no exploran ni implementan la IA generativa informaron que las preocupaciones sobre la privacidad de los datos (57%) y la confianza y la transparencia (43%) son los mayores inhibidores de la IA generativa. Otro 35% también dijo que la falta de habilidades para la implementación es un gran inhibidor, según el informe. Cómo abordar las barreras de entrada de la IA Un portavoz de IBM dijo: “Las empresas deben establecer estrategias de IA que definan claramente los problemas que quieren resolver, asegurarse de tener los datos correctos en el lugar correcto para impulsar esos resultados, superar las brechas de habilidades seleccionando las personas y las herramientas de automatización adecuadas, e incorporar la gobernanza de la IA desde el inicio de su proceso de adopción”. Para algunas organizaciones, el mejor enfoque podría ser comenzar con algo pequeño y específico. “En 2024, esperamos que los líderes empresariales comiencen a analizar y probar la IA caso por caso y no a grandes rasgos”, dijo el portavoz, “asumiendo que la tecnología es la herramienta adecuada para resolver cada problema. Las empresas que utilicen IA por primera vez utilizarán asistentes de IA disponibles en el mercado creados para necesidades empresariales específicas”. El impacto de la IA en la fuerza laboral Entre las organizaciones encuestadas, una de cada cinco informó que no tiene empleados con las habilidades adecuadas para usar nuevas herramientas de IA o automatización, y el 16% no puede encontrar nuevos empleados con las habilidades para abordar esa brecha. Las empresas que utilizan la IA para abordar la escasez de mano de obra o habilidades dijeron que están recurriendo a la IA para reducir las tareas manuales o repetitivas con herramientas de automatización (55%) o automatizar las respuestas y acciones de autoservicio del cliente (47%). Solo el 34% dijo que está capacitando o recapacitando a los empleados para que trabajen juntos con nuevas herramientas de automatización e inteligencia artificial. La importancia de una IA gobernada y confiable Según el informe de IBM, los profesionales de TI comprenden la necesidad de una IA gobernada y confiable, pero las barreras antes mencionadas dificultan que las empresas encuestadas la pongan en práctica. Por ejemplo, la investigación encontró que los profesionales de TI están de acuerdo en general en que es más probable que los consumidores elijan servicios de empresas con prácticas de IA transparentes y éticas (el 85% está totalmente o algo de acuerdo). Dijeron que la capacidad de explicar cómo su IA llegó a una decisión es importante para su negocio (83% entre las empresas que exploran o implementan IA). Sin embargo, un hallazgo sorprendente fue que, aunque muchas empresas que ya implementan IA se enfrentan a múltiples barreras en el proceso, mucho menos de la mitad informó que están tomando medidas clave hacia una IA confiable, como por ejemplo: Reducir el sesgo (27%). Seguimiento de la procedencia de los datos (37%). Asegurándose de que puedan explicar las decisiones de sus modelos de IA (41%). Desarrollar políticas éticas de IA (44%). La reducción del sesgo comienza con la gobernanza, afirmó el portavoz de IBM. «Para aprovechar todo el potencial de la IA y reducir los sesgos, los datos y las herramientas de gobernanza de la IA son esenciales para escalar modelos manteniendo al mismo tiempo la equidad, la transparencia y el cumplimiento», dijo el portavoz. «Sin estas salvaguardas, los resultados de la IA pueden ser sesgados, discriminatorios o, a veces, simplemente incorrectos», añadió el portavoz. Sin el uso de herramientas de gobernanza, la IA puede exponer a las empresas a varios problemas de privacidad de datos, incluida la filtración de datos privados y confidenciales o la infracción de derechos de autor. Las organizaciones también corren el riesgo de sufrir complicaciones legales y dilemas éticos, por lo que incorporar la gobernanza desde el principio puede ayudar a evitar problemas posteriores. Metodología de encuesta de IBM IBM dijo que la encuesta se realizó en noviembre de 2023 entre una muestra representativa de 8.584 profesionales de TI en Australia, Canadá, China, Francia, Alemania, India, Italia, Japón, Singapur, Corea del Sur, España, Emiratos Árabes Unidos, Reino Unido, Estados Unidos y LATAM.

Source link

Las principales tiendas de IA no pasan la prueba de transparencia


En julio y septiembre, 15 de las mayores empresas de IA firmaron los compromisos voluntarios de la Casa Blanca para gestionar los riesgos que plantea la IA. Entre esos compromisos estaba la promesa de ser más transparentes: compartir información “en toda la industria y con los gobiernos, la sociedad civil y el mundo académico” e informar públicamente sobre las capacidades y limitaciones de sus sistemas de IA. Todo lo cual suena muy bien en teoría, pero ¿qué significa en la práctica? ¿Qué es exactamente la transparencia cuando se trata de los modelos masivos y poderosos de estas empresas de IA? Gracias a un informe encabezado por el Centro de Investigación sobre Modelos de Cimientos (CRFM) de Stanford, ahora tenemos respuestas a esas preguntas. Los modelos básicos que les interesan son creaciones de propósito general como GPT-4 de OpenAI y PaLM 2 de Google, que se entrenan con una enorme cantidad de datos y pueden adaptarse para muchas aplicaciones diferentes. El Índice de Transparencia de Modelos de la Fundación calificó 10 de los modelos más importantes en 100 métricas diferentes de transparencia. La puntuación total más alta es para Meta’s Llama 2, con 54 sobre 100. No les fue tan bien. La puntuación total más alta es para Meta’s Llama 2, con 54 sobre 100. En la escuela, eso se consideraría una calificación reprobatoria. «Ningún desarrollador importante de modelos básicos está cerca de proporcionar una transparencia adecuada», escribieron los investigadores en una publicación de blog, «lo que revela una falta fundamental de transparencia en la industria de la IA». Rishi Bommasani, candidato a doctorado en el CRFM de Stanford y uno de los líderes del proyecto , afirma que el índice es un esfuerzo por combatir una tendencia preocupante de los últimos años. «A medida que aumenta el impacto, la transparencia de estos modelos y empresas disminuye», afirma. En particular, cuando OpenAI actualizó de GPT-3 a GPT-4, la compañía escribió que había tomado la decisión de retener toda la información sobre «arquitectura (incluido el tamaño del modelo), hardware, computación de entrenamiento, construcción de conjuntos de datos, [and] método de entrenamiento”. Las 100 métricas de transparencia (enumeradas en su totalidad en la publicación del blog) incluyen factores ascendentes relacionados con el entrenamiento, información sobre las propiedades y la función del modelo, y factores descendentes relacionados con la distribución y el uso del modelo. «No es suficiente, como han pedido muchos gobiernos, que una organización sea transparente cuando publica el modelo», dice Kevin Klyman, asistente de investigación en el CRFM de Stanford y coautor del informe. «También tiene que ser transparente sobre los recursos que se destinan a ese modelo, las evaluaciones de las capacidades de ese modelo y lo que sucede después del lanzamiento». Para calificar los modelos según los 100 indicadores, los investigadores buscaron en los datos disponibles públicamente. , dando a los modelos un 1 o 0 en cada indicador según umbrales predeterminados. Luego hicieron un seguimiento con las 10 empresas para ver si querían impugnar alguna de las puntuaciones. “En algunos casos, se nos pasó por alto alguna información”, dice Bommasani. Spectrum se puso en contacto con representantes de una variedad de empresas que aparecen en este índice; Ninguno de ellos había respondido a las solicitudes de comentarios al cierre de nuestra fecha límite. “El trabajo en IA es un tema habitualmente opaco. Y aquí es muy opaco, incluso más allá de las normas que hemos visto en otras áreas”.—Rishi Bommasani, Stanford La procedencia de los datos de entrenamiento para los modelos básicos se ha convertido en un tema candente, con varias demandas que alegan que las empresas de IA incluyeron ilegalmente material protegido por derechos de autor de los autores. en sus conjuntos de datos de entrenamiento. Y tal vez no sea sorprendente que el índice de transparencia mostrara que la mayoría de las empresas no han sido comunicativas con respecto a sus datos. El modelo Bloomz del desarrollador Hugging Face obtuvo la puntuación más alta en esta categoría, con un 60 por ciento; Ninguno de los otros modelos obtuvo una puntuación superior al 40 por ciento y varios obtuvieron un cero. Un mapa de calor muestra cómo les fue a los 10 modelos en categorías que van desde datos hasta impacto. Centro Stanford para la Investigación sobre Modelos de Fundación Las empresas también guardaron silencio sobre el tema del trabajo, lo cual es relevante porque los modelos requieren trabajadores humanos para perfeccionar sus modelos. Por ejemplo, OpenAI utiliza un proceso llamado aprendizaje reforzado con retroalimentación humana para enseñar a modelos como GPT-4 qué respuestas son más apropiadas y aceptables para los humanos. Pero la mayoría de los desarrolladores no hacen pública la información sobre quiénes son esos trabajadores humanos y qué salarios les pagan, y existe la preocupación de que esta mano de obra se esté subcontratando a trabajadores con salarios bajos en lugares como Kenia. «El trabajo en IA es un tema habitualmente opaco», dice Bommasani, «y aquí es muy opaco, incluso más allá de las normas que hemos visto en otras áreas». Hugging Face es uno de los tres desarrolladores del índice que los investigadores de Stanford consideraron » open”, lo que significa que los pesos de los modelos se pueden descargar ampliamente. Los tres modelos abiertos (Llama 2 de Meta, Hugging Face’s Bloomz y Stable Diffusion de Stability AI) lideran actualmente el camino en transparencia, con una puntuación mayor o igual que el mejor modelo cerrado. Si bien esos modelos abiertos obtuvieron puntos de transparencia, no todos creen que sean los actores más responsables en el campo. Actualmente existe una gran controversia sobre si modelos tan poderosos deberían ser de código abierto y, por lo tanto, potencialmente disponibles para los malos actores; Hace apenas unas semanas, los manifestantes llegaron a la oficina de Meta en San Francisco para denunciar la “proliferación irreversible” de tecnología potencialmente insegura. Bommasani y Klyman dicen que el grupo de Stanford está comprometido a mantenerse al día con el índice y planean actualizarlo al menos una vez al año. El equipo espera que los responsables políticos de todo el mundo recurran al índice a la hora de elaborar legislación sobre la IA, ya que en muchos países se están realizando esfuerzos regulatorios. Si las empresas obtienen mejores resultados en materia de transparencia en las 100 áreas diferentes destacadas por el índice, dicen, los legisladores tendrán una mejor idea de qué áreas requieren intervención. «Si hay una opacidad generalizada en los impactos laborales y posteriores», dice Bommasani, «esto les da a los legisladores cierta claridad de que tal vez deberían considerar estas cosas». Es importante recordar que incluso si un modelo hubiera obtenido una puntuación alta de transparencia en el índice actual, Eso no significaría necesariamente que fuera un modelo de virtud de la IA. Si una empresa revelara que un modelo fue entrenado con material protegido por derechos de autor y refinado por trabajadores a los que se les paga menos del salario mínimo, aún ganaría puntos por la transparencia sobre los datos y la mano de obra. «Estamos tratando de sacar a la luz los hechos» como primer paso, dice Bommasani. «Una vez que haya transparencia, habrá mucho más trabajo por hacer».

Source link

Funciona con WordPress & Tema de Anders Norén