Todo lo que necesitas saber sobre tecnología

Etiqueta: deloitte

Un 50% más de profesionales clasifican la privacidad de los datos como una de las principales preocupaciones de GenAI en 2024

Un 50% más de profesionales clasifican la privacidad de los datos como una de las principales preocupaciones de GenAI en 2024

Las preocupaciones sobre la privacidad de los datos en relación con la IA generativa han aumentado, según un nuevo informe de Deloitte. Mientras que el año pasado sólo el 22% de los profesionales la situaban entre sus tres principales preocupaciones, este año la cifra ha aumentado hasta el 72%. Las siguientes preocupaciones éticas de GenAI fueron la transparencia y la procedencia de los datos, y el 47% y el 40% de los profesionales las clasificaron entre las tres principales este año. Mientras tanto, sólo el 16% expresó preocupación por el desplazamiento de puestos de trabajo. El personal siente cada vez más curiosidad por saber cómo funciona la tecnología de inteligencia artificial, especialmente en lo que respecta a los datos confidenciales. Un estudio de septiembre realizado por HackerOne encontró que casi la mitad de los profesionales de seguridad creen que la IA es riesgosa, y muchos ven los datos de entrenamiento filtrados como una amenaza. De manera similar, el 78 % de los líderes empresariales clasificaron “seguro y protegido” como uno de sus tres principios tecnológicos éticos principales, lo que representa un aumento del 37 % con respecto a 2023, lo que demuestra aún más cómo la cuestión de la seguridad es una prioridad. Los resultados de la encuesta provienen del informe “Estado de la ética y la confianza en la tecnología” de 2024 de Deloitte, que encuestó a más de 1.800 profesionales técnicos y empresariales de todo el mundo sobre los principios éticos que aplican a las tecnologías, específicamente a GenAI. Es probable que los incidentes de seguridad de IA de alto perfil atraigan más atención. Poco más de la mitad de los encuestados en los informes de este año y del año pasado dijeron que las tecnologías cognitivas como la IA y la GenAI plantean los mayores riesgos éticos en comparación con otras tecnologías emergentes, como la realidad virtual, la computación cuántica, vehículos autónomos y robótica. Este nuevo enfoque puede estar relacionado con una mayor conciencia de la importancia de la seguridad de los datos debido a incidentes muy publicitados, como cuando un error en ChatGPT de OpenAI expuso datos personales de alrededor del 1,2% de los suscriptores de ChatGPT Plus, incluidos nombres, correos electrónicos y datos parciales. detalles de pago. La confianza en el chatbot seguramente también se vio erosionada por la noticia de que los piratas informáticos habían irrumpido en un foro en línea utilizado por los empleados de OpenAI y habían robado información confidencial sobre los sistemas de inteligencia artificial de la empresa. VER: Política de ética de la inteligencia artificial «La disponibilidad y adopción generalizada de GenAI puede haber aumentado la familiaridad y la confianza de los encuestados en la tecnología, generando optimismo sobre su potencial para el bien», dijo Beena Ammanath, Global Deloitte AI Institute y líder de Trustworthy AI, en un presione soltar. «Los continuos sentimientos de cautela sobre sus riesgos aparentes subrayan la necesidad de marcos éticos específicos y evolucionados que permitan un impacto positivo». Más cobertura de IA de lectura obligada La legislación sobre IA está afectando la forma en que operan las organizaciones en todo el mundo Naturalmente, más personal está usando GenAI en el trabajo que el año pasado, y el porcentaje de profesionales que informan que lo usan internamente aumentó un 20% en los informes año tras año de Deloitte. . Un enorme 94% dijo que sus empresas lo han inculcado en los procesos de alguna manera. Sin embargo, la mayoría indicó que todavía se encuentra en la fase piloto o que su uso es limitado, y sólo el 12% dijo que su uso está generalizado. Esto se alinea con una investigación reciente de Gartner que encontró que la mayoría de los proyectos GenAI no pasan de la etapa de prueba de concepto. VER: IBM: Mientras aumenta la adopción empresarial de la inteligencia artificial, las barreras limitan su uso Independientemente de su omnipresencia, los tomadores de decisiones quieren asegurarse de que su uso de la IA no les cause problemas, particularmente en lo que respecta a la legislación. La razón mejor calificada para contar con políticas y directrices tecnológicas éticas fue el cumplimiento, citada por el 34% de los encuestados, mientras que las sanciones regulatorias estuvieron entre las tres principales preocupaciones reportadas si no se siguen dichos estándares. La Ley de IA de la UE entró en vigor el 1 de agosto e impone requisitos estrictos a los sistemas de IA de alto riesgo para garantizar la seguridad, la transparencia y el uso ético. El incumplimiento podría dar lugar a multas que van desde 35 millones de euros (38 millones de dólares) o el 7% de la facturación global hasta 7,5 millones de euros (8,1 millones de dólares) o el 1,5% de la facturación. Más de cien empresas, incluidas Amazon, Google, Microsoft y OpenAI, ya firmaron el Pacto de IA de la UE y se ofrecieron voluntariamente para comenzar a implementar los requisitos de la ley antes de los plazos legales. Esto demuestra su compromiso con el despliegue responsable de la IA al público y les ayuda a evitar futuros desafíos legales. De manera similar, en octubre de 2023, Estados Unidos dio a conocer una Orden Ejecutiva sobre IA que presenta una amplia orientación sobre el mantenimiento de la seguridad, los derechos civiles y la privacidad dentro de las agencias gubernamentales, al tiempo que promueve la innovación y la competencia en IA en todo el país. Si bien no es una ley, muchas empresas operativas en EE. UU. pueden realizar cambios de política en respuesta para garantizar el cumplimiento de la evolución de la supervisión federal y las expectativas públicas sobre la seguridad de la IA. VER: Los países del G7 establecen un código de conducta voluntario sobre IA La Ley de IA de la UE ha tenido influencia en Europa, y el 34% de los encuestados europeos dijeron que sus organizaciones habían realizado cambios en el uso de la IA durante el último año en respuesta. Sin embargo, el impacto es más generalizado, ya que el 26% de los encuestados del sur de Asia y el 16% de los encuestados de América del Norte y del Sur también hicieron cambios debido a la promulgación de la ley. Además, el 20% de los encuestados con sede en EE. UU. dijeron que habían realizado cambios en sus organizaciones en respuesta a la orden ejecutiva. Una cuarta parte de los encuestados del sur de Asia, el 21% de América del Sur y el 12% de Europa dijeron lo mismo. «Se reconoce que las tecnologías cognitivas como la IA tienen el mayor potencial para beneficiar a la sociedad y el mayor riesgo de uso indebido», escribieron los autores del informe. “La adopción acelerada de GenAI puede estar superando la capacidad de las organizaciones para gestionar la tecnología. Las empresas deben priorizar tanto la implementación de estándares éticos para GenAI como una selección significativa de casos de uso a los que se aplican las herramientas GenAI”.

Los proyectos de IA generativa fracasan debido a los altos costos y riesgos

Los proyectos de IA generativa fracasan debido a los altos costos y riesgos

A pesar de la promesa de que la inteligencia artificial transformará las industrias, el aumento de los costos y los riesgos cada vez mayores están haciendo que muchos proyectos de IA fracasen, como lo destacan varios informes recientes. Al menos el 30% de los proyectos de IA generativa se abandonarán después de la etapa de prueba de concepto para fines de 2025, según un nuevo informe de Gartner. Las empresas están «luchando por demostrar y obtener valor» en sus esfuerzos, que cuestan entre 5 y 20 millones de dólares en inversiones iniciales. Un informe independiente de Deloitte proporcionó un resultado similar. De las 2.770 empresas encuestadas, el 70% dijo que solo ha trasladado el 30% o menos de sus experimentos de GenAI a la etapa de producción. La falta de preparación y los problemas relacionados con los datos se atribuyen a esta baja tasa de éxito. Las perspectivas generales para los proyectos de IA no son optimistas. Una investigación del grupo de expertos RAND descubrió que, a pesar de que las inversiones del sector privado en IA se multiplicaron por 18 entre 2013 y 2022, más del 80% de los proyectos de IA fracasan, el doble de la tasa de fracaso en los proyectos de TI corporativos que no involucran IA. La disparidad en el respaldo financiero y la finalización es un probable contribuyente a que las «Siete Magníficas» empresas tecnológicas (NVIDIA, Meta, Alphabet, Microsoft, Amazon, Tesla y Apple) pierdan un total de 1,3 billones de dólares en acciones en cinco días el mes pasado. VER: Casi 1 de cada 10 empresas gastará más de 25 millones de dólares en iniciativas de IA en 2024, según el informe de Searce Se requieren altas inversiones iniciales en proyectos GenAI antes de que se obtengan beneficios El uso de una API GenAI (una interfaz que permite a los desarrolladores integrar modelos GenAI en sus aplicaciones) podría costar hasta 200.000 dólares por adelantado y 550 dólares adicionales por usuario al año, estima Gartner. Además, crear o ajustar un modelo personalizado puede costar entre 5 y 20 millones de dólares, más entre 8.000 y 21.000 dólares por usuario al año. La inversión media en IA de los líderes mundiales de TI fue de 879.000 dólares el año pasado, según un informe del proveedor de software de automatización ABBYY. Casi todos (el 96%) de los encuestados dijeron que aumentarían estas inversiones el próximo año, a pesar de que un tercio afirmó que les preocupan estos altos costos. Los analistas de Gartner escribieron que GenAI «requiere una mayor tolerancia a los criterios de inversión financiera indirecta y futura frente al retorno inmediato de la inversión», con lo que «muchos directores financieros no se han sentido cómodos». Pero no son solo los directores financieros los que tienen preocupaciones sobre el retorno de la inversión de los esfuerzos de IA. Los inversores de las empresas tecnológicas más grandes del mundo han expresado recientemente dudas sobre cuándo, o si, su respaldo dará sus frutos. Jim Covello, analista de acciones de Goldman Sachs, escribió en un informe de junio: «A pesar de su elevado precio, la tecnología no está ni cerca de donde necesita estar para ser útil». VER: Las nuevas empresas tecnológicas del Reino Unido sufren su primera caída desde 2022, un 11% este trimestre Además, los valores de mercado de Alphabet y Google disminuyeron en agosto, ya que sus ingresos no compensaron sus inversiones en infraestructura de IA. Más cobertura de IA de lectura obligada Otras causas del fracaso de los proyectos GenAI ¿Una de las principales razones del fracaso en el lanzamiento de proyectos GenAI empresariales? La falta de preparación. Menos de la mitad de los encuestados por Deloitte sintieron que sus organizaciones estaban muy preparadas en las áreas de infraestructura tecnológica y gestión de datos, ambos elementos básicos necesarios para ampliar los proyectos de IA a un nivel en el que se puedan obtener beneficios. El estudio de RAND también descubrió que las organizaciones a menudo no tienen la «infraestructura adecuada para gestionar sus datos e implementar modelos de IA completos». Solo alrededor de 1 de cada 5 encuestados de Deloitte indicó preparación en las áreas de «talento» y «riesgo y gobernanza», y muchas organizaciones están contratando o mejorando activamente las habilidades para roles de ética de IA como resultado. VER: El 83% de las empresas del Reino Unido aumentan los salarios para las habilidades de IA La calidad de los datos representa un obstáculo adicional para ver los proyectos GenAI hasta su finalización. El estudio de Deloitte encontró que el 55% de las empresas han evitado ciertos casos de uso de GenAI debido a problemas relacionados con los datos, como la confidencialidad de los datos o las preocupaciones sobre su privacidad y seguridad. La investigación de RAND también destacó que muchas organizaciones no tienen los datos necesarios para entrenar un modelo efectivo. A través de entrevistas con 65 científicos e ingenieros de datos, los analistas de RAND descubrieron que la causa principal del fracaso del proyecto de IA implica una falta de claridad sobre el problema que promete resolver. Las partes interesadas de la industria a menudo malinterpretan o comunican mal este problema, o eligen uno que es demasiado complicado de resolver con la tecnología. La organización también puede estar más enfocada en emplear la «última y mejor tecnología» que en resolver realmente el problema en cuestión. Otras preocupaciones que pueden contribuir al fracaso del proyecto GenAI citadas por Deloitte incluyen el riesgo inherente de la IA (alucinaciones, sesgo, preocupaciones sobre la privacidad) y mantenerse al día con las nuevas regulaciones como la Ley de IA de la UE. Las empresas se mantienen firmes en su búsqueda de nuevos proyectos GenAI A pesar de las bajas tasas de éxito, el 66% de los CIO con sede en EE. UU. están en proceso de implementar copilotos GenAI, en comparación con el 32% en diciembre, según un informe de Bloomberg. El principal caso de uso citado fueron los agentes de chatbot, como para aplicaciones de servicio al cliente. El porcentaje de encuestados que afirmó que actualmente estaban entrenando modelos base también aumentó del 26% al 40% en el mismo período. El informe de RAND proporcionó evidencia de que las empresas no estaban reduciendo sus esfuerzos en GenAI como resultado de los desafíos para lograr que avanzaran. Según una encuesta, el 58% de las corporaciones medianas ya han implementado al menos un modelo de IA en producción. Impulsando esta perseverancia continua en GenAI hay algunos impactos tangibles en el ahorro de ingresos y la productividad, según Gartner. Mientras tanto, dos tercios de las organizaciones encuestadas por Deloitte dijeron que están aumentando sus inversiones porque han visto un fuerte valor inicial. Sin embargo, la investigación de ABBYY encontró que el 63% de los líderes de TI globales están preocupados de que su empresa se quede atrás si no la usan. Incluso hay evidencia de que GenAI se está convirtiendo en una distracción. Según IBM, el 47% de los líderes tecnológicos sienten que la función de TI de su empresa es efectiva en la prestación de servicios básicos, una disminución del 22% desde 2013. Los investigadores sugieren que esto está relacionado con que están dirigiendo su atención a GenAI, ya que el 43% de los ejecutivos de tecnología dicen que ha aumentado sus preocupaciones sobre la infraestructura en los últimos seis meses. Rita Sallam, analista vicepresidenta de Gartner, dijo: «Estos datos sirven como un valioso punto de referencia para evaluar el valor comercial derivado de la innovación del modelo comercial GenAI. «Pero es importante reconocer los desafíos en la estimación de ese valor, ya que los beneficios son muy específicos de la empresa, el caso de uso, el rol y la fuerza laboral. A menudo, el impacto puede no ser evidente de inmediato y puede materializarse con el tiempo. Sin embargo, este retraso no disminuye los beneficios potenciales”.

Las empresas buscan equilibrar la innovación y la ética en la IA, según Deloitte

Las empresas buscan equilibrar la innovación y la ética en la IA, según Deloitte

A medida que la IA generativa se vuelve más popular, las organizaciones deben considerar cómo implementarla éticamente. Pero, ¿cómo es la implementación ética de la IA? ¿Implica controlar la inteligencia a nivel humano? ¿Prevenir el sesgo? ¿O ambas cosas? Para evaluar cómo las empresas abordan este tema, Deloitte encuestó recientemente a 100 ejecutivos de nivel C en empresas estadounidenses con entre $ 100 millones y $ 10 mil millones en ingresos anuales. Los resultados indicaron cómo los líderes empresariales incorporan la ética en sus políticas de IA generativa. Principales prioridades para la ética de la IA ¿Qué cuestiones éticas consideran más importantes estas organizaciones? Las organizaciones priorizaron las siguientes cuestiones éticas en el desarrollo y la implementación de la IA: Equilibrar la innovación con la regulación (62%). Garantizar la transparencia en cómo se recopilan y utilizan los datos (59%). Abordar las preocupaciones sobre la privacidad de los usuarios y los datos (56%). Garantizar la transparencia en cómo funcionan los sistemas empresariales (55%). Mitigar el sesgo en algoritmos, modelos y datos (52%). Garantizar que los sistemas funcionen de manera confiable y como se espera (47%). Las organizaciones con mayores ingresos (1.000 millones de dólares o más al año) tenían más probabilidades que las empresas más pequeñas de afirmar que sus marcos éticos y estructuras de gobernanza fomentan la innovación tecnológica. Los usos poco éticos de la IA pueden incluir la desinformación, especialmente crítica durante las temporadas electorales, y el refuerzo de los prejuicios y la discriminación. La IA generativa puede replicar los prejuicios humanos accidentalmente al copiar lo que ve, o los actores maliciosos pueden usar la IA generativa para crear intencionalmente contenido sesgado más rápidamente. Los actores de amenazas que utilizan correos electrónicos de phishing pueden aprovechar la velocidad de escritura de la IA generativa. Otros casos de uso potencialmente poco éticos pueden incluir la IA que toma decisiones importantes en la guerra o la aplicación de la ley. El gobierno de Estados Unidos y las principales empresas tecnológicas acordaron un compromiso voluntario en septiembre de 2023 que establece estándares para revelar el uso de la IA generativa y el contenido creado con ella. La Oficina de Política Científica y Tecnológica de la Casa Blanca publicó un plan para una Carta de Derechos de la IA, que incluye esfuerzos contra la discriminación. Las empresas estadounidenses que utilizan IA en determinadas escalas y para tareas de alto riesgo deben informar la información al Departamento de Comercio a partir de enero de 2024. VER: Comience con una plantilla para una Política de ética de IA. «Para cualquier organización que adopte IA, la tecnología presenta tanto el potencial de resultados positivos como el riesgo de resultados no deseados», dijo Beena Ammanath, directora ejecutiva del Global Deloitte AI Institute y líder de IA confiable en Deloitte, en un correo electrónico a TechRepublic. Más cobertura de IA de lectura obligada ¿Quién toma decisiones éticas de IA? En el 34% de los casos, las decisiones éticas de IA provienen de directores o títulos superiores. En el 24% de los casos, todos los profesionales toman decisiones de IA de forma independiente. En casos más raros, los líderes de negocios o departamentales (17%), gerentes (12%), profesionales con capacitación o certificaciones obligatorias (7%) o una junta de revisión de IA (7%) toman decisiones éticas relacionadas con la IA. Las grandes empresas (mil millones de dólares o más de ingresos anuales) tenían más probabilidades de permitir que los trabajadores tomen decisiones independientes sobre el uso de IA que las empresas con menos de mil millones de dólares de ingresos anuales. La mayoría de los ejecutivos encuestados (76%) dijeron que su organización realiza capacitación ética en IA para su fuerza laboral, y el 63% dice que lo hacen para la junta directiva. Los trabajadores en las fases de construcción (69%) y de predesarrollo (49%) reciben capacitación en IA ética con menos frecuencia. “A medida que las organizaciones continúan explorando oportunidades con IA, es alentador observar cómo han surgido marcos de gobernanza en conjunto para empoderar a las fuerzas laborales para promover resultados éticos e impulsar un impacto positivo”, dijo Kwasi Mitchell, director de propósito y DEI de EE. UU. en Deloitte. “Al adoptar procedimientos diseñados para promover la responsabilidad y salvaguardar la confianza, los líderes pueden establecer una cultura de integridad e innovación que les permita aprovechar de manera efectiva el poder de la IA, al mismo tiempo que promueven la equidad e impulsan el impacto”. ¿Las organizaciones están contratando y mejorando las habilidades para roles de ética en IA? Los siguientes roles fueron contratados o son parte de los planes de contratación para las organizaciones encuestadas: Investigador de IA (59%). Analista de políticas (53%). Gerente de cumplimiento de IA (50%). Científico de datos (47%). Especialista en gobernanza de IA (40%). Ética de datos (34%). Ética de IA (27%). Muchos de esos profesionales (68%) provienen de programas internos de capacitación y perfeccionamiento. Menos aún han recurrido a fuentes externas, como programas tradicionales de contratación o certificación, y menos aún recurren a contrataciones en campus y colaboraciones con instituciones académicas. “En última instancia, las empresas deben tener la seguridad de que su tecnología es confiable para proteger la privacidad, la seguridad y el trato equitativo de sus usuarios, y está alineada con sus valores y expectativas”, dijo Ammanath. “Un enfoque eficaz de la ética de la IA debe basarse en las necesidades y valores específicos de cada organización, y las empresas que implementan marcos éticos estratégicos a menudo descubrirán que estos sistemas respaldan e impulsan la innovación, en lugar de obstaculizarla”.

Deloitte y SAP opinan

Deloitte y SAP opinan

Ya sea que esté creando o personalizando una política de IA o reevaluando cómo su empresa aborda la confianza, mantener la confianza de los clientes puede ser cada vez más difícil con la imprevisibilidad de la IA generativa en el panorama. Hablamos con Michael Bondar, director y líder de confianza empresarial de Deloitte, y Shardul Vikram, director de tecnología y jefe de datos e IA en SAP Industries and CX, sobre cómo las empresas pueden mantener la confianza en la era de la IA. Las organizaciones se benefician de la confianza En primer lugar, Bondar dijo que cada organización necesita definir la confianza en lo que respecta a sus necesidades y clientes específicos. Deloitte ofrece herramientas para hacer esto, como el sistema de «dominio de confianza» que se encuentra en algunos de los marcos descargables de Deloitte. Las organizaciones quieren que sus clientes confíen en ellas, pero las personas involucradas en discusiones sobre confianza a menudo dudan cuando se les pregunta exactamente qué significa confianza, dijo. Las empresas en las que se confía muestran resultados financieros más sólidos, mejor desempeño bursátil y mayor lealtad del cliente, descubrió Deloitte. «Y hemos visto que casi el 80% de los empleados se sienten motivados a trabajar para un empleador de confianza», dijo Bondar. Vikram definió la confianza como la creencia de que la organización actuará en el mejor interés de los clientes. Al pensar en la confianza, los clientes se preguntarán: «¿Cuál es el tiempo de actividad de esos servicios?», dijo Vikram. «¿Son seguros esos servicios? ¿Puedo confiar en ese socio en particular para mantener mis datos seguros, asegurando que cumplan con las regulaciones locales y globales?» Deloitte descubrió que la confianza «comienza con una combinación de competencia e intención, que es que la organización es capaz y confiable para cumplir sus promesas», dijo Bondar. «Pero también la lógica, la motivación, el por qué detrás de esas acciones está alineado con los valores (y) expectativas de las diversas partes interesadas, y la humanidad y la transparencia están incorporadas en esas acciones». ¿Por qué las organizaciones podrían tener dificultades para mejorar la confianza? Bondar lo atribuyó a «disturbios geopolíticos», «presiones socioeconómicas» y «aprensión» en torno a las nuevas tecnologías. La IA generativa puede erosionar la confianza si los clientes no están informados sobre su uso La IA generativa es lo primero que se piensa cuando se trata de nuevas tecnologías. Si va a utilizar IA generativa, tiene que ser robusta y confiable para no disminuir la confianza, señaló Bondar. «La privacidad es clave», dijo. «Se debe respetar la privacidad del consumidor y los datos del cliente deben usarse dentro y solo dentro de los fines previstos». Eso incluye cada paso del uso de IA, desde la recopilación inicial de datos al entrenar modelos de lenguaje grandes hasta permitir que los consumidores opten por que la IA no use sus datos de ninguna manera. De hecho, entrenar a la IA generativa y ver dónde se equivoca podría ser un buen momento para eliminar datos obsoletos o irrelevantes, dijo Vikram. VER: Microsoft retrasó el lanzamiento de su función de recuperación de IA, buscando más comentarios de la comunidad Sugirió los siguientes métodos para mantener la confianza con los clientes mientras se adopta la IA: Brindar capacitación a los empleados sobre cómo usar la IA de manera segura. Centrarse en ejercicios de juegos de guerra y alfabetización mediática. Tener en cuenta las nociones de confiabilidad de los datos de su propia organización. Buscar el consentimiento de los datos y/o el cumplimiento de la propiedad intelectual al desarrollar o trabajar con un modelo de IA generativa. Marcar con agua el contenido de IA y capacitar a los empleados para que reconozcan los metadatos de IA cuando sea posible. Proporciona una visión completa de tus modelos y capacidades de IA, siendo transparente sobre las formas en que usas la IA. Crea un centro de confianza. Un centro de confianza es una “capa de conexión digital-visual entre una organización y sus clientes donde estás enseñando, (y) estás compartiendo las últimas amenazas, las últimas prácticas (y) los últimos casos de uso que están surgiendo y que hemos visto que funcionan de maravilla cuando se hacen de la manera correcta”, dijo Bondar. Es probable que las empresas de CRM ya estén siguiendo regulaciones, como la Ley de Derechos de Privacidad de California, el Reglamento General de Protección de Datos de la Unión Europea y las reglas de divulgación cibernética de la SEC, que también pueden tener un impacto en cómo usan los datos de los clientes y la IA. Más cobertura de IA de lectura obligada Cómo SAP genera confianza en productos de IA generativa “En SAP, tenemos nuestro equipo de DevOps, los equipos de infraestructura, el equipo de seguridad, el equipo de cumplimiento integrados profundamente en todos y cada uno de los equipos de productos”, dijo Vikram. “Esto garantiza que cada vez que tomamos una decisión sobre un producto, cada vez que tomamos una decisión arquitectónica, pensemos en la confianza como algo desde el primer día y no como una ocurrencia de último momento”. SAP operacionaliza la confianza creando estas conexiones entre equipos, así como creando y siguiendo la política ética de la empresa. «Tenemos una política según la cual no podemos enviar nada a menos que sea aprobado por el comité de ética», dijo Vikram. «Está aprobado por los controles de calidad… Está aprobado por las contrapartes de seguridad. Entonces, esto realmente agrega una capa de proceso sobre las cosas operativas, y la unión de ambos nos ayuda a operacionalizar la confianza o imponerla». Cuando SAP implementa sus propios productos de IA generativa, se aplican esas mismas políticas. SAP ha implementado varios productos de IA generativa, incluido CX AI Toolkit para CRM, que puede escribir y reescribir contenido, automatizar algunas tareas y analizar datos empresariales. CX AI Toolkit siempre mostrará sus fuentes cuando le solicite información, dijo Vikram; esta es una de las formas en que SAP está tratando de ganarse la confianza de sus clientes que usan productos de IA. Cómo incorporar IA generativa en la organización de una manera confiable En términos generales, las empresas deben incorporar IA generativa y confiabilidad en sus KPI. “Con la IA en escena, y especialmente con la IA generativa, hay indicadores clave de rendimiento o métricas adicionales que los clientes buscan, como: ¿Cómo generamos confianza, transparencia y auditabilidad en los resultados que obtenemos del sistema de IA generativa?”, dijo Vikram. “Los sistemas, por defecto o por definición, no son deterministas con una alta fidelidad. “Y ahora, para usar esas capacidades particulares en mis aplicaciones empresariales, en mis centros de ingresos, necesito tener el nivel básico de confianza. Al menos, ¿qué estamos haciendo para minimizar las alucinaciones o para brindar la información correcta?”. Los tomadores de decisiones de la alta dirección están ansiosos por probar la IA, dijo Vikram, pero quieren comenzar con unos pocos casos de uso específicos a la vez. La velocidad a la que salen nuevos productos de IA puede chocar con este deseo de un enfoque medido. Las preocupaciones sobre alucinaciones o contenido de mala calidad son comunes. La IA generativa para realizar tareas legales, por ejemplo, muestra casos “generalizados” de errores. Pero las organizaciones quieren probar la IA, dijo Vikram. “He estado desarrollando aplicaciones de IA durante los últimos 15 años y nunca había sucedido esto. Nunca había habido este creciente apetito, y no solo un apetito por saber más, sino por hacer más con ello”.

Funciona con WordPress & Tema de Anders Norén