Todo lo que necesitas saber sobre tecnología

Etiqueta: inteligencia artificial Página 9 de 17

NIST establece un consorcio de seguridad de IA

Imagen: Adobe/Grandbrothers El Instituto Nacional de Estándares y Tecnología estableció el Instituto de Seguridad de IA el 7 de febrero para determinar pautas y estándares para la medición y política de IA. Las empresas de IA de EE. UU. y las empresas que hacen negocios en EE. UU. se verán afectadas por esas directrices y estándares y pueden tener la oportunidad de hacer comentarios al respecto. ¿Qué es el consorcio del Instituto de Seguridad de IA de EE. UU.? El Instituto de Seguridad de la IA de EE. UU. es un grupo de investigación conjunto de los sectores público y privado y un espacio de intercambio de datos para “creadores y usuarios de IA, académicos, investigadores gubernamentales y de la industria, y organizaciones de la sociedad civil”, según el NIST. Las organizaciones podrían postularse para convertirse en miembros entre el 2 de noviembre de 2023 y el 15 de enero de 2024. De más de 600 organizaciones interesadas, el NIST eligió 200 empresas y organizaciones para convertirse en miembros. Las organizaciones participantes incluyen Apple, Anthropic, Cisco, Hewlett Packard Enterprise, Hugging Face, Microsoft, Meta, NVIDIA, OpenAI, Salesforce y otras empresas, instituciones académicas y organizaciones de investigación. Esos miembros trabajarán en proyectos que incluyen: Desarrollar nuevas pautas, herramientas, métodos, protocolos y mejores prácticas para contribuir a los estándares de la industria para desarrollar e implementar una IA segura y confiable. Desarrollar orientación y puntos de referencia para identificar y evaluar las capacidades de la IA, especialmente aquellas capacidades que podrían causar daño. Desarrollar enfoques para incorporar prácticas de desarrollo seguras para la IA generativa. Desarrollar métodos y prácticas para lograr con éxito el aprendizaje automático en equipos rojos. Desarrollar formas de autenticar el contenido digital generado por IA. Especificar y fomentar las habilidades de la fuerza laboral de IA. «La IA responsable ofrece un enorme potencial para la humanidad, las empresas y los servicios públicos, y Cisco cree firmemente que un enfoque holístico y simplificado ayudará a Estados Unidos a aprovechar de forma segura todos los beneficios de la IA», afirmó Nicole Isaac, vicepresidenta de políticas públicas globales de Cisco. en una declaración al NIST. VER: ¿Cuáles son las diferencias entre IA y aprendizaje automático? (TechRepublic Premium) «Trabajar juntos entre la industria, el gobierno y la sociedad civil es esencial si queremos desarrollar estándares comunes en torno a una IA segura y confiable», dijo Nick Clegg, presidente de asuntos globales de Meta, en una declaración al NIST. «Estamos entusiasmados de ser parte de este consorcio y trabajar en estrecha colaboración con el AI Safety Institute». Una omisión interesante en la lista de miembros del Instituto de Seguridad de la IA de EE. UU. es el Future of Life Institute, una organización mundial sin fines de lucro con inversores entre los que se incluye Elon Musk, creada para evitar que la IA contribuya a “riesgos extremos a gran escala”, como una guerra global. Más cobertura de IA de lectura obligada La creación del Instituto de Seguridad de la IA y su lugar en el gobierno federal El Instituto de Seguridad de la IA de EE. UU. se creó como parte de los esfuerzos establecidos por la Orden Ejecutiva del presidente Joe Biden sobre la proliferación y la seguridad de la IA en octubre de 2023. El Instituto de Seguridad de la IA de EE. UU. está bajo la jurisdicción del Departamento de Comercio. Elizabeth Kelly es la directora inaugural del instituto y Elham Tabassi es su director de tecnología. ¿Quién trabaja en la seguridad de la IA? En los EE. UU., la seguridad y la regulación de la IA a nivel gubernamental están a cargo del NIST y, ahora, del Instituto de Seguridad de la IA de los EE. UU. dependiente del NIST. Las principales empresas de IA de EE. UU. han trabajado con el gobierno para fomentar la seguridad y las habilidades de la IA para ayudar a la industria de la IA a construir la economía. Las instituciones académicas que trabajan en la seguridad de la IA incluyen la Universidad de Stanford y la Universidad de Maryland, entre otras. Un grupo de organizaciones internacionales de ciberseguridad estableció las Directrices para el desarrollo seguro de sistemas de IA en noviembre de 2023 para abordar la seguridad de la IA en las primeras etapas del ciclo de desarrollo.

Source link

Google One AI Premium: ¿Valen la pena los beneficios?

Google ha estado actualizando activamente sus ofertas de inteligencia artificial, incluido el cambio de nombre de Bard a Gemini y la introducción de una aplicación de Android dedicada. En particular, Google ha introducido un nivel pago para su motor de IA generativa, lo que marca que los usuarios por primera vez deben considerar una suscripción digital. Para comprender en profundidad las herramientas de inteligencia artificial de Google, puede consultar nuestro artículo sobre Google Gemini explicado. Aquí, nos centraremos en desglosar las funciones de Google Gemini Advanced, una parte del nuevo nivel Google One AI Premium. Profundizaremos en el costo de este nivel de nube y describiremos las características y beneficios de IA que ofrece, ayudándolo a decidir si vale la pena suscribirse. Este nivel premium está integrado en los planes de Google One y brinda a los usuarios almacenamiento adicional en la nube. Estén atentos para obtener una descripción general de Google One AI Premium y sus funciones de configuración. Precio y disponibilidad de Google One AI Premium El plan Google One AI Premium ya está disponible para su compra a un costo mensual de $ 19,99 / £ 18,99 / AU $ 32,99. A diferencia de otros planes de Google One, no existe la opción de pagar anualmente por un precio general con descuento. Sin embargo, tiene la flexibilidad de cancelar la suscripción en cualquier momento. En este momento, Google ofrece una prueba gratuita de dos meses de Google One AI Premium. Esto significa que puedes disfrutar de los beneficios del plan premium sin ningún cargo durante los dos meses iniciales. Para explorar y comparar planes, puede registrarse en el sitio de Google One. Características y beneficios de Google One AI Premium Con el plan Google One AI Premium, recibirás 2 TB de almacenamiento. Los suscriptores pueden utilizar varios servicios de Google, como Gmail, Google Drive y Google Photos. Si las limitaciones del plan de almacenamiento gratuito de 15 GB le parecen restrictivas, la actualización a este plan premium proporciona un aumento significativo en el almacenamiento. Si bien hay otros planes de Google One disponibles que ofrecen almacenamiento que van desde 2 TB a 30 TB, es importante tener en cuenta que solo el plan Google One AI Premium incluye todas las funciones de Gemini Advanced. Además del espacio de almacenamiento, todos los planes de Google One vienen con varias ventajas, incluido soporte prioritario, un reembolso del 10% en Google Store, funciones adicionales de edición de Google Photos (como Magic Eraser), un servicio de monitoreo de la web oscura para filtraciones de información personal. y acceso a Google One VPN. El enfoque principal de Google One AI Premium son sus funciones de inteligencia artificial y un componente clave de este plan es el acceso a Gemini Advanced. Esto implica el uso de la versión «más capaz» del modelo Gemini de Google, conocida como Ultra 1.0. En una comparación similar, puedes compararlo con la actualización del plan gratuito ChatGPT a ChatGPT Plus. Según Google, Gemini Ultra 1.0 ofrece un «rendimiento de última generación» con la capacidad de manejar «tareas altamente complejas» que involucran texto, imágenes y código. Gemini Advanced, en comparación con sus homólogos, permite conversaciones más largas y una mejor comprensión del contexto. Si busca la IA más poderosa del repertorio de Google, Gemini Advanced, disponible con Google One AI Premium, es la opción a considerar. El director ejecutivo de Google, Sundar Pichai, afirma que el modelo más grande, Ultra 1.0, es el primero en superar a los expertos humanos en comprensión masiva del lenguaje multitarea (MMLU). MMLU involucra un conjunto diverso de 57 materias, que incluyen matemáticas, física, historia, derecho, medicina y ética, para evaluar el conocimiento y las habilidades de resolución de problemas. Gizchina Noticias de la semana Aplicación Google Gemini en teléfonos inteligentes La aplicación dedicada Google Gemini para Android y las funciones Gemini integradas en la aplicación Google para iOS son accesibles para todos los usuarios, estén o no suscritos al plan premium, y lo mismo se aplica al interfaz web. Sin embargo, los suscriptores del plan premium se benefician del modelo Ultra 1.0 superior en todas estas plataformas. Como referencia, un plan estándar de Google One de 2 TB, que incluye funciones de edición de fotografías, acceso VPN y más, pero excluye capacidades de inteligencia artificial, tiene un precio de $ 9,99 / £ 7,99 / AU $ 19,99 por mes. En consecuencia, optar por las funciones Gemini Advanced le costará $ 10 / £ 11 / AU $ 13 adicionales además del plan estándar. Según Google, la integración de Gemini con las aplicaciones de productividad de Google, incluidas Gmail, Google Docs, Google Meet y Google Slides, está en el horizonte. Esta integración, conocida como Gemini for Workspace, pronto estará disponible y se incluirá como parte del plan Google One AI Premium. Su objetivo es ayudar a los usuarios a redactar correos electrónicos, diseñar presentaciones y más dentro de estas aplicaciones de productividad de Google. Este cambio de marca abarca las funciones anteriormente conocidas como Duet AI, que la compañía introdujo para los usuarios de las aplicaciones de Google. Independientemente de si es un usuario individual o empresarial, puede acceder a estas herramientas de inteligencia artificial integradas suscribiéndose al plan Google One AI Premium. En resumen, más allá del plan estándar Google One de 2 TB, el beneficio clave es obtener acceso a las últimas funciones de Gemini AI de Google. La compañía también insinúa desarrollos futuros y promete características adicionales en el futuro. Opinión sobre Google One AI Premium La oferta de Google de una prueba gratuita de dos meses para el plan One AI Premium, que incluye Gemini Advanced, parece una oportunidad convincente para aquellos interesados ​​en explorar algunas de las herramientas de IA más potentes disponibles actualmente. Sin embargo, es importante tener en cuenta que gestionar y cancelar cualquier prueba gratuita no deseada es esencial. Dicho esto, es fundamental reconocer que Gemini Advanced aún se encuentra en sus primeras etapas. Está pendiente una evaluación exhaustiva y una comparación con otras herramientas de inteligencia artificial, como ChatGPT Plus. Además, su integración con las aplicaciones de productividad de Google se indica como «disponible pronto», lo que deja cierta incertidumbre sobre el cronograma exacto de esta función. A medida que el servicio evolucione, es probable que haya más información y comparaciones disponibles. Para una exploración exhaustiva del rendimiento de los últimos modelos de IA de Google, incluido Gemini Advanced, puede consultar el informe de evaluación comparativa Gemini de la compañía. Algunos probadores afortunados, como el profesor de inteligencia artificial Ethan Mollick, han tenido la oportunidad de experimentar con Gemini Advanced durante un tiempo, habiendo obtenido acceso avanzado. Las primeras impresiones sugieren que Gemini Advanced se está posicionando como un formidable contendiente de IA, posiblemente comparable a una IA de clase GPT-4. Está aquí para competir con ChatGPT Plus, particularmente para tareas exigentes como codificación y resolución avanzada de problemas. Además, Gemini Advanced se integrará sin problemas con las aplicaciones de Google. El éxito práctico de estas integraciones se hará más claro con el tiempo. Sin embargo, para los primeros usuarios deseosos de explorar, la prueba gratuita ofrece la oportunidad de profundizar en Gemini Advanced. Descargo de responsabilidad: Es posible que algunas de las empresas de cuyos productos hablamos nos compensen, pero nuestros artículos y reseñas son siempre nuestras opiniones honestas. Para obtener más detalles, puede consultar nuestras pautas editoriales y conocer cómo utilizamos los enlaces de afiliados.

Source link

Nick Godfrey de Google Cloud habla sobre seguridad, presupuesto e inteligencia artificial para CISO

Como director senior y jefe global de la oficina del director de seguridad de la información (CISO) de Google Cloud, Nick Godfrey supervisa la educación de los empleados sobre ciberseguridad, así como el manejo de la detección y mitigación de amenazas. Realizamos una entrevista con Godfrey a través de una videollamada sobre cómo los CISO y otros líderes empresariales centrados en la tecnología pueden asignar sus recursos finitos, conseguir la aceptación de la seguridad por parte de otras partes interesadas y los nuevos desafíos y oportunidades que introduce la IA generativa. Dado que Godfrey reside en el Reino Unido, también le preguntamos su perspectiva sobre consideraciones específicas del Reino Unido. Cómo pueden los CISO asignar recursos de acuerdo con las amenazas de ciberseguridad más probables Megan Crouse: ¿Cómo pueden los CISO evaluar las amenazas de ciberseguridad más probables que su organización pueda enfrentar, además de considerar el presupuesto y los recursos? Nick Godfrey: Una de las cosas más importantes en las que pensar al determinar cómo asignar mejor los recursos finitos que tiene cualquier CISO o cualquier organización es el equilibrio entre comprar productos y servicios de seguridad exclusivos versus pensar en el tipo de tecnología subyacente. riesgos que tiene la organización. En particular, en el caso de una organización que tiene tecnología heredada, la capacidad de hacer que la tecnología heredada sea defendible incluso con productos de seguridad encima se está volviendo cada vez más difícil. Entonces, el desafío y la compensación son: ¿compramos más productos de seguridad? ¿Invertimos en más gente de seguridad? ¿Compramos más servicios de seguridad? Versus: ¿Invertimos en infraestructura moderna, que es intrínsecamente más defendible? La respuesta y la recuperación son claves para responder a las ciberamenazas Megan Crouse: En términos de priorizar el gasto con un presupuesto de TI, a menudo se habla del ransomware y el robo de datos. ¿Diría que es bueno centrarse en ellos, o los CISO deberían centrarse en otra parte, o depende en gran medida de lo que ha visto en su propia organización? Nick Godfrey: El robo de datos y los ataques de ransomware son muy comunes; por lo tanto, como CISO, equipo de seguridad y CPO, debe concentrarse en ese tipo de cosas. El ransomware en particular es un riesgo interesante de intentar gestionar y, de hecho, puede ser muy útil en términos de enmarcar la forma de pensar sobre el programa de seguridad de un extremo a otro. Requiere que piense en un enfoque integral de los aspectos de respuesta y recuperación del programa de seguridad y, en particular, su capacidad para reconstruir la infraestructura crítica para restaurar datos y, en última instancia, restaurar servicios. Centrarse en esas cosas no sólo mejorará su capacidad para responder a esas cosas específicamente, sino que también mejorará su capacidad para administrar su TI y su infraestructura porque se mudará a un lugar donde, en lugar de no comprender su TI y cómo está vas a reconstruirlo, tienes la capacidad de reconstruirlo. Si tiene la capacidad de reconstruir su TI y restaurar sus datos de forma regular, eso en realidad crea una situación en la que le resultará mucho más fácil gestionar agresivamente las vulnerabilidades y parchear la infraestructura subyacente. ¿Por qué? Porque si lo parcheas y se rompe, no tienes que restaurarlo y hacerlo funcionar. Por lo tanto, centrarse en la naturaleza específica del ransomware y en lo que le hace pensar en realidad tiene un efecto positivo más allá de su capacidad para gestionar el ransomware. VER: Una amenaza de botnet en EE. UU. apuntó a infraestructura crítica. (TechRepublic) Los CISO necesitan la aceptación de otros tomadores de decisiones presupuestarias Megan Crouse: ¿Cómo deberían los profesionales y ejecutivos de tecnología educar a otros tomadores de decisiones presupuestarias sobre las prioridades de seguridad? Nick Godfrey: Lo primero es encontrar formas de hacerlo de manera integral. Si hay una conversación desconectada sobre un presupuesto de seguridad versus un presupuesto de tecnología, entonces se puede perder una enorme oportunidad de tener esa conversación conjunta. Se pueden crear condiciones en las que se hable de seguridad como un porcentaje del presupuesto de tecnología, lo cual no creo que sea necesariamente muy útil. Tener al CISO y al CPO trabajando juntos y presentando juntos a la junta directiva cómo la cartera combinada de proyectos de tecnología y seguridad está mejorando en última instancia el perfil de riesgo tecnológico, además de lograr otros objetivos comerciales y de negocios, es el enfoque correcto. No deberían pensar simplemente en el gasto en seguridad como gasto en seguridad; deberían pensar en una gran parte del gasto en tecnología como gasto en seguridad. Cuanto más podamos integrar la conversación sobre seguridad, ciberseguridad y riesgo tecnológico en las otras conversaciones que siempre tienen lugar en la junta directiva, más podremos convertirla en un riesgo y una consideración general de la misma manera que las juntas directivas piensan sobre temas financieros y financieros. riesgos operacionales. Sí, el director financiero hablará periódicamente sobre la situación financiera general de la organización y la gestión de riesgos, pero también verá al CIO en el contexto de TI y al CISO en el contexto de seguridad hablando sobre los aspectos financieros de su negocio. Cobertura de seguridad de lectura obligada Consideraciones de seguridad en torno a la IA generativa Megan Crouse: Uno de esos cambios tecnológicos globales más importantes es la IA generativa. ¿A qué consideraciones de seguridad en torno a la IA generativa deberían estar atentas las empresas hoy en día? Nick Godfrey: En un nivel alto, la forma en que pensamos sobre la intersección de la seguridad y la IA es dividirla en tres categorías. El primero es el uso de la IA para defender. ¿Cómo podemos incorporar la IA en herramientas y servicios de ciberseguridad que mejoren la fidelidad del análisis o la velocidad del análisis? El segundo grupo es el uso de la IA por parte de los atacantes para mejorar su capacidad de hacer cosas que antes necesitaban mucha participación humana o procesos manuales. El tercer grupo es: ¿Cómo piensan las organizaciones sobre el problema de proteger la IA? Cuando hablamos con nuestros clientes, el primer segmento es algo que perciben que los proveedores de productos de seguridad deberían resolver. Nosotros lo somos y otros también. El segundo segmento, en términos del uso de la IA por parte de los actores de amenazas, es algo que nuestros clientes están vigilando, pero no es exactamente un territorio nuevo. Siempre hemos tenido que evolucionar nuestros perfiles de amenazas para reaccionar ante lo que sucede en el ciberespacio. Esta es quizás una versión ligeramente diferente de ese requisito de evolución, pero sigue siendo fundamentalmente algo que hemos tenido que hacer. Debe ampliar y modificar sus capacidades de inteligencia de amenazas para comprender ese tipo de amenaza y, en particular, debe ajustar sus controles. Es el tercer segmento (cómo pensar en el uso de la IA generativa dentro de su empresa) el que está provocando muchas conversaciones en profundidad. Este grupo llega a varias áreas diferentes. Uno, de hecho, es la TI en la sombra. El uso de IA generativa de consumo es un problema de TI en la sombra, ya que crea una situación en la que la organización intenta hacer cosas con IA y utilizando tecnología de consumo. Abogamos firmemente por que los CISO no siempre deberían bloquear la IA del consumidor; Puede haber situaciones en las que sea necesario, pero es mejor intentar descubrir qué está tratando de lograr su organización e intentar habilitarlo de la manera correcta en lugar de tratar de bloquearlo todo. Pero la IA comercial entra en áreas interesantes en torno al linaje de datos y la procedencia de los datos en la organización, cómo se han utilizado para entrenar modelos y quién es responsable de la calidad de los datos, no de su seguridad… de su calidad. Las empresas también deberían plantearse preguntas sobre la gobernanza general de los proyectos de IA. ¿Qué partes de la empresa son, en última instancia, responsables de la IA? Como ejemplo, formar un equipo rojo en una plataforma de IA es bastante diferente a formar un equipo rojo en un sistema puramente técnico en el sentido de que, además de realizar el equipo rojo técnico, también es necesario pensar en el equipo rojo de las interacciones reales con el LLM (lenguaje grande). modelo) y la IA generativa y cómo romperla en ese nivel. En realidad, asegurar el uso de la IA parece ser lo que más nos desafía en la industria. Ciberamenazas y tendencias internacionales y del Reino Unido Megan Crouse: En términos del Reino Unido, ¿cuáles son las amenazas de seguridad más probables a las que se enfrentan las organizaciones del Reino Unido? ¿Y hay algún consejo particular que les daría con respecto al presupuesto y la planificación en torno a la seguridad? Nick Godfrey: Creo que probablemente sea bastante consistente con otros países similares. Obviamente, hubo cierto trasfondo político para ciertos tipos de ataques cibernéticos y ciertos actores de amenazas, pero creo que si se comparara el Reino Unido con los EE. UU. y los países de Europa occidental, creo que todos están viendo amenazas similares. Las amenazas se dirigen en parte a líneas políticas, pero también muchas de ellas son oportunistas y se basan en la infraestructura que gestiona una determinada organización o país. No creo que en muchas situaciones los actores de amenazas con motivaciones comerciales o económicas estén necesariamente demasiado preocupados por el país en particular que persiguen. Creo que están motivados principalmente por el tamaño de la recompensa potencial y la facilidad con la que podrían lograr ese resultado.

Source link

Cómo ve el gobierno australiano que la IA acelera la productividad

Australia tiene el problema de desacelerar el crecimiento de la productividad. Como grupo encargado de abordar este problema, la Comisión de Productividad del gobierno australiano está considerando la IA como una parte potencial del problema. Recientemente, la Comisión publicó un informe de tres artículos, Aprovechar al máximo la oportunidad de la IA: productividad, regulación y acceso a datos, para analizar más a fondo esta oportunidad. Para maximizar las ganancias de productividad derivadas de la IA, el documento aboga por un enfoque de regulación suave. Además, la Comisión recomienda que los departamentos gubernamentales de todos los niveles (federal, estatal y local) “lideren con el ejemplo” y aporten sus propios datos y recursos para promover el desarrollo de modelos de IA de calidad. Desglose de la investigación El informe de investigación se divide en tres artículos separados. Documento 1: Adopción de la IA, productividad y el papel del gobierno El primer documento señala que debido a que la IA ya se está volviendo omnipresente en algunas áreas en línea y se está incorporando a las herramientas cotidianas, es una tecnología que ya está brindando beneficios de productividad a todas las empresas e individuos. . Son pequeños por ahora pero crecerán con el tiempo. Si bien esos aumentos de productividad son interesantes, el informe también reconoce que la IA plantea riesgos, particularmente en torno a la confianza del consumidor. La Comisión recomienda que los gobiernos puedan ser parte de la solución a este desafío de confianza aportando sus propios datos de alta calidad para respaldar el desarrollo de modelos de calidad. «La estrategia digital y de datos provisional del Gobierno señala que el Servicio Público Australiano gestiona una gran cantidad de datos que no se utilizan en toda su extensión, y el acceso sigue restringido a pesar de los claros beneficios derivados de compartir datos de forma segura entre los sectores público y privado», el notas del informe. Documento 2: Los desafíos de regular la IA El segundo documento analiza los beneficios y riesgos de la IA y cómo el gobierno australiano debería regularla. Cita la respuesta provisional del gobierno australiano a la Consulta sobre IA segura y responsable en Australia como un punto de partida útil y el documento de la Comisión de Productividad como un enfoque sistemático e implementable para la regulación de la IA (Figura A). Figura A: Regulación del uso de la IA. Imagen: Comisión de Productividad Vale la pena señalar que actualmente Australia tiene regulaciones muy suaves sobre la IA, y la industria y el público, en su mayor parte, están mirando las leyes europeas de IA que se introducirán próximamente para obtener orientación sobre el asunto. Sin embargo, en lugar de que la regulación del riesgo socave la productividad, el documento sostiene que el uso seguro y ético de la IA se reduce a una serie de factores como las normas sociales, las presiones del mercado, la arquitectura de codificación y la confianza pública. En otras palabras, el informe sostiene que es poco probable que un enfoque rígido de la regulación de la IA aborde los riesgos, y que los reguladores necesitan un enfoque más holístico. Documento 3: La IA aumenta los riesgos para la política de datos El tercer documento señala que los datos han sido un recurso tanto para el sector público como para el privado durante décadas. La IA ha acelerado las ganancias potenciales y al mismo tiempo ha elevado el riesgo. Los australianos también lo saben. Como muestra la investigación de la Comisión, la privacidad, junto con la calidad y el precio, es una de las tres principales preocupaciones entre los australianos cuando se trata de datos (Figura B). Para disipar estas preocupaciones, la Comisión recomienda una estrategia nacional de datos como preferible a una regulación contundente. Figura B: Los australianos dan una alta puntuación a la privacidad de los datos, pero por detrás de la calidad y el precio. Imagen: Comisión de Productividad “Una vez desarrolladas, todas las regulaciones y directrices futuras sobre el uso y análisis de datos podrían hacer referencia a los principios acordados de la estrategia nacional de datos”, señala el informe. «De esta manera, la estrategia de datos podría proporcionar una base segura y consistente para el desarrollo y uso de la IA y otras tecnologías con uso intensivo de datos». Más cobertura de Australia Colaboración con el gobierno en juego La idea central de la investigación es que el gobierno debería buscar ser un participante activo en la configuración de la IA. Los investigadores argumentan que el gobierno debería resistirse a infundir miedo en algunos rincones con respecto a la IA y aprovechar la oportunidad que tiene de ser una parte activa del desarrollo de mejores prácticas en IA. Para la industria, esto puede significar una proliferación de oportunidades para que los sectores público y privado se unan en colaboración. Algunas oportunidades potenciales incluyen: Iniciativas de autorregulación de la industria. Los profesionales de datos y el sector privado pueden adoptar voluntariamente principios éticos, mejores prácticas y directrices para el desarrollo y uso responsable de la IA y demostrar su compromiso con los valores sociales y la confiabilidad. Esto puede ayudar a reducir la necesidad de intervención gubernamental y garantizar que se le recomiende ese enfoque suave al gobierno australiano. Codiseño de políticas de IA con las partes interesadas. Los profesionales de datos y el sector privado pueden participar activamente en el desarrollo de políticas y regulaciones de IA y brindar su experiencia, conocimientos y retroalimentación a las agencias gubernamentales. Esto puede ayudar a garantizar que las políticas se basen en los últimos avances tecnológicos, reflejen las necesidades e intereses de las diversas partes interesadas y logren un equilibrio entre innovación y regulación. Consejos asesores de ética de la IA El gobierno puede guiarse por consejos asesores de ética de la IA, que luego pueden utilizarse como marco para el desarrollo de cualquier regulación. Estas juntas pueden actuar para informar al gobierno sobre los riesgos y daños, proponer estrategias de mitigación y promover la conciencia pública y el compromiso con la ética de la IA. Adopción de tecnologías de IA por parte del sector público La creación de soluciones de IA que mejoren la prestación, la eficiencia y la transparencia de los servicios públicos puede dar como resultado un gobierno que esté más familiarizado con las capacidades y los desafíos de la IA. Las organizaciones que trabajan mucho con agencias gubernamentales deberían considerar agregar acreditaciones relacionadas con la IA para ayudar con las licitaciones y el apoyo estratégico que la empresa luego puede brindar al gobierno.

Source link

Google Gemini AI se lanza en una nueva aplicación y suscripción

Google anunció el jueves un importante cambio de marca de Bard, su asistente y chatbot de inteligencia artificial, que incluye una nueva aplicación y opciones de suscripción. Bard, principal competidor de ChatGPT de OpenAI, ahora se llama Gemini, el mismo nombre que el conjunto de modelos de IA que impulsan el chatbot. Google también anunció nuevas formas para que los consumidores accedan a la herramienta de IA: a partir del jueves, los usuarios de Android pueden descargar un nueva aplicación de Android dedicada para Gemini, y los usuarios de iPhone pueden usar Gemini dentro de la aplicación de Google en iOS. El cambio de marca y las ofertas de aplicaciones de Google subrayan el compromiso de la compañía de buscar e invertir fuertemente en asistentes o agentes de IA, un término que se usa a menudo para describir herramientas que van desde chatbots hasta asistentes de codificación y otras herramientas de productividad. El director ejecutivo de Alphabet, Sundar Pichai, destacó el compromiso de la empresa con la IA durante la conferencia telefónica sobre resultados de la empresa el 30 de enero. Pichai dijo que eventualmente quiere ofrecer un agente de inteligencia artificial que pueda completar cada vez más tareas en nombre de un usuario, incluso dentro de la Búsqueda de Google, aunque dijo que hay «mucha ejecución por delante». Del mismo modo, los directores ejecutivos de gigantes tecnológicos, desde Microsoft hasta Amazon, subrayaron su compromiso de crear agentes de IA como herramientas de productividad. Los cambios en Gemini de Google son un primer paso para «construir un verdadero asistente de IA», dijo Sissie Hsiao, vicepresidenta de Google y directora general de Google Assistant y Bard dijeron a los periodistas en una llamada telefónica el miércoles. Google también anunció el jueves una nueva opción de suscripción de IA, para usuarios avanzados que desean acceder a Gemini Ultra 1.0, el modelo de IA más poderoso de Google. El acceso cuesta 19,99 dólares al mes a través de Google One, la oferta de almacenamiento pago de la empresa. Para los suscriptores existentes de Google One, ese precio incluye los planes de almacenamiento que quizás ya estén pagando. También hay una prueba gratuita de dos meses disponible. Los lanzamientos del jueves están disponibles para usuarios en más de 150 países y territorios, pero por ahora están restringidos al idioma inglés. Google planea ampliar la oferta de idiomas para incluir pronto el japonés y el coreano, así como otros idiomas. El cambio de marca de Bard también afecta a Duet AI, el antiguo nombre de Google para los «agentes de IA empaquetados» dentro de Google Workspace y Google Cloud, que están diseñados para aumentar la productividad. y completar tareas sencillas para empresas clientes, incluidas Wayfair, GE, Spotify y Pfizer. Las herramientas ahora se conocerán como Gemini for Workspace y Gemini for Google Cloud. Los suscriptores de Google One que paguen por la suscripción a AI también tendrán acceso a las capacidades de asistente de Gemini en Gmail, Docs, Sheets, Slides y Meet, dijeron ejecutivos a los periodistas el miércoles. . Google espera incorporar más contexto en Gemini a partir del contenido de los usuarios en Gmail, Docs y Drive. Por ejemplo, si estuviera respondiendo a un hilo de correo electrónico largo, las respuestas sugeridas eventualmente tomarían el contexto tanto de los mensajes anteriores del hilo como de los archivos potencialmente relevantes en Google Drive. ¿En cuanto al motivo del amplio cambio de nombre? Hsiao de Google dijo a los periodistas el miércoles que se trata de ayudar a los usuarios a comprender que están interactuando directamente con los modelos de IA que sustentan el chatbot». [was] «La forma de hablar con nuestros modelos de vanguardia, y Gemini son nuestros modelos de vanguardia», dijo Hsiao. Con el tiempo, los agentes de IA podrían programar una reunión grupal escaneando el calendario de todos para asegurarse de que no haya conflictos, reservar viajes y actividades. , comprar regalos para sus seres queridos o realizar una función laboral específica, como ventas salientes. Sin embargo, actualmente, las herramientas, incluida Gemini, se limitan en gran medida a tareas como resumir, generar listas de tareas pendientes o ayudar a escribir código. «Volvemos a usar IA generativa allí, particularmente con nuestros modelos más avanzados y Bard», dijo Pichai en la llamada de resultados del 30 de enero, hablando sobre el Asistente de Google y la Búsqueda. Eso «nos permite actuar más como un agente con el tiempo, si tuviera que hacerlo». pensar en el futuro y tal vez ir más allá de las respuestas y el seguimiento para los usuarios aún más».

Source link

El director ejecutivo de OpenAI, Sam Altman, supuestamente busca billones de dólares para un proyecto de chip de IA

El director ejecutivo de OpenAI, Sam Altman, está buscando billones de dólares en inversiones para reformar la industria global de semiconductores, informó The Wall Street Journal. Altman ha hablado durante mucho tiempo del problema de la oferta y la demanda con los chips de IA: muchos gigantes de la IA los quieren, pero no los hay. No es suficiente para todos, y eso limita el crecimiento de OpenAI. Está considerando un proyecto que aumentaría la capacidad global de construcción de chips, según un informe del jueves por la tarde en The Wall Street Journal, y al parecer está en conversaciones con diferentes inversores, incluido el gobierno de los Emiratos Árabes Unidos. Altman podría necesitar recaudar entre 5 dólares billones y 7 billones de dólares para la empresa, informó The Wall Street Journal, citando una fuente. CNBC no pudo confirmar el número. OpenAI no respondió a una solicitud de comentarios. El miércoles, Altman publicó en X que OpenAI cree que «el mundo necesita más infraestructura de IA (capacidad fabulosa, energía, centros de datos, etc.) de la que la gente planea construir actualmente». Añadió que «construir una infraestructura de IA a gran escala y una cadena de suministro resiliente es crucial para la competitividad económica» y que OpenAI intentaría ayudar. La noticia sigue a cierta controversia sobre algunos de los esfuerzos e inversiones anteriores en chips de Altman. Justo antes del informe de Altman Al ser derrocado como CEO de OpenAI, supuestamente buscaba miles de millones para una empresa de chips nueva y aún no formada con el nombre en código «Tigris» para eventualmente competir con Nvidia, viajando al Medio Oriente para recaudar dinero de los inversores. En 2018, Altman personalmente invirtió en una startup de chips de IA llamada Rain Neuromorphics, con sede cerca de la sede de OpenAI en San Francisco, y en 2019, OpenAI firmó una carta de intención para gastar 51 millones de dólares en los chips de Rain. En diciembre, Estados Unidos obligó a una firma de capital de riesgo respaldada por Saudi Aramco a vender sus acciones en Rain. Nvidia ha sido la gran fuente de ingresos durante el auge generativo de la IA del año pasado, y su capitalización de mercado se triplicará con creces en 2023. , o GPU, impulsan los grandes modelos de lenguaje creados por OpenAI, Alphabet, Meta y una creciente cosecha de nuevas empresas fuertemente financiadas que luchan por una porción del pastel de la IA generativa. Nvidia controla actualmente alrededor del 80% de ese mercado de chips de IA con un mercado actual. capitalización de aproximadamente 1,72 billones de dólares, no muy lejos de superar a gigantes tecnológicos como Amazon y Alphabet en capitalización de mercado. Es probable que Altman busque cambiar eso. En noviembre de 2022, cuando se lanzó ChatGPT de OpenAI, la compañía tenía un número limitado de GPU y capacidad, y en gran medida se consideraba una empresa que crea herramientas para desarrolladores y empresas, dijo el director de operaciones de OpenAI, Brad Lightcap, a CNBC la última vez. Noviembre. Cuando llegó el momento de lanzar su ahora viral bot ChatGPT, Lightcap recordó que Altman fue un gran defensor de «simplemente intentarlo», siendo su tesis que había algo importante y personal en la interacción basada en texto con los modelos. . ChatGPT batió récords en su momento como la aplicación para consumidores de más rápido crecimiento en la historia y ahora tiene más de 100 millones de usuarios activos semanales, junto con más del 92% de las empresas Fortune 500 que utilizan la plataforma, según OpenAI. En noviembre pasado, la junta directiva de OpenAI destituyó a Altman, lo que provocó renuncias (o amenazas de renuncias), incluida una carta abierta firmada por prácticamente todos los empleados de OpenAI, y el revuelo de los inversores, incluido Microsoft. Al cabo de una semana, Altman estaba de regreso en la empresa. Desde entonces, OpenAI ha anunciado una nueva junta directiva, que incluye al ex codirector ejecutivo de Salesforce, Bret Taylor, al exsecretario del Tesoro, Larry Summers, y al director ejecutivo de Quora, Adam D’Angelo. Microsoft obtuvo un puesto de observador en la junta sin derecho a voto y la compañía aún planea agregar más puestos. Lea más en The Wall Street Journal

Source link

La IA podría estar leyendo tus mensajes de Slack y Teams usando tecnología de Aware

Fotos_insta | Stock | Getty Images Indique la referencia de George Orwell. Dependiendo de dónde trabaje, existe una gran posibilidad de que la inteligencia artificial esté analizando sus mensajes en Slack, Microsoft Teams, Zoom y otras aplicaciones populares. Grandes empleadores estadounidenses como Walmart, Delta Air Lines, T-Mobile , Chevron y Starbucks, así como marcas europeas como Nestlé y AstraZeneca, han recurrido a una startup de siete años, Aware, para monitorear las conversaciones entre sus bases, según la compañía. Jeff Schumann, cofundador y director ejecutivo de la startup con sede en Columbus, Ohio, dice que la IA ayuda a las empresas a «comprender el riesgo en sus comunicaciones», obteniendo una lectura del sentimiento de los empleados en tiempo real, en lugar de depender de una encuesta anual o dos veces al año. Según Schumann, con los datos del producto analítico de Aware, los clientes pueden ver cómo los empleados de un determinado grupo de edad o en una geografía particular están respondiendo a una nueva política corporativa o campaña de marketing. Las docenas de modelos de inteligencia artificial de Aware, creados para leer texto y procesar imágenes, también pueden identificar intimidación, acoso, discriminación, incumplimiento, pornografía, desnudez y otros comportamientos, dijo. La herramienta de análisis de Aware, la que monitorea el sentimiento y la toxicidad de los empleados, no Según Schumann, no tenemos la posibilidad de marcar los nombres de los empleados individuales. Pero su herramienta eDiscovery separada puede hacerlo, en caso de amenazas extremas u otros comportamientos de riesgo predeterminados por el cliente, agregó. CNBC no recibió una respuesta de Walmart, T-Mobile, Chevron, Starbucks o Nestlé con respecto a su uso de Consciente. Un representante de AstraZeneca dijo que la compañía utiliza el producto eDiscovery pero no utiliza análisis para monitorear el sentimiento o la toxicidad. Delta le dijo a CNBC que utiliza los análisis y eDiscovery de Aware para monitorear tendencias y sentimientos como una forma de recopilar comentarios de los empleados y otras partes interesadas, y para la retención de registros legales en su plataforma de redes sociales. No hace falta ser un entusiasta de las novelas distópicas para ver dónde todo podría salir muy mal. Jutta Williams, cofundadora de Humane Intelligence, una organización sin fines de lucro dedicada a la responsabilidad de la IA, dijo que la IA añade un aspecto nuevo y potencialmente problemático a los llamados programas de riesgo interno, que han existido durante años para evaluar cosas como el espionaje corporativo, especialmente dentro de las comunicaciones por correo electrónico. Hablando en términos generales sobre la inteligencia artificial de vigilancia de los empleados en lugar de la tecnología de Aware específicamente, Williams dijo a CNBC: «Mucho de esto se convierte en un crimen de pensamiento». Y añadió: «Esto es tratar a las personas como si fueran inventario de una manera que nunca había visto». La IA de vigilancia de los empleados es una pieza de rápido crecimiento pero de nicho de un mercado de IA más grande que se disparó el año pasado, tras el lanzamiento del chatbot ChatGPT de OpenAI en finales de 2022. La IA generativa se convirtió rápidamente en la frase de moda en las llamadas sobre ganancias corporativas, y alguna forma de tecnología está automatizando tareas en casi todas las industrias, desde servicios financieros e investigación biomédica hasta logística, viajes en línea y servicios públicos. Los ingresos de Aware han aumentado un 150% por año en promedio durante los últimos cinco años, dijo Schumann a CNBC, y su cliente típico tiene alrededor de 30.000 empleados. Los principales competidores incluyen Qualtrics, Relativity, Proofpoint, Smarsh y Netskope. Según los estándares de la industria, Aware se mantiene bastante eficiente. La compañía recaudó dinero por última vez en 2021, cuando recaudó 60 millones de dólares en una ronda liderada por Goldman Sachs Asset Management. Compárese eso con grandes empresas de modelos de lenguaje, o LLM, como OpenAI y Anthropic, que han recaudado miles de millones de dólares cada una, en gran parte de socios estratégicos. ‘Seguimiento de la toxicidad en tiempo real’ Schumann fundó la empresa en 2017 después de pasar casi ocho años trabajando en Colaboración empresarial en la compañía de seguros Nationwide. Antes de eso, fue empresario. Y Aware no es la primera empresa que fundó y que le hace pensar en Orwell. En 2005, Schumann fundó una empresa llamada BigBrotherLite.com. Según su perfil de LinkedIn, la empresa desarrolló un software que «mejoró la experiencia de visualización digital y móvil» de la serie de telerrealidad «Gran Hermano» de CBS. En la novela clásica de Orwell «1984», Gran Hermano era el líder de un estado totalitario en el que los ciudadanos estaban bajo vigilancia perpetua. «Construí un reproductor simple enfocado en una experiencia de consumo más limpia y fácil para que la gente vea el programa de televisión en su computadora, «, dijo Schumann en un correo electrónico. En Aware, está haciendo algo muy diferente. Cada año, la compañía publica un informe que agrega información sobre los miles de millones (en 2023, la cantidad fue de 6,5 mil millones) de mensajes enviados entre grandes empresas, tabulando el riesgo percibido. factores y puntuaciones de sentimiento en el lugar de trabajo. Schumann se refiere a los billones de mensajes enviados a través de plataformas de comunicación en el lugar de trabajo cada año como «el conjunto de datos no estructurados de más rápido crecimiento en el mundo». Al incluir otros tipos de contenido que se comparten, como imágenes y videos, la IA analítica de Aware analiza más de 100 millones de contenidos cada día. Al hacerlo, la tecnología crea un gráfico social de la empresa, observando qué equipos internamente hablan entre sí más que otros. «Siempre rastrea el sentimiento de los empleados en tiempo real y siempre rastrea la toxicidad en tiempo real», dijo Schumann sobre el análisis. herramienta. «Si usted fuera un banco que utiliza Aware y el sentimiento de la fuerza laboral se disparó en los últimos 20 minutos, es porque están hablando de algo positivo, colectivamente. La tecnología podría decirles lo que sea», confirmó Aware a CNBC. que utiliza datos de sus clientes empresariales para entrenar sus modelos de aprendizaje automático. El repositorio de datos de la compañía contiene alrededor de 6,5 mil millones de mensajes, lo que representa alrededor de 20 mil millones de interacciones individuales entre más de 3 millones de empleados únicos, dijo la compañía. Cuando un nuevo cliente se registra en la herramienta de análisis, los modelos de IA de Aware tardan unas dos semanas en entrenarse con los mensajes de los empleados y conocer los patrones de emoción y sentimiento dentro de la empresa para poder ver qué es normal y qué es anormal, dijo Schumann». No tendrá nombres de personas, para proteger la privacidad», dijo Schumann. Más bien, dijo, los clientes verán que «tal vez la fuerza laboral mayor de 40 años en esta parte de Estados Unidos esté viendo los cambios en [a] política muy negativamente debido al costo, pero todos los demás fuera de ese grupo de edad y ubicación lo ven de manera positiva porque los impacta de una manera diferente». Pero la herramienta eDiscovery de Aware funciona de manera diferente. Una empresa puede configurar el acceso basado en roles a los nombres de los empleados dependiendo de la categoría de «riesgo extremo» elegida por la empresa, que indica a la tecnología de Aware que extraiga el nombre de un individuo, en ciertos casos, para recursos humanos u otro representante de la empresa. «Algunos de los más comunes son violencia extrema, intimidación extrema, acoso, pero varía según la industria», dijo Schumann, y agregó que en los servicios financieros, se rastrearía la sospecha de uso de información privilegiada. Por ejemplo, un cliente puede especificar una política de «amenazas violentas», o cualquier otra categoría, utilizando la tecnología de Aware, dijo Schumann. y hacer que los modelos de IA monitoreen las infracciones en Slack, Microsoft Teams y Workplace by Meta. El cliente también podría combinar eso con indicadores basados ​​en reglas para ciertas frases, declaraciones y más. Si la IA encuentra algo que viola las políticas específicas de una empresa, podría proporcionar el nombre del empleado al representante designado del cliente. Este tipo de práctica se ha utilizado durante años en las comunicaciones por correo electrónico. Lo nuevo es el uso de la IA y su aplicación en plataformas de mensajería en el lugar de trabajo como Slack y Teams. Amba Kak, directora ejecutiva del AI Now Institute de la Universidad de Nueva York, se preocupa por el uso de la IA para ayudar a determinar qué se considera comportamiento de riesgo. «Tiene un efecto paralizador sobre lo que la gente dice en el lugar de trabajo», dijo Kak, añadiendo que la Comisión Federal de Comercio, el Departamento de Justicia y la Comisión de Igualdad de Oportunidades en el Empleo han expresado preocupaciones sobre el asunto, aunque no estaba hablando específicamente de la tecnología de Aware. «Se trata tanto de cuestiones de derechos de los trabajadores como de privacidad». Schumann dijo que aunque la herramienta eDiscovery de Aware permite a los equipos de investigaciones de seguridad o de recursos humanos utilizar IA para buscar en cantidades masivas de datos, hoy en día ya existe una «capacidad similar pero básica» en Slack, Teams y otras plataformas. «Una distinción clave aquí es que Aware y sus modelos de IA no toman decisiones», afirmó Schumann. «Nuestra IA simplemente hace que sea más fácil examinar este nuevo conjunto de datos para identificar riesgos potenciales o violaciones de políticas». Preocupaciones por la privacidad Incluso si los datos se agregan o se anonimizan, sugiere la investigación, es un concepto erróneo. Un estudio histórico sobre privacidad de datos que utilizó datos del censo estadounidense de 1990 mostró que el 87% de los estadounidenses podían identificarse únicamente mediante el código postal, la fecha de nacimiento y el sexo. Los clientes de Aware que utilizan su herramienta de análisis tienen el poder de agregar metadatos al seguimiento de mensajes, como la edad, ubicación, división, antigüedad o función laboral del empleado. «Lo que están diciendo se basa en una noción muy obsoleta y, yo diría, completamente desacreditada en este momento de que la anonimización o la agregación es como una panacea para resolver la preocupación por la privacidad», dijo Kak. Además, el tipo de modelo de IA Aware Los usos pueden ser efectivos para generar inferencias a partir de datos agregados, haciendo conjeturas precisas, por ejemplo, sobre identificadores personales basados ​​en el idioma, el contexto, los términos de jerga y más, según una investigación reciente. «Ninguna empresa está esencialmente en condiciones de hacer garantías amplias sobre la privacidad y seguridad de los LLM y este tipo de sistemas», dijo Kak. «No hay nadie que pueda decirte con seriedad que estos desafíos están resueltos». ¿Y qué pasa con los recursos de los empleados? Si se marca una interacción y un trabajador es disciplinado o despedido, es difícil para él ofrecer una defensa si no está al tanto de todos los datos involucrados, dijo Williams. «¿Cómo enfrenta a su acusador cuando sabemos que la explicabilidad de la IA ¿Todavía es inmaduro?» «Cuando el modelo señala una interacción», dijo Schumann, «proporciona un contexto completo sobre lo que sucedió y qué política desencadenó, brindando equipos de investigación la información que necesitan para decidir los próximos pasos de acuerdo con las políticas de la empresa y la ley.»MIRAR: La IA está ‘realmente en juego aquí’ con los recientes despidos tecnológicos

Source link

Google se une a una coalición destinada a combatir los deepfakes generados por IA

Google se une a una coalición destinada a combatir los deepfakes generados por IA | Daily Telegraph Reproduciendo ahora

Source link

Los investigadores utilizan IA para identificar extrañas ‘anomalías’ reflectantes en la Luna

Investigadores utilizan IA para identificar extrañas ‘anomalías’ reflectantes en la Luna | Daily Telegraph Reproduciendo ahora

Source link

Matthew Candy de IBM ve evidencia de innovación en la búsqueda de la escala de IA generativa en Australia en 2024

Las organizaciones australianas están siguiendo el ritmo de la innovación global en IA generativa, según Matthew Candy, director global de IA generativa de IBM Consulting. Un enfoque legislativo local en la regulación de casos de uso de alto riesgo también podría fomentar el potencial de la IA en el mercado local, afirmó. Candy visitó recientemente Australia y la región APAC en general para reunirse con algunos de los clientes y socios regionales de IBM Consulting, muchos de los cuales pasarán de pilotear IA generativa a implementar modelos a escala durante el año calendario 2024. Hablando con TechRepublic Australia, Candy predijo un movimiento a modelos de IA más pequeños y al surgimiento de nuevos productos y servicios digitales. Sugirió que las organizaciones que analizan la escala deben centrarse en la estrategia y el valor empresarial, así como en aspectos como la gobernanza. ¿Cómo se compara Australia con el mundo en IA generativa? El Índice Global de Adopción de IA 2023 de IBM identificó a Australia como un mercado rezagado en la adopción de IA. Encontró que solo el 29% de las organizaciones australianas estaban implementando activamente IA en noviembre de 2023, muy por detrás de los primeros países en adoptar India (59%), China (50%), Singapur (53%) y los Emiratos Árabes Unidos (58%). VER: Las pequeñas y medianas empresas australianas corren el riesgo de quedarse atrás en IA Matt Candy, director global de IA generativa de IBM Consulting Sin embargo, Candy dijo que hay evidencia de que Australia está adoptando la IA generativa. Dijo que incluso las organizaciones de industrias tradicionales o reguladas, así como las agencias gubernamentales, están avanzando y que el mercado local mostró una comprensión clara de dónde se puede obtener valor. «Se están realizando algunos trabajos bastante innovadores en Australia», dijo Candy. “Uno de los equipos con los que he pasado algún tiempo está creando nuevos productos y servicios digitales innovadores impulsados ​​por modelos de IA generativa; Definitivamente no veo a nadie detrás sólo porque están en Australia”. Casos de uso de IA generativa que se están implementando ahora en Australia IBM Consulting ha visto muchos trabajos piloto de productos en Australia, con un número creciente de estos proyectos ahora activos más allá de la fase piloto y de experimentación que caracterizó 2023. De su tiempo en el mercado australiano , Candy dijo que algunos casos de uso de clientes interesantes incluyen: Las empresas de la industria de servicios públicos con uso intensivo de activos están utilizando asistentes generativos impulsados ​​por IA para ayudar a los ejecutivos a tomar decisiones de inversión sobre la gestión de activos y la gestión de una cartera de activos, lo que podría resultar en un aumento significativo de los ahorros. Las empresas de servicios públicos están envolviendo asistentes de IA generativa en bases de conocimiento complejas, como procedimientos operativos estándar, para permitir que controladores de red conversen con conjuntos de documentos complejos para eliminar la fricción de algunas tareas. Las universidades están utilizando IA generativa para ayudar a generar contenido más personalizado para respaldar las comunicaciones de los estudiantes y al mismo tiempo permitirles interactuar de manera conversacional con el contenido del curso que están aprendiendo. El ciclo de vida de desarrollo de software de extremo a extremo se está mejorando en al menos un gran banco, donde IBM Consulting apoya el uso de IA generativa para hacer cosas como traducir los requisitos del proyecto en resultados creativos, como historias de usuarios y código. Una agencia del gobierno australiano está utilizando grandes modelos lingüísticos para crear una nueva plataforma de formación de habilidades. Más cobertura de Australia ‘Grupos de valor’ y personas entre las consideraciones a la hora de escalar la IA Candy fue designada para liderar a los 160.000 consultores globales de IBM Consulting hacia la era de la IA generativa en agosto de 2023. Dijo que las organizaciones australianas que buscan escalar la experimentación con IA generativa hasta su implementación este año deberían mantener un pocas cosas delante de mi mente. Tenga una visión y una estrategia claras. La base para el éxito de la IA generativa es tener el tipo de estrategia adecuado. Esto se basará en la identificación de una “Estrella del Norte” o la articulación de una visión de cómo será el nuevo mundo que utilizará el potencial de la IA. Esta visión y estrategia respaldarán la realización de la hoja de ruta. Alinear los casos de uso con los ‘grupos de valor’ Encontrar casos de uso alineados con los «grupos de valor» es importante, afirmó Candy. Ya sea un banco, un proveedor de servicios públicos o un minorista, Candy sugiere preguntar en qué parte de la organización hay bases de conocimientos manuales pesadas o actividades intensivas en documentos que ralentizan los tiempos de ciclo. «Un ejemplo es un centro de contacto, donde vemos a mucha gente centrándose en la IA generativa», dijo Candy. «¿Cómo puede hacer que sus agentes sean más efectivos envolviéndolos en bases de conocimiento para mejorar los tiempos de manejo de llamadas o las acciones de los agentes para brindar una mejor experiencia al cliente?» Iniciar un motor de innovación para la IA Escalar la IA requiere un motor de innovación para que las organizaciones lleven los casos de uso hasta la validación, las pruebas, la realización de pruebas piloto con productos mínimos viables y el escalamiento. Candy dijo que formas de trabajo como las basadas en el diseño y en el producto podrían contribuir al éxito organizacional. «Se necesita ese volante ágil para construir, entregar y escalar», dijo Candy. Construir un núcleo tecnológico de IA generativa Candy dijo que las organizaciones deben tener clara la arquitectura y la capa central digital que utilizarán para gestionar su IA generativa. Esta claridad es necesaria porque muchas organizaciones utilizarán IA en múltiples nubes, además de productos con IA como Salesforce y SAP. Controle la gobernanza de la IA Las empresas necesitarán gestionar problemas como el sesgo, la deriva y la explicabilidad en múltiples modelos de IA, así como contar con los procesos adecuados para su gente. También deberán cumplir con las regulaciones que se están creando en múltiples jurisdicciones legales en todo el mundo. Priorizar el desafío de las personas Alrededor del 70% del desafío de implementar la IA es un desafío humano, sostiene Candy. Esto incluye infundir a los empleados las habilidades necesarias para tener confianza en los modelos de IA y maximizar el éxito de la gestión del cambio logrando que los empleados adopten ampliamente la IA en la base. El futuro de la IA en Australia equilibrará la regulación de casos de uso con la innovación. Matthew Candy está «muy entusiasmado» con el potencial de la IA generativa. IBM Consulting también está implementando IA generativa; Recientemente anunció que aumentaría sus 160.000 consultores con una variedad de asistentes de IA para ampliar la experiencia en una variedad de roles en la organización. VER: AWS e IBM Consulting se asocian para ampliar la capacitación en IA generativa. Candy dijo que estos asistentes de IA podrían encapsular el conocimiento organizacional y manejar más partes repetibles de los roles. Estos asistentes también se ofrecerán como productos y servicios para los clientes de IBM Consulting para ayudarlos a escalar mejor y más rápido hasta 2024. La regulación australiana de IA tiene derecho a centrarse primero en casos de uso de alto riesgo. El enfoque regulatorio anunciado por Australia para la IA, que sigue a la Unión Europea en centrarse La regulación futura en torno a los riesgos presentados por casos de uso específicos de IA era el “enfoque correcto”, dijo Candy. “Creemos en asegurarnos de que existan regulaciones y controles adecuados para diferentes tipos de casos de uso; en realidad se trata de regular dónde se encuentra el caso de uso”, dijo Candy. IBM predice el aumento de modelos más pequeños, innovación y gobernanza. Los clientes empresariales en Australia y en todo el mundo están pensando detenidamente sobre los mejores modelos de IA para implementar. Candy predice que los modelos más pequeños serán atractivos en 2024 debido a ventajas como menos alucinaciones y requisitos informáticos, lo que conducirá a menores costos. Otra tendencia que se espera en 2024 es la aparición de nuevos productos y servicios digitales innovadores que podrían cambiar y transformar los modelos de negocio existentes, y Candy espera que surjan muchas grandes ideas y visiones este año a través de la excelencia en la IA generativa. Dado que la IA responsable se está volviendo fundamental para las organizaciones, Candy también predice que habrá un enfoque continuo en las bases de la gobernanza de la IA, tanto desde el punto de vista tecnológico como de la integración con las personas y los procesos de las organizaciones australianas.

Source link

Página 9 de 17

Funciona con WordPress & Tema de Anders Norén