Imagen: Adobe/Grandbrothers El Instituto Nacional de Estándares y Tecnología estableció el Instituto de Seguridad de IA el 7 de febrero para determinar pautas y estándares para la medición y política de IA. Las empresas de IA de EE. UU. y las empresas que hacen negocios en EE. UU. se verán afectadas por esas directrices y estándares y pueden tener la oportunidad de hacer comentarios al respecto. ¿Qué es el consorcio del Instituto de Seguridad de IA de EE. UU.? El Instituto de Seguridad de la IA de EE. UU. es un grupo de investigación conjunto de los sectores público y privado y un espacio de intercambio de datos para “creadores y usuarios de IA, académicos, investigadores gubernamentales y de la industria, y organizaciones de la sociedad civil”, según el NIST. Las organizaciones podrían postularse para convertirse en miembros entre el 2 de noviembre de 2023 y el 15 de enero de 2024. De más de 600 organizaciones interesadas, el NIST eligió 200 empresas y organizaciones para convertirse en miembros. Las organizaciones participantes incluyen Apple, Anthropic, Cisco, Hewlett Packard Enterprise, Hugging Face, Microsoft, Meta, NVIDIA, OpenAI, Salesforce y otras empresas, instituciones académicas y organizaciones de investigación. Esos miembros trabajarán en proyectos que incluyen: Desarrollar nuevas pautas, herramientas, métodos, protocolos y mejores prácticas para contribuir a los estándares de la industria para desarrollar e implementar una IA segura y confiable. Desarrollar orientación y puntos de referencia para identificar y evaluar las capacidades de la IA, especialmente aquellas capacidades que podrían causar daño. Desarrollar enfoques para incorporar prácticas de desarrollo seguras para la IA generativa. Desarrollar métodos y prácticas para lograr con éxito el aprendizaje automático en equipos rojos. Desarrollar formas de autenticar el contenido digital generado por IA. Especificar y fomentar las habilidades de la fuerza laboral de IA. «La IA responsable ofrece un enorme potencial para la humanidad, las empresas y los servicios públicos, y Cisco cree firmemente que un enfoque holístico y simplificado ayudará a Estados Unidos a aprovechar de forma segura todos los beneficios de la IA», afirmó Nicole Isaac, vicepresidenta de políticas públicas globales de Cisco. en una declaración al NIST. VER: ¿Cuáles son las diferencias entre IA y aprendizaje automático? (TechRepublic Premium) «Trabajar juntos entre la industria, el gobierno y la sociedad civil es esencial si queremos desarrollar estándares comunes en torno a una IA segura y confiable», dijo Nick Clegg, presidente de asuntos globales de Meta, en una declaración al NIST. «Estamos entusiasmados de ser parte de este consorcio y trabajar en estrecha colaboración con el AI Safety Institute». Una omisión interesante en la lista de miembros del Instituto de Seguridad de la IA de EE. UU. es el Future of Life Institute, una organización mundial sin fines de lucro con inversores entre los que se incluye Elon Musk, creada para evitar que la IA contribuya a “riesgos extremos a gran escala”, como una guerra global. Más cobertura de IA de lectura obligada La creación del Instituto de Seguridad de la IA y su lugar en el gobierno federal El Instituto de Seguridad de la IA de EE. UU. se creó como parte de los esfuerzos establecidos por la Orden Ejecutiva del presidente Joe Biden sobre la proliferación y la seguridad de la IA en octubre de 2023. El Instituto de Seguridad de la IA de EE. UU. está bajo la jurisdicción del Departamento de Comercio. Elizabeth Kelly es la directora inaugural del instituto y Elham Tabassi es su director de tecnología. ¿Quién trabaja en la seguridad de la IA? En los EE. UU., la seguridad y la regulación de la IA a nivel gubernamental están a cargo del NIST y, ahora, del Instituto de Seguridad de la IA de los EE. UU. dependiente del NIST. Las principales empresas de IA de EE. UU. han trabajado con el gobierno para fomentar la seguridad y las habilidades de la IA para ayudar a la industria de la IA a construir la economía. Las instituciones académicas que trabajan en la seguridad de la IA incluyen la Universidad de Stanford y la Universidad de Maryland, entre otras. Un grupo de organizaciones internacionales de ciberseguridad estableció las Directrices para el desarrollo seguro de sistemas de IA en noviembre de 2023 para abordar la seguridad de la IA en las primeras etapas del ciclo de desarrollo.
Etiqueta: inteligencia artificial Página 9 de 17
Google ha estado actualizando activamente sus ofertas de inteligencia artificial, incluido el cambio de nombre de Bard a Gemini y la introducción de una aplicación de Android dedicada. En particular, Google ha introducido un nivel pago para su motor de IA generativa, lo que marca que los usuarios por primera vez deben considerar una suscripción digital. Para comprender en profundidad las herramientas de inteligencia artificial de Google, puede consultar nuestro artículo sobre Google Gemini explicado. Aquí, nos centraremos en desglosar las funciones de Google Gemini Advanced, una parte del nuevo nivel Google One AI Premium. Profundizaremos en el costo de este nivel de nube y describiremos las características y beneficios de IA que ofrece, ayudándolo a decidir si vale la pena suscribirse. Este nivel premium está integrado en los planes de Google One y brinda a los usuarios almacenamiento adicional en la nube. Estén atentos para obtener una descripción general de Google One AI Premium y sus funciones de configuración. Precio y disponibilidad de Google One AI Premium El plan Google One AI Premium ya está disponible para su compra a un costo mensual de $ 19,99 / £ 18,99 / AU $ 32,99. A diferencia de otros planes de Google One, no existe la opción de pagar anualmente por un precio general con descuento. Sin embargo, tiene la flexibilidad de cancelar la suscripción en cualquier momento. En este momento, Google ofrece una prueba gratuita de dos meses de Google One AI Premium. Esto significa que puedes disfrutar de los beneficios del plan premium sin ningún cargo durante los dos meses iniciales. Para explorar y comparar planes, puede registrarse en el sitio de Google One. Características y beneficios de Google One AI Premium Con el plan Google One AI Premium, recibirás 2 TB de almacenamiento. Los suscriptores pueden utilizar varios servicios de Google, como Gmail, Google Drive y Google Photos. Si las limitaciones del plan de almacenamiento gratuito de 15 GB le parecen restrictivas, la actualización a este plan premium proporciona un aumento significativo en el almacenamiento. Si bien hay otros planes de Google One disponibles que ofrecen almacenamiento que van desde 2 TB a 30 TB, es importante tener en cuenta que solo el plan Google One AI Premium incluye todas las funciones de Gemini Advanced. Además del espacio de almacenamiento, todos los planes de Google One vienen con varias ventajas, incluido soporte prioritario, un reembolso del 10% en Google Store, funciones adicionales de edición de Google Photos (como Magic Eraser), un servicio de monitoreo de la web oscura para filtraciones de información personal. y acceso a Google One VPN. El enfoque principal de Google One AI Premium son sus funciones de inteligencia artificial y un componente clave de este plan es el acceso a Gemini Advanced. Esto implica el uso de la versión «más capaz» del modelo Gemini de Google, conocida como Ultra 1.0. En una comparación similar, puedes compararlo con la actualización del plan gratuito ChatGPT a ChatGPT Plus. Según Google, Gemini Ultra 1.0 ofrece un «rendimiento de última generación» con la capacidad de manejar «tareas altamente complejas» que involucran texto, imágenes y código. Gemini Advanced, en comparación con sus homólogos, permite conversaciones más largas y una mejor comprensión del contexto. Si busca la IA más poderosa del repertorio de Google, Gemini Advanced, disponible con Google One AI Premium, es la opción a considerar. El director ejecutivo de Google, Sundar Pichai, afirma que el modelo más grande, Ultra 1.0, es el primero en superar a los expertos humanos en comprensión masiva del lenguaje multitarea (MMLU). MMLU involucra un conjunto diverso de 57 materias, que incluyen matemáticas, física, historia, derecho, medicina y ética, para evaluar el conocimiento y las habilidades de resolución de problemas. Gizchina Noticias de la semana Aplicación Google Gemini en teléfonos inteligentes La aplicación dedicada Google Gemini para Android y las funciones Gemini integradas en la aplicación Google para iOS son accesibles para todos los usuarios, estén o no suscritos al plan premium, y lo mismo se aplica al interfaz web. Sin embargo, los suscriptores del plan premium se benefician del modelo Ultra 1.0 superior en todas estas plataformas. Como referencia, un plan estándar de Google One de 2 TB, que incluye funciones de edición de fotografías, acceso VPN y más, pero excluye capacidades de inteligencia artificial, tiene un precio de $ 9,99 / £ 7,99 / AU $ 19,99 por mes. En consecuencia, optar por las funciones Gemini Advanced le costará $ 10 / £ 11 / AU $ 13 adicionales además del plan estándar. Según Google, la integración de Gemini con las aplicaciones de productividad de Google, incluidas Gmail, Google Docs, Google Meet y Google Slides, está en el horizonte. Esta integración, conocida como Gemini for Workspace, pronto estará disponible y se incluirá como parte del plan Google One AI Premium. Su objetivo es ayudar a los usuarios a redactar correos electrónicos, diseñar presentaciones y más dentro de estas aplicaciones de productividad de Google. Este cambio de marca abarca las funciones anteriormente conocidas como Duet AI, que la compañía introdujo para los usuarios de las aplicaciones de Google. Independientemente de si es un usuario individual o empresarial, puede acceder a estas herramientas de inteligencia artificial integradas suscribiéndose al plan Google One AI Premium. En resumen, más allá del plan estándar Google One de 2 TB, el beneficio clave es obtener acceso a las últimas funciones de Gemini AI de Google. La compañía también insinúa desarrollos futuros y promete características adicionales en el futuro. Opinión sobre Google One AI Premium La oferta de Google de una prueba gratuita de dos meses para el plan One AI Premium, que incluye Gemini Advanced, parece una oportunidad convincente para aquellos interesados en explorar algunas de las herramientas de IA más potentes disponibles actualmente. Sin embargo, es importante tener en cuenta que gestionar y cancelar cualquier prueba gratuita no deseada es esencial. Dicho esto, es fundamental reconocer que Gemini Advanced aún se encuentra en sus primeras etapas. Está pendiente una evaluación exhaustiva y una comparación con otras herramientas de inteligencia artificial, como ChatGPT Plus. Además, su integración con las aplicaciones de productividad de Google se indica como «disponible pronto», lo que deja cierta incertidumbre sobre el cronograma exacto de esta función. A medida que el servicio evolucione, es probable que haya más información y comparaciones disponibles. Para una exploración exhaustiva del rendimiento de los últimos modelos de IA de Google, incluido Gemini Advanced, puede consultar el informe de evaluación comparativa Gemini de la compañía. Algunos probadores afortunados, como el profesor de inteligencia artificial Ethan Mollick, han tenido la oportunidad de experimentar con Gemini Advanced durante un tiempo, habiendo obtenido acceso avanzado. Las primeras impresiones sugieren que Gemini Advanced se está posicionando como un formidable contendiente de IA, posiblemente comparable a una IA de clase GPT-4. Está aquí para competir con ChatGPT Plus, particularmente para tareas exigentes como codificación y resolución avanzada de problemas. Además, Gemini Advanced se integrará sin problemas con las aplicaciones de Google. El éxito práctico de estas integraciones se hará más claro con el tiempo. Sin embargo, para los primeros usuarios deseosos de explorar, la prueba gratuita ofrece la oportunidad de profundizar en Gemini Advanced. Descargo de responsabilidad: Es posible que algunas de las empresas de cuyos productos hablamos nos compensen, pero nuestros artículos y reseñas son siempre nuestras opiniones honestas. Para obtener más detalles, puede consultar nuestras pautas editoriales y conocer cómo utilizamos los enlaces de afiliados.
Como director senior y jefe global de la oficina del director de seguridad de la información (CISO) de Google Cloud, Nick Godfrey supervisa la educación de los empleados sobre ciberseguridad, así como el manejo de la detección y mitigación de amenazas. Realizamos una entrevista con Godfrey a través de una videollamada sobre cómo los CISO y otros líderes empresariales centrados en la tecnología pueden asignar sus recursos finitos, conseguir la aceptación de la seguridad por parte de otras partes interesadas y los nuevos desafíos y oportunidades que introduce la IA generativa. Dado que Godfrey reside en el Reino Unido, también le preguntamos su perspectiva sobre consideraciones específicas del Reino Unido. Cómo pueden los CISO asignar recursos de acuerdo con las amenazas de ciberseguridad más probables Megan Crouse: ¿Cómo pueden los CISO evaluar las amenazas de ciberseguridad más probables que su organización pueda enfrentar, además de considerar el presupuesto y los recursos? Nick Godfrey: Una de las cosas más importantes en las que pensar al determinar cómo asignar mejor los recursos finitos que tiene cualquier CISO o cualquier organización es el equilibrio entre comprar productos y servicios de seguridad exclusivos versus pensar en el tipo de tecnología subyacente. riesgos que tiene la organización. En particular, en el caso de una organización que tiene tecnología heredada, la capacidad de hacer que la tecnología heredada sea defendible incluso con productos de seguridad encima se está volviendo cada vez más difícil. Entonces, el desafío y la compensación son: ¿compramos más productos de seguridad? ¿Invertimos en más gente de seguridad? ¿Compramos más servicios de seguridad? Versus: ¿Invertimos en infraestructura moderna, que es intrínsecamente más defendible? La respuesta y la recuperación son claves para responder a las ciberamenazas Megan Crouse: En términos de priorizar el gasto con un presupuesto de TI, a menudo se habla del ransomware y el robo de datos. ¿Diría que es bueno centrarse en ellos, o los CISO deberían centrarse en otra parte, o depende en gran medida de lo que ha visto en su propia organización? Nick Godfrey: El robo de datos y los ataques de ransomware son muy comunes; por lo tanto, como CISO, equipo de seguridad y CPO, debe concentrarse en ese tipo de cosas. El ransomware en particular es un riesgo interesante de intentar gestionar y, de hecho, puede ser muy útil en términos de enmarcar la forma de pensar sobre el programa de seguridad de un extremo a otro. Requiere que piense en un enfoque integral de los aspectos de respuesta y recuperación del programa de seguridad y, en particular, su capacidad para reconstruir la infraestructura crítica para restaurar datos y, en última instancia, restaurar servicios. Centrarse en esas cosas no sólo mejorará su capacidad para responder a esas cosas específicamente, sino que también mejorará su capacidad para administrar su TI y su infraestructura porque se mudará a un lugar donde, en lugar de no comprender su TI y cómo está vas a reconstruirlo, tienes la capacidad de reconstruirlo. Si tiene la capacidad de reconstruir su TI y restaurar sus datos de forma regular, eso en realidad crea una situación en la que le resultará mucho más fácil gestionar agresivamente las vulnerabilidades y parchear la infraestructura subyacente. ¿Por qué? Porque si lo parcheas y se rompe, no tienes que restaurarlo y hacerlo funcionar. Por lo tanto, centrarse en la naturaleza específica del ransomware y en lo que le hace pensar en realidad tiene un efecto positivo más allá de su capacidad para gestionar el ransomware. VER: Una amenaza de botnet en EE. UU. apuntó a infraestructura crítica. (TechRepublic) Los CISO necesitan la aceptación de otros tomadores de decisiones presupuestarias Megan Crouse: ¿Cómo deberían los profesionales y ejecutivos de tecnología educar a otros tomadores de decisiones presupuestarias sobre las prioridades de seguridad? Nick Godfrey: Lo primero es encontrar formas de hacerlo de manera integral. Si hay una conversación desconectada sobre un presupuesto de seguridad versus un presupuesto de tecnología, entonces se puede perder una enorme oportunidad de tener esa conversación conjunta. Se pueden crear condiciones en las que se hable de seguridad como un porcentaje del presupuesto de tecnología, lo cual no creo que sea necesariamente muy útil. Tener al CISO y al CPO trabajando juntos y presentando juntos a la junta directiva cómo la cartera combinada de proyectos de tecnología y seguridad está mejorando en última instancia el perfil de riesgo tecnológico, además de lograr otros objetivos comerciales y de negocios, es el enfoque correcto. No deberían pensar simplemente en el gasto en seguridad como gasto en seguridad; deberían pensar en una gran parte del gasto en tecnología como gasto en seguridad. Cuanto más podamos integrar la conversación sobre seguridad, ciberseguridad y riesgo tecnológico en las otras conversaciones que siempre tienen lugar en la junta directiva, más podremos convertirla en un riesgo y una consideración general de la misma manera que las juntas directivas piensan sobre temas financieros y financieros. riesgos operacionales. Sí, el director financiero hablará periódicamente sobre la situación financiera general de la organización y la gestión de riesgos, pero también verá al CIO en el contexto de TI y al CISO en el contexto de seguridad hablando sobre los aspectos financieros de su negocio. Cobertura de seguridad de lectura obligada Consideraciones de seguridad en torno a la IA generativa Megan Crouse: Uno de esos cambios tecnológicos globales más importantes es la IA generativa. ¿A qué consideraciones de seguridad en torno a la IA generativa deberían estar atentas las empresas hoy en día? Nick Godfrey: En un nivel alto, la forma en que pensamos sobre la intersección de la seguridad y la IA es dividirla en tres categorías. El primero es el uso de la IA para defender. ¿Cómo podemos incorporar la IA en herramientas y servicios de ciberseguridad que mejoren la fidelidad del análisis o la velocidad del análisis? El segundo grupo es el uso de la IA por parte de los atacantes para mejorar su capacidad de hacer cosas que antes necesitaban mucha participación humana o procesos manuales. El tercer grupo es: ¿Cómo piensan las organizaciones sobre el problema de proteger la IA? Cuando hablamos con nuestros clientes, el primer segmento es algo que perciben que los proveedores de productos de seguridad deberían resolver. Nosotros lo somos y otros también. El segundo segmento, en términos del uso de la IA por parte de los actores de amenazas, es algo que nuestros clientes están vigilando, pero no es exactamente un territorio nuevo. Siempre hemos tenido que evolucionar nuestros perfiles de amenazas para reaccionar ante lo que sucede en el ciberespacio. Esta es quizás una versión ligeramente diferente de ese requisito de evolución, pero sigue siendo fundamentalmente algo que hemos tenido que hacer. Debe ampliar y modificar sus capacidades de inteligencia de amenazas para comprender ese tipo de amenaza y, en particular, debe ajustar sus controles. Es el tercer segmento (cómo pensar en el uso de la IA generativa dentro de su empresa) el que está provocando muchas conversaciones en profundidad. Este grupo llega a varias áreas diferentes. Uno, de hecho, es la TI en la sombra. El uso de IA generativa de consumo es un problema de TI en la sombra, ya que crea una situación en la que la organización intenta hacer cosas con IA y utilizando tecnología de consumo. Abogamos firmemente por que los CISO no siempre deberían bloquear la IA del consumidor; Puede haber situaciones en las que sea necesario, pero es mejor intentar descubrir qué está tratando de lograr su organización e intentar habilitarlo de la manera correcta en lugar de tratar de bloquearlo todo. Pero la IA comercial entra en áreas interesantes en torno al linaje de datos y la procedencia de los datos en la organización, cómo se han utilizado para entrenar modelos y quién es responsable de la calidad de los datos, no de su seguridad… de su calidad. Las empresas también deberían plantearse preguntas sobre la gobernanza general de los proyectos de IA. ¿Qué partes de la empresa son, en última instancia, responsables de la IA? Como ejemplo, formar un equipo rojo en una plataforma de IA es bastante diferente a formar un equipo rojo en un sistema puramente técnico en el sentido de que, además de realizar el equipo rojo técnico, también es necesario pensar en el equipo rojo de las interacciones reales con el LLM (lenguaje grande). modelo) y la IA generativa y cómo romperla en ese nivel. En realidad, asegurar el uso de la IA parece ser lo que más nos desafía en la industria. Ciberamenazas y tendencias internacionales y del Reino Unido Megan Crouse: En términos del Reino Unido, ¿cuáles son las amenazas de seguridad más probables a las que se enfrentan las organizaciones del Reino Unido? ¿Y hay algún consejo particular que les daría con respecto al presupuesto y la planificación en torno a la seguridad? Nick Godfrey: Creo que probablemente sea bastante consistente con otros países similares. Obviamente, hubo cierto trasfondo político para ciertos tipos de ataques cibernéticos y ciertos actores de amenazas, pero creo que si se comparara el Reino Unido con los EE. UU. y los países de Europa occidental, creo que todos están viendo amenazas similares. Las amenazas se dirigen en parte a líneas políticas, pero también muchas de ellas son oportunistas y se basan en la infraestructura que gestiona una determinada organización o país. No creo que en muchas situaciones los actores de amenazas con motivaciones comerciales o económicas estén necesariamente demasiado preocupados por el país en particular que persiguen. Creo que están motivados principalmente por el tamaño de la recompensa potencial y la facilidad con la que podrían lograr ese resultado.
Australia tiene el problema de desacelerar el crecimiento de la productividad. Como grupo encargado de abordar este problema, la Comisión de Productividad del gobierno australiano está considerando la IA como una parte potencial del problema. Recientemente, la Comisión publicó un informe de tres artículos, Aprovechar al máximo la oportunidad de la IA: productividad, regulación y acceso a datos, para analizar más a fondo esta oportunidad. Para maximizar las ganancias de productividad derivadas de la IA, el documento aboga por un enfoque de regulación suave. Además, la Comisión recomienda que los departamentos gubernamentales de todos los niveles (federal, estatal y local) “lideren con el ejemplo” y aporten sus propios datos y recursos para promover el desarrollo de modelos de IA de calidad. Desglose de la investigación El informe de investigación se divide en tres artículos separados. Documento 1: Adopción de la IA, productividad y el papel del gobierno El primer documento señala que debido a que la IA ya se está volviendo omnipresente en algunas áreas en línea y se está incorporando a las herramientas cotidianas, es una tecnología que ya está brindando beneficios de productividad a todas las empresas e individuos. . Son pequeños por ahora pero crecerán con el tiempo. Si bien esos aumentos de productividad son interesantes, el informe también reconoce que la IA plantea riesgos, particularmente en torno a la confianza del consumidor. La Comisión recomienda que los gobiernos puedan ser parte de la solución a este desafío de confianza aportando sus propios datos de alta calidad para respaldar el desarrollo de modelos de calidad. «La estrategia digital y de datos provisional del Gobierno señala que el Servicio Público Australiano gestiona una gran cantidad de datos que no se utilizan en toda su extensión, y el acceso sigue restringido a pesar de los claros beneficios derivados de compartir datos de forma segura entre los sectores público y privado», el notas del informe. Documento 2: Los desafíos de regular la IA El segundo documento analiza los beneficios y riesgos de la IA y cómo el gobierno australiano debería regularla. Cita la respuesta provisional del gobierno australiano a la Consulta sobre IA segura y responsable en Australia como un punto de partida útil y el documento de la Comisión de Productividad como un enfoque sistemático e implementable para la regulación de la IA (Figura A). Figura A: Regulación del uso de la IA. Imagen: Comisión de Productividad Vale la pena señalar que actualmente Australia tiene regulaciones muy suaves sobre la IA, y la industria y el público, en su mayor parte, están mirando las leyes europeas de IA que se introducirán próximamente para obtener orientación sobre el asunto. Sin embargo, en lugar de que la regulación del riesgo socave la productividad, el documento sostiene que el uso seguro y ético de la IA se reduce a una serie de factores como las normas sociales, las presiones del mercado, la arquitectura de codificación y la confianza pública. En otras palabras, el informe sostiene que es poco probable que un enfoque rígido de la regulación de la IA aborde los riesgos, y que los reguladores necesitan un enfoque más holístico. Documento 3: La IA aumenta los riesgos para la política de datos El tercer documento señala que los datos han sido un recurso tanto para el sector público como para el privado durante décadas. La IA ha acelerado las ganancias potenciales y al mismo tiempo ha elevado el riesgo. Los australianos también lo saben. Como muestra la investigación de la Comisión, la privacidad, junto con la calidad y el precio, es una de las tres principales preocupaciones entre los australianos cuando se trata de datos (Figura B). Para disipar estas preocupaciones, la Comisión recomienda una estrategia nacional de datos como preferible a una regulación contundente. Figura B: Los australianos dan una alta puntuación a la privacidad de los datos, pero por detrás de la calidad y el precio. Imagen: Comisión de Productividad “Una vez desarrolladas, todas las regulaciones y directrices futuras sobre el uso y análisis de datos podrían hacer referencia a los principios acordados de la estrategia nacional de datos”, señala el informe. «De esta manera, la estrategia de datos podría proporcionar una base segura y consistente para el desarrollo y uso de la IA y otras tecnologías con uso intensivo de datos». Más cobertura de Australia Colaboración con el gobierno en juego La idea central de la investigación es que el gobierno debería buscar ser un participante activo en la configuración de la IA. Los investigadores argumentan que el gobierno debería resistirse a infundir miedo en algunos rincones con respecto a la IA y aprovechar la oportunidad que tiene de ser una parte activa del desarrollo de mejores prácticas en IA. Para la industria, esto puede significar una proliferación de oportunidades para que los sectores público y privado se unan en colaboración. Algunas oportunidades potenciales incluyen: Iniciativas de autorregulación de la industria. Los profesionales de datos y el sector privado pueden adoptar voluntariamente principios éticos, mejores prácticas y directrices para el desarrollo y uso responsable de la IA y demostrar su compromiso con los valores sociales y la confiabilidad. Esto puede ayudar a reducir la necesidad de intervención gubernamental y garantizar que se le recomiende ese enfoque suave al gobierno australiano. Codiseño de políticas de IA con las partes interesadas. Los profesionales de datos y el sector privado pueden participar activamente en el desarrollo de políticas y regulaciones de IA y brindar su experiencia, conocimientos y retroalimentación a las agencias gubernamentales. Esto puede ayudar a garantizar que las políticas se basen en los últimos avances tecnológicos, reflejen las necesidades e intereses de las diversas partes interesadas y logren un equilibrio entre innovación y regulación. Consejos asesores de ética de la IA El gobierno puede guiarse por consejos asesores de ética de la IA, que luego pueden utilizarse como marco para el desarrollo de cualquier regulación. Estas juntas pueden actuar para informar al gobierno sobre los riesgos y daños, proponer estrategias de mitigación y promover la conciencia pública y el compromiso con la ética de la IA. Adopción de tecnologías de IA por parte del sector público La creación de soluciones de IA que mejoren la prestación, la eficiencia y la transparencia de los servicios públicos puede dar como resultado un gobierno que esté más familiarizado con las capacidades y los desafíos de la IA. Las organizaciones que trabajan mucho con agencias gubernamentales deberían considerar agregar acreditaciones relacionadas con la IA para ayudar con las licitaciones y el apoyo estratégico que la empresa luego puede brindar al gobierno.
Google anunció el jueves un importante cambio de marca de Bard, su asistente y chatbot de inteligencia artificial, que incluye una nueva aplicación y opciones de suscripción. Bard, principal competidor de ChatGPT de OpenAI, ahora se llama Gemini, el mismo nombre que el conjunto de modelos de IA que impulsan el chatbot. Google también anunció nuevas formas para que los consumidores accedan a la herramienta de IA: a partir del jueves, los usuarios de Android pueden descargar un nueva aplicación de Android dedicada para Gemini, y los usuarios de iPhone pueden usar Gemini dentro de la aplicación de Google en iOS. El cambio de marca y las ofertas de aplicaciones de Google subrayan el compromiso de la compañía de buscar e invertir fuertemente en asistentes o agentes de IA, un término que se usa a menudo para describir herramientas que van desde chatbots hasta asistentes de codificación y otras herramientas de productividad. El director ejecutivo de Alphabet, Sundar Pichai, destacó el compromiso de la empresa con la IA durante la conferencia telefónica sobre resultados de la empresa el 30 de enero. Pichai dijo que eventualmente quiere ofrecer un agente de inteligencia artificial que pueda completar cada vez más tareas en nombre de un usuario, incluso dentro de la Búsqueda de Google, aunque dijo que hay «mucha ejecución por delante». Del mismo modo, los directores ejecutivos de gigantes tecnológicos, desde Microsoft hasta Amazon, subrayaron su compromiso de crear agentes de IA como herramientas de productividad. Los cambios en Gemini de Google son un primer paso para «construir un verdadero asistente de IA», dijo Sissie Hsiao, vicepresidenta de Google y directora general de Google Assistant y Bard dijeron a los periodistas en una llamada telefónica el miércoles. Google también anunció el jueves una nueva opción de suscripción de IA, para usuarios avanzados que desean acceder a Gemini Ultra 1.0, el modelo de IA más poderoso de Google. El acceso cuesta 19,99 dólares al mes a través de Google One, la oferta de almacenamiento pago de la empresa. Para los suscriptores existentes de Google One, ese precio incluye los planes de almacenamiento que quizás ya estén pagando. También hay una prueba gratuita de dos meses disponible. Los lanzamientos del jueves están disponibles para usuarios en más de 150 países y territorios, pero por ahora están restringidos al idioma inglés. Google planea ampliar la oferta de idiomas para incluir pronto el japonés y el coreano, así como otros idiomas. El cambio de marca de Bard también afecta a Duet AI, el antiguo nombre de Google para los «agentes de IA empaquetados» dentro de Google Workspace y Google Cloud, que están diseñados para aumentar la productividad. y completar tareas sencillas para empresas clientes, incluidas Wayfair, GE, Spotify y Pfizer. Las herramientas ahora se conocerán como Gemini for Workspace y Gemini for Google Cloud. Los suscriptores de Google One que paguen por la suscripción a AI también tendrán acceso a las capacidades de asistente de Gemini en Gmail, Docs, Sheets, Slides y Meet, dijeron ejecutivos a los periodistas el miércoles. . Google espera incorporar más contexto en Gemini a partir del contenido de los usuarios en Gmail, Docs y Drive. Por ejemplo, si estuviera respondiendo a un hilo de correo electrónico largo, las respuestas sugeridas eventualmente tomarían el contexto tanto de los mensajes anteriores del hilo como de los archivos potencialmente relevantes en Google Drive. ¿En cuanto al motivo del amplio cambio de nombre? Hsiao de Google dijo a los periodistas el miércoles que se trata de ayudar a los usuarios a comprender que están interactuando directamente con los modelos de IA que sustentan el chatbot». [was] «La forma de hablar con nuestros modelos de vanguardia, y Gemini son nuestros modelos de vanguardia», dijo Hsiao. Con el tiempo, los agentes de IA podrían programar una reunión grupal escaneando el calendario de todos para asegurarse de que no haya conflictos, reservar viajes y actividades. , comprar regalos para sus seres queridos o realizar una función laboral específica, como ventas salientes. Sin embargo, actualmente, las herramientas, incluida Gemini, se limitan en gran medida a tareas como resumir, generar listas de tareas pendientes o ayudar a escribir código. «Volvemos a usar IA generativa allí, particularmente con nuestros modelos más avanzados y Bard», dijo Pichai en la llamada de resultados del 30 de enero, hablando sobre el Asistente de Google y la Búsqueda. Eso «nos permite actuar más como un agente con el tiempo, si tuviera que hacerlo». pensar en el futuro y tal vez ir más allá de las respuestas y el seguimiento para los usuarios aún más».
Source link
Google se une a una coalición destinada a combatir los deepfakes generados por IA | Daily Telegraph Reproduciendo ahora
Investigadores utilizan IA para identificar extrañas ‘anomalías’ reflectantes en la Luna | Daily Telegraph Reproduciendo ahora
Las organizaciones australianas están siguiendo el ritmo de la innovación global en IA generativa, según Matthew Candy, director global de IA generativa de IBM Consulting. Un enfoque legislativo local en la regulación de casos de uso de alto riesgo también podría fomentar el potencial de la IA en el mercado local, afirmó. Candy visitó recientemente Australia y la región APAC en general para reunirse con algunos de los clientes y socios regionales de IBM Consulting, muchos de los cuales pasarán de pilotear IA generativa a implementar modelos a escala durante el año calendario 2024. Hablando con TechRepublic Australia, Candy predijo un movimiento a modelos de IA más pequeños y al surgimiento de nuevos productos y servicios digitales. Sugirió que las organizaciones que analizan la escala deben centrarse en la estrategia y el valor empresarial, así como en aspectos como la gobernanza. ¿Cómo se compara Australia con el mundo en IA generativa? El Índice Global de Adopción de IA 2023 de IBM identificó a Australia como un mercado rezagado en la adopción de IA. Encontró que solo el 29% de las organizaciones australianas estaban implementando activamente IA en noviembre de 2023, muy por detrás de los primeros países en adoptar India (59%), China (50%), Singapur (53%) y los Emiratos Árabes Unidos (58%). VER: Las pequeñas y medianas empresas australianas corren el riesgo de quedarse atrás en IA Matt Candy, director global de IA generativa de IBM Consulting Sin embargo, Candy dijo que hay evidencia de que Australia está adoptando la IA generativa. Dijo que incluso las organizaciones de industrias tradicionales o reguladas, así como las agencias gubernamentales, están avanzando y que el mercado local mostró una comprensión clara de dónde se puede obtener valor. «Se están realizando algunos trabajos bastante innovadores en Australia», dijo Candy. “Uno de los equipos con los que he pasado algún tiempo está creando nuevos productos y servicios digitales innovadores impulsados por modelos de IA generativa; Definitivamente no veo a nadie detrás sólo porque están en Australia”. Casos de uso de IA generativa que se están implementando ahora en Australia IBM Consulting ha visto muchos trabajos piloto de productos en Australia, con un número creciente de estos proyectos ahora activos más allá de la fase piloto y de experimentación que caracterizó 2023. De su tiempo en el mercado australiano , Candy dijo que algunos casos de uso de clientes interesantes incluyen: Las empresas de la industria de servicios públicos con uso intensivo de activos están utilizando asistentes generativos impulsados por IA para ayudar a los ejecutivos a tomar decisiones de inversión sobre la gestión de activos y la gestión de una cartera de activos, lo que podría resultar en un aumento significativo de los ahorros. Las empresas de servicios públicos están envolviendo asistentes de IA generativa en bases de conocimiento complejas, como procedimientos operativos estándar, para permitir que controladores de red conversen con conjuntos de documentos complejos para eliminar la fricción de algunas tareas. Las universidades están utilizando IA generativa para ayudar a generar contenido más personalizado para respaldar las comunicaciones de los estudiantes y al mismo tiempo permitirles interactuar de manera conversacional con el contenido del curso que están aprendiendo. El ciclo de vida de desarrollo de software de extremo a extremo se está mejorando en al menos un gran banco, donde IBM Consulting apoya el uso de IA generativa para hacer cosas como traducir los requisitos del proyecto en resultados creativos, como historias de usuarios y código. Una agencia del gobierno australiano está utilizando grandes modelos lingüísticos para crear una nueva plataforma de formación de habilidades. Más cobertura de Australia ‘Grupos de valor’ y personas entre las consideraciones a la hora de escalar la IA Candy fue designada para liderar a los 160.000 consultores globales de IBM Consulting hacia la era de la IA generativa en agosto de 2023. Dijo que las organizaciones australianas que buscan escalar la experimentación con IA generativa hasta su implementación este año deberían mantener un pocas cosas delante de mi mente. Tenga una visión y una estrategia claras. La base para el éxito de la IA generativa es tener el tipo de estrategia adecuado. Esto se basará en la identificación de una “Estrella del Norte” o la articulación de una visión de cómo será el nuevo mundo que utilizará el potencial de la IA. Esta visión y estrategia respaldarán la realización de la hoja de ruta. Alinear los casos de uso con los ‘grupos de valor’ Encontrar casos de uso alineados con los «grupos de valor» es importante, afirmó Candy. Ya sea un banco, un proveedor de servicios públicos o un minorista, Candy sugiere preguntar en qué parte de la organización hay bases de conocimientos manuales pesadas o actividades intensivas en documentos que ralentizan los tiempos de ciclo. «Un ejemplo es un centro de contacto, donde vemos a mucha gente centrándose en la IA generativa», dijo Candy. «¿Cómo puede hacer que sus agentes sean más efectivos envolviéndolos en bases de conocimiento para mejorar los tiempos de manejo de llamadas o las acciones de los agentes para brindar una mejor experiencia al cliente?» Iniciar un motor de innovación para la IA Escalar la IA requiere un motor de innovación para que las organizaciones lleven los casos de uso hasta la validación, las pruebas, la realización de pruebas piloto con productos mínimos viables y el escalamiento. Candy dijo que formas de trabajo como las basadas en el diseño y en el producto podrían contribuir al éxito organizacional. «Se necesita ese volante ágil para construir, entregar y escalar», dijo Candy. Construir un núcleo tecnológico de IA generativa Candy dijo que las organizaciones deben tener clara la arquitectura y la capa central digital que utilizarán para gestionar su IA generativa. Esta claridad es necesaria porque muchas organizaciones utilizarán IA en múltiples nubes, además de productos con IA como Salesforce y SAP. Controle la gobernanza de la IA Las empresas necesitarán gestionar problemas como el sesgo, la deriva y la explicabilidad en múltiples modelos de IA, así como contar con los procesos adecuados para su gente. También deberán cumplir con las regulaciones que se están creando en múltiples jurisdicciones legales en todo el mundo. Priorizar el desafío de las personas Alrededor del 70% del desafío de implementar la IA es un desafío humano, sostiene Candy. Esto incluye infundir a los empleados las habilidades necesarias para tener confianza en los modelos de IA y maximizar el éxito de la gestión del cambio logrando que los empleados adopten ampliamente la IA en la base. El futuro de la IA en Australia equilibrará la regulación de casos de uso con la innovación. Matthew Candy está «muy entusiasmado» con el potencial de la IA generativa. IBM Consulting también está implementando IA generativa; Recientemente anunció que aumentaría sus 160.000 consultores con una variedad de asistentes de IA para ampliar la experiencia en una variedad de roles en la organización. VER: AWS e IBM Consulting se asocian para ampliar la capacitación en IA generativa. Candy dijo que estos asistentes de IA podrían encapsular el conocimiento organizacional y manejar más partes repetibles de los roles. Estos asistentes también se ofrecerán como productos y servicios para los clientes de IBM Consulting para ayudarlos a escalar mejor y más rápido hasta 2024. La regulación australiana de IA tiene derecho a centrarse primero en casos de uso de alto riesgo. El enfoque regulatorio anunciado por Australia para la IA, que sigue a la Unión Europea en centrarse La regulación futura en torno a los riesgos presentados por casos de uso específicos de IA era el “enfoque correcto”, dijo Candy. “Creemos en asegurarnos de que existan regulaciones y controles adecuados para diferentes tipos de casos de uso; en realidad se trata de regular dónde se encuentra el caso de uso”, dijo Candy. IBM predice el aumento de modelos más pequeños, innovación y gobernanza. Los clientes empresariales en Australia y en todo el mundo están pensando detenidamente sobre los mejores modelos de IA para implementar. Candy predice que los modelos más pequeños serán atractivos en 2024 debido a ventajas como menos alucinaciones y requisitos informáticos, lo que conducirá a menores costos. Otra tendencia que se espera en 2024 es la aparición de nuevos productos y servicios digitales innovadores que podrían cambiar y transformar los modelos de negocio existentes, y Candy espera que surjan muchas grandes ideas y visiones este año a través de la excelencia en la IA generativa. Dado que la IA responsable se está volviendo fundamental para las organizaciones, Candy también predice que habrá un enfoque continuo en las bases de la gobernanza de la IA, tanto desde el punto de vista tecnológico como de la integración con las personas y los procesos de las organizaciones australianas.