Amazon fue uno de los gigantes tecnológicos que aceptó un conjunto de recomendaciones de la Casa Blanca sobre el uso de la IA generativa el año pasado. Las consideraciones de privacidad abordadas en esas recomendaciones siguen implementándose, y las últimas se incluyeron en los anuncios de la Cumbre de AWS en Nueva York el 9 de julio. En particular, la base contextual para Guardrails para Amazon Bedrock proporciona filtros de contenido personalizables para las organizaciones que implementan su propia IA generativa. Diya Wynn, responsable de IA de AWS, habló con TechRepublic en una sesión informativa virtual previa sobre los nuevos anuncios y sobre cómo las empresas equilibran el amplio conocimiento de la IA generativa con la privacidad y la inclusión. Anuncios de AWS NY Summit: Cambios en Guardrails para Amazon Bedrock Guardrails para Amazon Bedrock, el filtro de seguridad para aplicaciones de IA generativa alojadas en AWS, tiene nuevas mejoras: Los usuarios de Claude 3 Haiku de Anthropic en vista previa ahora pueden ajustar el modelo con Bedrock a partir del 10 de julio. Se han agregado verificaciones de conexión a tierra contextual a Guardrails para Amazon Bedrock, que detectan alucinaciones en las respuestas del modelo para aplicaciones de generación y resumen aumentadas por recuperación. Además, Guardrails se está expandiendo a la API independiente ApplyGuardrail, con la que las empresas de Amazon y los clientes de AWS pueden aplicar salvaguardas a las aplicaciones de IA generativa incluso si esos modelos están alojados fuera de la infraestructura de AWS. Eso significa que los creadores de aplicaciones pueden usar filtros de toxicidad, filtros de contenido y marcar información confidencial que les gustaría excluir de la aplicación. Wynn dijo que hasta el 85% del contenido dañino se puede reducir con Guardrails personalizados. La conexión a tierra contextual y la API ApplyGuardrail estarán disponibles el 10 de julio en regiones seleccionadas de AWS. Guardrails para Amazon Bedrock permite a los clientes personalizar el contenido que un modelo de IA generativa adoptará o evitará. Imagen: AWS Contextual grounding para Guardrails para Amazon Bedrock es parte de la estrategia de IA responsable más amplia de AWS Contextual grounding se conecta con la estrategia general de IA responsable de AWS en términos del esfuerzo continuo de AWS en «hacer avanzar la ciencia, así como seguir innovando y brindarles a nuestros clientes servicios que puedan aprovechar para desarrollar sus servicios y productos de IA», dijo Wynn. «Una de las áreas que escuchamos a menudo como una preocupación o consideración para los clientes es la relacionada con las alucinaciones», dijo. Contextual grounding, y Guardrails en general, pueden ayudar a mitigar ese problema. Guardrails con contextual grounding puede reducir hasta el 75% de las alucinaciones observadas anteriormente en la IA generativa, dijo Wynn. Más cobertura de IA de lectura obligada La forma en que los clientes ven la IA generativa ha cambiado a medida que la IA generativa se ha vuelto más común durante el último año. «Cuando comenzamos con parte de nuestro trabajo de cara al cliente, los clientes no necesariamente venían a nosotros, ¿verdad?» dijo Wynn. “Estábamos, ya sabes, analizando casos de uso específicos y ayudando a respaldar el desarrollo, pero el cambio en el último año y más ha sido, en última instancia, que hay una mayor conciencia [of generative AI] y por eso las empresas están pidiendo y queriendo entender más sobre las formas en que estamos construyendo y las cosas que pueden hacer para asegurar que sus sistemas sean seguros”. Eso significa “abordar cuestiones de sesgo” así como reducir problemas de seguridad o alucinaciones de IA, dijo. Adiciones al asistente empresarial Amazon Q y otros anuncios de AWS NY Summit AWS anunció una serie de nuevas capacidades y ajustes a los productos en AWS NY Summit. Los puntos destacados incluyen: Una capacidad de personalización del desarrollador en el asistente de IA empresarial Amazon Q para asegurar el acceso a la base de código de una organización. La incorporación de Amazon Q a SageMaker Studio. La disponibilidad general de Amazon Q Apps, una herramienta para implementar aplicaciones generativas impulsadas por IA basadas en los datos de su empresa. Acceso a Scale AI en Amazon Bedrock para personalizar, configurar y ajustar modelos de IA. Vector Search para Amazon MemoryDB, acelerando la velocidad de búsqueda vectorial en bases de datos vectoriales en AWS. VER: Amazon anunció recientemente instancias en la nube impulsadas por Graviton4, que pueden soportar los chips de IA Trainium e Inferentia de AWS. AWS alcanza su meta de capacitación en computación en la nube antes de lo previsto En su Summit NY, AWS anunció que ha cumplido con su iniciativa de capacitar a 29 millones de personas en todo el mundo en habilidades de computación en la nube para 2025, superando ya esa cifra. En 200 países y territorios, 31 millones de personas han realizado cursos de capacitación de AWS relacionados con la nube. Capacitación y roles en IA Las ofertas de capacitación de AWS son numerosas, por lo que no las enumeraremos todas aquí, pero se llevó a cabo capacitación gratuita en computación en la nube en todo el mundo, tanto en persona como en línea. Eso incluye capacitación en IA generativa a través de la iniciativa AI Ready. Wynn destacó dos roles en los que las personas pueden capacitarse para las nuevas carreras de la era de la IA: ingeniero rápido e ingeniero de IA. «Es posible que no haya científicos de datos necesariamente involucrados», dijo Wynn. «No están entrenando modelos base. Tendrás algo así como un ingeniero de IA, tal vez». El ingeniero de IA afinará el modelo base, agregándolo a una aplicación. «Creo que el rol de ingeniero de IA es algo en lo que estamos viendo un aumento en visibilidad o popularidad», dijo Wynn. “Creo que la otra es que ahora hay personas responsables de la ingeniería de avisos. Ese es un nuevo rol o área de habilidad que es necesaria porque no es tan simple como la gente podría pensar, ¿no? Dar tu aporte o aviso, el tipo correcto de contexto y detalle para obtener algunos de los detalles que podrías querer de un modelo de lenguaje grande”. TechRepublic cubrió la Cumbre de AWS NY de forma remota.