Anthropic, una startup líder en inteligencia artificial, presentó hoy su serie Claude 3 de modelos de IA, diseñados para satisfacer las diversas necesidades de los clientes empresariales con un equilibrio de inteligencia, velocidad y rentabilidad. La línea incluye tres modelos: Opus, Sonnet y el próximo Haiku. La estrella de la línea es Opus, que según Anthropic es más capaz que cualquier otro sistema de inteligencia artificial disponible abiertamente en el mercado, superando incluso a los modelos líderes de sus rivales OpenAI y Google. «Opus es capaz de realizar la más amplia gama de tareas y las realiza excepcionalmente bien», dijo el cofundador y director ejecutivo de Anthropic, Dario Amodei, en una entrevista con VentureBeat. Amodei explicó que Opus supera a los mejores modelos de IA como GPT-4, GPT-3.5 y Gemini Ultra en una amplia gama de puntos de referencia. Esto incluye encabezar la clasificación en puntos de referencia académicos como GSM-8k en razonamiento matemático y MMLU en conocimiento de nivel experto. Evento VB The AI ​​Impact Tour – Nueva York Estaremos en Nueva York el 29 de febrero en asociación con Microsoft para discutir cómo equilibrar los riesgos y las recompensas de las aplicaciones de IA. Solicite una invitación al evento exclusivo a continuación. Solicitar una invitación «Parece superar a todos y obtener puntuaciones que no habíamos visto antes en algunas tareas», dijo Amodei. Crédito: Anthropic Si bien empresas como Anthropic y Google no han revelado los parámetros completos de sus modelos líderes, los resultados de referencia informados por ambas compañías implican que Opus iguala o supera a alternativas importantes como GPT-4 y Gemini en capacidades básicas. Esto, al menos sobre el papel, establece un nuevo récord para la IA conversacional disponible comercialmente. Diseñado para tareas complejas que requieren razonamiento avanzado, Opus se destaca en la línea de Anthropic por su rendimiento superior. Hay disponibles opciones rápidas y de rango medio Sonnet, el modelo de rango medio, ofrece a las empresas una solución más rentable para el análisis de datos de rutina y el trabajo de conocimiento, manteniendo un alto rendimiento sin el precio superior del modelo insignia. Mientras tanto, Haiku está diseñado para ser rápido y económico, adecuado para aplicaciones como chatbots orientados al consumidor, donde la capacidad de respuesta y el costo son factores cruciales. Amodei le dijo a VentureBeat que espera que Haiku se lance públicamente en cuestión de «semanas, no meses». Crédito: Anthropic Nuevas capacidades visuales desbloquean nuevos casos de uso. Cada uno de los modelos presentados hoy admite la entrada de imágenes, una característica muy demandada, especialmente para aplicaciones como el reconocimiento de texto en imágenes. «No nos hemos centrado tanto en las modalidades de producción, porque hay menos demanda de eso en el lado empresarial», dijo a VentureBeat la presidenta y cofundadora de Anthropic, Daniela Amodei, destacando el enfoque estratégico de la compañía en las características más buscadas por las empresas. Además, los modelos Claude 3 demuestran capacidades sofisticadas de visión por computadora a la par de otros modelos de última generación. Esta nueva modalidad abre casos de uso en los que las empresas necesitan extraer información de imágenes, documentos, cuadros y diagramas. «Mucho [customer] Los datos están muy desestructurados o en algún tipo de formato visual”, explicó Daniela. «El simple hecho de tener que copiar manualmente esa información para poder interactuar con una herramienta de IA generativa es bastante engorroso». Campos como los servicios legales, el análisis financiero, la logística y el control de calidad podrían beneficiarse de sistemas de inteligencia artificial que comprendan imágenes y textos del mundo real por igual. Caminar sobre la cuerda floja del sesgo en el anuncio de AI Anthropic llega inmediatamente después de la controversia en torno al nuevo chatbot Gemini de Google, que destacó las dificultades que enfrentan las empresas de tecnología al lanzar modelos que eviten perpetuar el sesgo social. La semana pasada, la gente descubrió que pedir a Géminis que generara imágenes históricas daba como resultado representaciones que parecían sobrecorregir representaciones raciales. Por ejemplo, al pedir fotografías de vikingos o soldados nazis se obtuvieron imágenes de grupos racialmente diversos que probablemente no reflejan la realidad histórica. Google respondió desactivando las capacidades de generación de imágenes de Gemini y pidiendo disculpas, diciendo que había «errado el blanco» al intentar aumentar la diversidad. Pero los expertos dicen que la situación ilustra el constante acto de equilibrio en torno al sesgo en la IA. La IA constitucional ayuda, pero no es perfecta. El cofundador de Anthropic, Dario Amodei, enfatizó en su entrevista con VentureBeat la dificultad de dirigir los modelos de IA, calificándolos de «ciencia inexacta». Dijo que la compañía cuenta con equipos dedicados a evaluar y mitigar diversos riesgos de sus modelos. «Nuestra hipótesis es que estar en la frontera del desarrollo de la IA es la forma más eficaz de dirigir la trayectoria del desarrollo de la IA hacia un resultado positivo para la sociedad», afirmó Darío. Sin embargo, la cofundadora de Anthropic, Daniela Amodei, reconoció que una IA perfectamente libre de sesgos probablemente sea inalcanzable con los métodos actuales. “Creo que es casi imposible crear una herramienta de IA generativa y perfectamente neutral, tanto técnicamente como porque no todos están de acuerdo sobre qué es neutral”, dijo. Parte de la estrategia de Anthropic es un enfoque llamado IA constitucional, donde los modelos están alineados para seguir principios definidos en una «constitución». Pero Dario Amodei admite que ni siquiera esta técnica es perfecta. “Nuestro objetivo es que los modelos sean justos y neutrales ideológica y políticamente, [but] ya sabes, no lo tenemos perfecto”, dijo. «No creo que nadie lo haya entendido perfectamente». No obstante, Dario cree que la constitución de Anthropic de valores ampliamente acordados ayuda a proteger contra modelos sesgados hacia cualquier agenda partidista, en contraste con las acusaciones que enfrenta Gemini. «Nuestro objetivo no es promover ningún punto de vista político o ideológico en particular», dijo. «Queremos que nuestros modelos sean adecuados para todos». La misión de VentureBeat es ser una plaza digital para que los tomadores de decisiones técnicas adquieran conocimientos sobre tecnología empresarial transformadora y realicen transacciones. Descubra nuestros Briefings.

Source link