Todo lo que necesitas saber sobre tecnología

Etiqueta: abierto Página 1 de 4

El próximo modelo insignia es el GPT-4o

La actualización de primavera de OpenAI del 13 de mayo trajo tres anuncios importantes de la compañía de IA: Un nuevo modelo insignia de IA llamado GPT-4o. Una aplicación ChatGPT de escritorio para macOS. Los usuarios de ChatGPT que no pagan una suscripción ahora pueden acceder a más funciones de forma gratuita. Los próximos cambios en ChatGPT «brindan inteligencia de nivel GPT-4 a todos, incluidos nuestros usuarios gratuitos», dijo la directora de tecnología de OpenAI, Mira Murati, durante la transmisión en vivo. Mira Murati, CTO de OpenAI, habla en una transmisión en vivo el 13 de mayo. Imagen: Captura de pantalla de TechRepublic GPT-4o mejora las capacidades de voz y video de GPT-4 Turbo Murati dijo que el próximo modelo insignia de OpenAI, GPT-4o, es «más rápido» y «mejora sus capacidades en todo el mundo». texto, visión y audio” en comparación con GPT-4. La «o» significa «omni». En cambio, GPT-4o responde más rápido que su predecesor GPT-4 Turbo y ha aumentado su dominio de idiomas, video y audio distintos del inglés. GPT-4o será 2 veces más rápido, 50% más barato y tendrá límites de velocidad 5 veces más altos que GPT-4 Turbo, dijo Murati. El director ejecutivo de OpenAI, Sam Altman, dijo hoy en X que GPT-4o es «nativamente multimodal», lo que significa que puede cambiar más rápido entre análisis de voz, texto y video. Se podrá acceder a GPT-4o de forma gratuita dentro de ChatGPT y se implementará durante las próximas semanas para los usuarios de todo el mundo. Los usuarios de ChatGPT Plus y Team podrán usar GPT-4o primero, mientras que la disponibilidad para los usuarios empresariales «llegará pronto», dijo Open AI. Los usuarios pagos de ChatGPT tendrán hasta cinco veces los límites de capacidad. GPT-4o también estará disponible en la API ChatGPT. Más sobre innovación La demostración de las capacidades de voz de GPT-4o en la aplicación ChatGPT en la transmisión en vivo sonó bastante natural, incluyendo varios ejemplos de cómo el modelo responderá sin problemas cuando sea interrumpido. A ChatGPT a veces le costaba distinguir qué imágenes se suponía que debía estar mirando, pero su capacidad de respuesta era notable. La compañía señaló que no lanzaría GPT-5, el rumoreado modelo de próxima generación, durante la actualización de primavera. Murati dijo que puede haber más noticias sobre los próximos lanzamientos “pronto”. Las consideraciones de seguridad en torno a GPT-4o OpenAI aseguraron a las personas que GPT-4o tiene «nuevos sistemas de seguridad para proporcionar barreras de seguridad en las salidas de voz», además de una extensa capacitación posterior y filtrado de los datos de capacitación para evitar que ChatGPT diga algo inapropiado o inseguro. GPT-4o se construyó de acuerdo con el marco de preparación interno y los compromisos voluntarios de OpenAI. Más de 70 investigadores de seguridad externos formaron un equipo rojo con GPT-4o antes de su lanzamiento. VER: Organizaciones de todo el mundo adoptan estándares como Credenciales de contenido para intentar reducir la información errónea y los deepfakes creados con IA. (TechRepublic) La nueva aplicación de escritorio ChatGPT llega a macOS Los usuarios de MacOS pronto podrán descargar una aplicación de escritorio ChatGPT. Los usuarios de ChatGPT Plus pueden acceder a la aplicación de escritorio hoy, mientras que otros usuarios gratuitos y de pago pueden esperar obtener acceso a ella «en las próximas semanas», dijo OpenAI. Esta interfaz de usuario para la aplicación de escritorio ChatGPT para macOS muestra ChatGPT escuchando mientras un usuario trabaja en el código. Imagen: Interfaz de usuario actualizada de OpenAI Simultáneamente con la nueva aplicación de escritorio ChatGPT, las aplicaciones ChatGPT y la versión de escritorio recibirán una interfaz de usuario nueva y más limpia destinada a mejorar la facilidad de uso. La interfaz de usuario actualizada para ChatGPT en un navegador cambia la posición del menú de configuración del usuario y limpia parte de la iconografía. Tenga en cuenta la adición de un lugar para adjuntar archivos dentro de la barra de mensajes. Imagen: OpenAI GPT Store y otras capacidades ahora abiertas para los usuarios de ChatGPT de forma gratuita. A partir del 13 de mayo, los usuarios de ChatGPT verán la siguiente implementación para las personas que no se suscriben a planes pagos: Use GPT-4 en lugar de GPT-3.5. GPT-4o puede extraer datos tanto del modelo ChatGPT como de la web. ChatGPT puede analizar datos en gráficos y crear nuevos gráficos. ChatGPT puede chatear sobre fotos cargadas por el usuario. Los usuarios del nivel gratuito pueden cargar archivos de texto que ChatGPT luego puede resumir, analizar o crear contenido nuevo. Los usuarios de la capa gratuita pueden explorar y utilizar GPT en la Tienda GPT. Los usuarios del nivel gratuito pueden aprovechar la función Memoria de ChatGPT, que permite al modelo recordar conversaciones anteriores con el mismo usuario. TechRepublic cubrió la actualización de primavera de OpenAI de forma remota.

Las credenciales de contenido son el comienzo

Existe un consenso cada vez mayor sobre cómo abordar el desafío de los deepfakes en los medios y las empresas, generados a través de tecnologías como la inteligencia artificial. A principios de este año, Google anunció que se uniría a la Coalición para la Procedencia y Autenticidad del Contenido como miembro del comité directivo; otras organizaciones del C2PA incluyen OpenAI, Adobe, Microsoft, AWS y la RIAA. Ante la creciente preocupación por la desinformación y los deepfakes de la IA, los profesionales de TI querrán prestar mucha atención al trabajo de este organismo, y en particular a las Credenciales de Contenido, a medida que la industria formaliza los estándares que rigen cómo se gestionan los datos visuales y de video. ¿Qué son las credenciales de contenido? Las credenciales de contenido son una forma de metadatos digitales que los creadores pueden adjuntar a su contenido para garantizar el reconocimiento adecuado y promover la transparencia. Estos metadatos a prueba de manipulaciones incluyen información sobre el creador y el proceso creativo que se integra directamente en el contenido en el momento de la exportación o descarga. Las credenciales de contenido tienen más posibilidades de llegar a una forma acordada y estandarizada a nivel mundial de etiquetar el contenido hasta el momento, gracias al peso de las empresas detrás del concepto. VER: Adobe agrega Firefly y credenciales de contenido al programa Bug Bounty El uso de credenciales de contenido ofrece varios beneficios. Ayudará a generar credibilidad y confianza entre el público al proporcionar más información sobre el creador y el proceso creativo. Esta transparencia puede ayudar a combatir la desinformación y la desinformación en línea. Al adjuntar información de identidad e información de contacto a su trabajo, los creadores pueden facilitar que otros los encuentren y se conecten con ellos, mejorando su visibilidad y reconocimiento. Del mismo modo, será más fácil identificar y eliminar de la plataforma o eliminar contenido que no sea legítimo. Los deepfakes son un desafío que Australia está luchando por afrontar. Australia, como gran parte del resto del mundo, está luchando contra una aceleración masiva del fraude deepfake. El tercer informe anual sobre fraude de identidad de Sumsub encontró un aumento del 1.530 % en los deepfakes en Australia durante el año pasado y señaló que la sofisticación de estos también estaba aumentando. La situación se ha vuelto tan preocupante que el gobierno anunció recientemente una estrategia para contrarrestar algunos ejemplos específicos y luego establecer vías para tratarlo como cualquier otra forma de contenido ilegal. Los deepfakes son fuentes particularmente potentes de desinformación porque el ojo puede ser engañado muy rápidamente. Las investigaciones sugieren que se necesitan tan solo 13 milisegundos para identificar una imagen, un período de tiempo mucho más corto que el que llevaría analizarla y determinar su validez. En otras palabras, los deepfakes suponen un gran riesgo porque ya pueden tener el impacto deseado en una persona antes de que puedan ser analizados y descartados. VER: Los deepfakes de IA aumentan como riesgo para las organizaciones de APAC Por ejemplo, el principal organismo científico de Australia, el CSIRO, publicó información sobre “cómo detectar un deepfake”, y esa orientación requiere un análisis exhaustivo. “Si se trata de un vídeo, puedes comprobar si el audio está sincronizado correctamente con el movimiento de los labios. ¿Las palabras coinciden con la boca? Otras cosas que se deben verificar son parpadeos o parpadeos antinaturales alrededor de los ojos, luces o sombras extrañas y expresiones faciales que no coinciden con el tono emocional del discurso”, dijo la Dra. Kristen Moore, experta de CSIRO, en el artículo de orientación. Entonces, por más útil que sea ese consejo, equipar al objetivo final de los deepfakes sobre cómo identificarlos no será suficiente para evitar que causen estragos en toda la sociedad. Más cobertura de Australia El gobierno y el sector privado deben unirse para combatir los deepfakes. Que el gobierno ilegalice los deepfakes es un paso positivo para proteger a quienes serían víctimas de ellos. Sin embargo, la industria de TI tendrá que ser la que desarrolle formas de identificar y gestionar este contenido. Ya existen casos de alto perfil de importantes figuras empresariales como Dick Smith y Gina Rinehart que “exigen” que organizaciones como Meta sean más proactivas en la prevención de estafas de IA, después de que sus imágenes se utilizaran en deepfakes. Como señaló el Comisionado australiano de eSafety, “el desarrollo de innovaciones para ayudar a identificar deepfakes aún no va a la par de la tecnología en sí”. Por su parte, el gobierno australiano se ha comprometido a combatir los deepfakes de la siguiente manera: Creando conciencia sobre los deepfakes para que los australianos reciban una visión general razonada y basada en evidencia sobre el problema y estén bien informados sobre las opciones disponibles para ellos. Apoyar a las personas que han sido atacadas a través de un sistema de presentación de quejas. Cualquier australiano cuya foto o video haya sido alterado digitalmente y compartido en línea puede comunicarse con eSafety para obtener ayuda para eliminarlo. Prevenir daños mediante el desarrollo de contenido educativo sobre deepfakes, para que los australianos puedan evaluar críticamente el contenido en línea y navegar con más confianza en el mundo en línea. Apoyar a la industria a través de nuestra iniciativa Safety by Design, que ayuda a empresas y organizaciones a incorporar la seguridad en sus productos y servicios. Apoyar los esfuerzos de la industria para reducir o limitar la redistribución de deepfakes dañinos animándolos a desarrollar: políticas, términos de servicio y estándares comunitarios sobre deepfakes, políticas de detección y eliminación para gestionar deepfakes abusivos e ilegales, métodos para identificar y marcar deepfakes en su comunidad. En última instancia, para que esta visión tenga éxito, es necesario contar con el apoyo de la industria, y que las organizaciones proporcionen la tecnología e inviertan más profundamente en la IA. Aquí es donde entran en juego las credenciales de contenido. Pasos a seguir para ayudar a combatir los deepfakes Las credenciales de contenido son la mejor oportunidad para formar estándares que combatan los deepfakes. Como este enfoque está impulsado por la industria y respaldado por el peso de los pesos pesados ​​de las industrias de contenidos, significa que se puede marcar contenido ilegítimo en la gran mayoría de Internet, de forma similar a como se pueden marcar sitios web llenos de virus hasta el punto de que volverse efectivamente imposible de encontrar en los motores de búsqueda. Por esta razón, los profesionales de TI y otras personas que trabajan con IA para la generación de contenido querrán entender las Credenciales de Contenido de la misma manera que los desarrolladores web entienden la seguridad, el SEO y los estándares que se espera protejan el contenido para que no sea marcado. Los pasos que deberían tomar incluyen: Implementación de credenciales de contenido: en primer lugar, los profesionales de TI deben asegurarse de que su organización adopte e integre activamente credenciales de contenido en los flujos de trabajo para garantizar la autenticidad y la trazabilidad del contenido. Abogar por la transparencia: tanto interna como externamente, con socios y clientes, abogar por que las organizaciones sean transparentes sobre su uso de la IA y adopten prácticas éticas en la creación y distribución de contenidos. Regulación de apoyo: colaborar con organismos industriales y agencias gubernamentales para dar forma a políticas y regulaciones que aborden los desafíos que plantean los deepfakes. Esto incluye participar en las diversas investigaciones que el gobierno realizará sobre la IA para ayudar a dar forma a las políticas. Colaboración: trabaje con otros profesionales y organizaciones para desarrollar prácticas y herramientas estandarizadas para identificar y mitigar los riesgos asociados con los deepfakes. Preparar estrategias de respuesta: tener un plan implementado para cuando se detecten deepfakes, incluidos pasos para mitigar el daño y comunicarse con las partes interesadas. Aprovechar los recursos de la comunidad: Finalmente, utilice recursos de las comunidades de ciberseguridad y organismos gubernamentales como el Comisionado de eSafety para mantenerse actualizado y preparado. Sin duda, los deepfakes serán uno de los desafíos más importantes para el que la industria tecnológica y los profesionales de TI deberán desarrollar una respuesta. Content Credentials ofrece un excelente punto de partida en torno al cual la industria puede gravitar.

Merchant: Por qué Silicon Valley odió la expulsión de OpenAI de Sam Altman

No todos los días la empresa más comentada del mundo se prende fuego. Sin embargo, eso parece ser lo que ocurrió el viernes, cuando la junta directiva de OpenAI anunció que había despedido a su director ejecutivo, Sam Altman, porque no había sido «consistentemente sincero en sus comunicaciones con la junta». En el lenguaje corporativo, esas son palabras de lucha tan duras como puedan: Insinuaron que Altman había estado mintiendo. El despido puso en marcha una vertiginosa secuencia de eventos que mantuvo a la industria tecnológica pegada a sus redes sociales durante todo el fin de semana: Primero, borró 48 mil millones de dólares de la valoración de Microsoft, el mayor socio de OpenAI. Las especulaciones sobre malas prácticas se arremolinaron, pero los empleados, los incondicionales de Silicon Valley y los inversores apoyaron a Altman, y al día siguiente se llevaron a cabo conversaciones para traerlo de regreso. En lugar de un escándalo apasionado, los informes indicaron que se trataba en esencia de una disputa sobre si Altman estaba construyendo y vendiendo IA de manera responsable. El lunes, las conversaciones habían fracasado, la mayoría de los empleados de OpenAI amenazaban con dimitir y Altman anunció que se uniría a Microsoft. Mientras tanto, algo más ardía en llamas: la ficción de que cualquier otra cosa que no sea el afán de lucro va a regir cómo La IA se desarrolla y se implementa. Las preocupaciones sobre la “seguridad de la IA” serán arrasadas por los gigantes tecnológicos ansiosos por aprovechar una nueva fuente de ingresos cada vez. Es difícil exagerar lo salvaje que es toda esta saga. En un año en el que la inteligencia artificial ha dominado el mundo empresarial, OpenAI, con sus omnipresentes productos ChatGPT y Dall-E, ha sido el centro del universo. Y Altman era su portavoz mundial. De hecho, ha sido el portavoz más destacado de la IA, punto. Que la propia junta directiva de una empresa de altos vuelos despidiera a un CEO de tal estatura un viernes al azar, sin previo aviso o señal previa de que algo serio estaba mal, Altman acababa de tomar central para anunciar el lanzamiento de la tienda de aplicaciones de OpenAI en una conferencia muy vista, es casi inaudito. (Muchos han comparado los eventos con el famoso enlatado de Steve Jobs por parte de Apple en 1985, pero incluso eso fue después de que Lisa y Macintosh no cumplieran con las expectativas de ventas, no durante el máximo éxito de Apple II). ¿Cómo está pasando la Tierra? Bueno, lo primero que es importante saber es que la junta directiva de OpenAI está, por diseño, constituida de manera diferente a la de la mayoría de las corporaciones: es una organización sin fines de lucro estructurada para salvaguardar el desarrollo de la IA en lugar de maximizar la rentabilidad. La mayoría de las juntas directivas tienen la tarea de garantizar que sus directores ejecutivos sirvan mejor a los intereses financieros de la empresa; La junta directiva de OpenAI tiene la tarea de garantizar que su CEO no sea imprudente con el desarrollo de la inteligencia artificial y actúe en el mejor interés de la «humanidad». Esta junta sin fines de lucro controla la empresa con fines de lucro OpenAI. ¿Entendido? Como dijo Jeremy Khan en Fortune, “La estructura de OpenAI fue diseñada para permitirle recaudar las decenas o incluso cientos de miles de millones de dólares que necesitaría para tener éxito en su misión de construir inteligencia artificial general (AGI)… y al mismo tiempo evitar que las fuerzas capitalistas, y en particular un solo gigante tecnológico, controlen AGI”. Y, sin embargo, señala Khan, tan pronto como Altman firmó un acuerdo de mil millones de dólares con Microsoft en 2019, «la estructura fue básicamente una bomba de tiempo». El tic-tac se hizo más fuerte cuando Microsoft invirtió 10 mil millones de dólares más en OpenAI en enero de este año. Todavía no sabemos qué quiso decir exactamente la junta directiva al decir que Altman no era «consistentemente sincero en sus comunicaciones». Pero los informes se han centrado en el creciente cisma entre el brazo científico de la empresa, liderado por el cofundador, científico jefe y miembro de la junta directiva Ilya Sutskever, y el brazo comercial, liderado por Altman. Sí sabemos que Altman ha estado en modo de expansión. últimamente, buscando miles de millones en nuevas inversiones de fondos soberanos de Oriente Medio para iniciar una empresa de chips que rivalice con el fabricante de chips de IA Nvidia, y mil millones más de Softbank para una empresa con el exjefe de diseño de Apple, Jony Ive, para desarrollar hardware centrado en la IA. Y eso se suma al lanzamiento de la ya mencionada tienda de aplicaciones OpenAI para desarrolladores externos, lo que permitiría a cualquiera crear IA personalizadas y venderlas en el mercado de la empresa. La narrativa de trabajo ahora parece ser que la mentalidad expansionista de Altman y su impulso para comercializar La IA (y tal vez haya más cosas que aún no sabemos a este respecto) chocó con la facción Sutskever, a quienes les preocupaba que la empresa que cofundaron se estuviera moviendo demasiado rápido. Al menos dos de los miembros de la junta están alineados con el llamado movimiento de altruismo efectivo, que ve a la IA como una fuerza potencialmente catastrófica que podría destruir a la humanidad. La junta decidió que el comportamiento de Altman violaba el mandato de la junta. Pero tampoco (de alguna manera, salvajemente) parecen no haber previsto cuántas consecuencias recibirían por despedir a Altman. Y ese retroceso se ha producido con la fuerza de un vendaval; Los empleados de OpenAI y los actores poderosos de Silicon Valley, como Brian Chesky y Eric Schmidt de Airbnb, pasaron el fin de semana “Soy Spartacus”, interpretando a Altman. No es difícil ver por qué. OpenAI había estado en conversaciones para vender acciones a inversores por una valoración de 86.000 millones de dólares. Microsoft, que ha invertido más de 11 mil millones de dólares en OpenAI y ahora utiliza la tecnología de OpenAI en sus plataformas, aparentemente fue informada de la decisión de la junta de despedir a Altman cinco minutos antes que el resto del mundo. Su liderazgo estaba furioso y aparentemente encabezó el esfuerzo para reinstalar a Altman. Pero más allá de todo eso acechaba la pregunta de si realmente debería haber alguna salvaguardia para el modelo de desarrollo de IA favorecido por los principales impulsores de Silicon Valley; si una junta debería poder destituir a un fundador que cree que no está actuando en interés de la humanidad (que, nuevamente, es su misión declarada) o si debería buscar una expansión y escala implacables. Mira, a pesar de que la junta de OpenAI se ha convertido rápidamente en El villano de facto de esta historia, como señaló el analista de capital riesgo Eric Newcomer, tal vez deberíamos tomarnos su decisión en serio. Despedir a Altman probablemente no fue una decisión que tomaron a la ligera, y sólo porque ahora están luchando porque resulta que esa decisión era una amenaza financiera existencial para la empresa no significa que sus preocupaciones fueran infundadas. Lejos de ello. De hecho, independientemente de cómo se desarrolle esto, ya ha logrado subrayar cuán agresivamente Altman ha estado persiguiendo sus intereses comerciales. Para la mayoría de los titanes de la tecnología, esta sería una situación “bueno, claro”, pero Altman ha cultivado meticulosamente un aura de gurú agobiado que advierte al mundo sobre grandes cambios disruptivos. ¿Recuerdan esos ojos de perro pastor en las audiencias del Congreso hace unos meses, donde suplicó que se regulara la industria, para que no se volviera demasiado poderosa? Todo el truco de Altman es que es un mensajero cansado que busca preparar el terreno para usos responsables de la IA que beneficien a la humanidad; sin embargo, está dando vueltas por el mundo alineando inversores dondequiera que pueda, haciendo todo lo que aparentemente puede para capitalizar este momento de intenso interés en la IA. Para aquellos que han estado observando de cerca, esto siempre ha sido una especie de acto: después de todo, semanas después de esas audiencias, Altman luchó contra las regulaciones del mundo real que la Unión Europea buscaba imponer al despliegue de la IA. Y olvidamos que OpenAI se fundó originalmente como una organización sin fines de lucro que afirmaba estar decidida a operar con la máxima transparencia, antes de que Altman la convirtiera en una empresa con fines de lucro que mantiene sus modelos en secreto. Ahora, no creo ni por un segundo que La IA está a punto de volverse lo suficientemente poderosa como para destruir a la humanidad. Creo que algunos en Silicon Valley (incluido el nuevo CEO interino de OpenAI, Emmett Shear) se están dejando llevar por un sentido de importancia personal de ciencia ficción y una táctica de marketing excepcionalmente astuta. pero sí creo que hay una letanía de daños y peligros que la IA puede causar en el corto plazo. Y las preocupaciones sobre la seguridad de la IA que se desmoronan tan a fondo con el chasquido de los dedos del Valle no son algo para celebrar. Uno quisiera creer que los ejecutivos de las empresas de construcción de IA que piensan que existe un riesgo significativo de una catástrofe global aquí no pueden ser marginados simplemente porque Microsoft perdió parte del valor de sus acciones. Pero ahí es donde estamos. Sam Altman es, ante todo, un presentador de los productos tecnológicos más importantes del año. Nadie está muy seguro de qué tan útiles o interesantes serán la mayoría de esos productos a largo plazo, y no están generando mucho dinero en este momento, por lo que la mayor parte del valor está ligado al propio vendedor. Los inversores, los empleados de OpenAI y los socios como Microsoft necesitan que Altman viaje por el mundo diciéndoles a todos que la IA eclipsará a la inteligencia humana en cualquier momento, mucho más de lo que necesita, digamos, un chatbot de alto funcionamiento. termina siendo un golpe para Microsoft. Ahora tienen a Altman internamente, donde puede animar a la IA y hacer tratos a su gusto. Todavía tienen la tecnología de OpenAI con licencia, y OpenAI necesitará a Microsoft más que nunca. Ahora, aún puede resultar que esto no fue más que una lucha de poder entre los miembros de la junta directiva, y fue un golpe que salió mal. Pero si resulta que la junta tenía preocupaciones reales y se las comunicó a Altman en vano, no importa cómo se sienta acerca del problema de la seguridad de la IA, deberíamos preocuparnos por este resultado: una mayor consolidación del poder de una de las mayores empresas tecnológicas. y menos responsabilidad por el producto que nunca. Si alguien todavía cree que una empresa puede gestionar el desarrollo de un producto como la IA sin recibir órdenes de las grandes tecnológicas, espero que la debacle de Altman lo desengañe de esta ficción. La realidad es que, independientemente de cualquier otro aporte que se le ofrezca a la empresa detrás de ChatGPT, el resultado será el mismo: el dinero habla.

Anthropic lanza el plan Claude Team Enterprise AI y la aplicación para iOS

Anthropic presentó Claude Team, su plan empresarial para Claude AI, el 1 de mayo. Claude Team llega en un momento interesante en el que las empresas luchan por encontrar usos generadores de dinero para la IA generativa. Con Claude Team, Anthropic incluye IA generativa que podría usarse para iterar proyectos, analizar documentos o explorar posibles aumentos de productividad, además de herramientas administrativas adecuadas para las empresas. Además, ahora hay una aplicación Claude disponible para iOS. «El plan Claude Team y la aplicación iOS son parte de un cambio de paradigma más amplio en cómo las empresas utilizan y colaboran con la IA», dijo Scott White, líder de producto de Anthropic, en un correo electrónico a TechRepublic. «Con un mayor uso, controles administrativos y acceso a la avanzada familia de modelos Claude 3, las empresas ahora pueden ofrecer a cada empleado las capacidades de Claude». Los productos de Anthropic con tecnología Claude están disponibles en todo el mundo. ¿Qué es el equipo Claude de Anthropic? Claude Team de Anthropic es un plan de suscripción que permite a los administradores y equipos empresariales acceder a la IA generativa de Claude 3 y, en el futuro, podrá conectarla a CRM. Claude Team está destinado a proporcionar a las empresas un banco de trabajo de IA generativa. Imagen: Anthropic Claude Team agrega lo siguiente a las ofertas habituales de Claude: Mayor uso (hasta una ventana de contexto de 200 000), lo que significa que Claude puede tener más chats y digerir documentos más largos que en el plan Pro. Acceso a los tres tamaños de los modelos Claude 3: el Opus grande, el Sonnet mediano y el Haiku pequeño. Herramientas de administración para gestionar usuarios y facturación. Todas las funciones Pro, incluida la alta prioridad durante los momentos de mucho tráfico. Anthropic planea agregar pronto integraciones con repositorios de datos como CRM y bases de código. Otras actualizaciones que se espera que lleguen a Claude Team en el futuro incluyen “citas de fuentes confiables para verificar las afirmaciones generadas por IA” y la capacidad de iterar con otras personas en proyectos generados por IA. El analista de Gartner, Arun Chandrasekaran, señaló en un correo electrónico a TechRepublic que Anthropic está tratando de dirigirse a «usuarios comerciales que desean una mejor previsibilidad, respuestas de mayor calidad y una capacidad de respuesta más rápida» con Claude Team. Señaló el momento del lanzamiento: unos meses después de que el equipo ChatGPT de OpenAI llegara al mercado. VER: Adobe agregó su Firefly AI y sus credenciales de contenido a la lista de objetivos para una recompensa por errores privada. (TechRepublic) ¿Cuánto cuesta una suscripción a Claude Team? Una suscripción a Claude Team cuesta $30 por mes para un mínimo de cinco usuarios. Puedes registrarte en Claude Team en la página de inicio de Claude. Más cobertura de IA de lectura obligada La aplicación Claude ahora está disponible en iOS La aplicación Claude en iOS estuvo disponible en la App Store de Apple a partir del 1 de mayo. La aplicación permite el acceso móvil al chatbot gratuito, así como a los planes Claude Pro y Team. En la aplicación, Claude puede interpretar fotografías, documentos o archivos. Si inicias sesión en varios dispositivos, Claude iOS podrá continuar con tus chats donde los dejaste en otro dispositivo. La aplicación Claude se puede utilizar para hacer preguntas y generar contenido con el chatbot de IA. Imagen: Las empresas de Anthropic Generative AI compiten por casos de uso empresarial Como Microsoft es para OpenAI, Amazon es para Anthropic: Amazon donó 4 mil millones de dólares a Anthropic durante el invierno de 2023-2024, y Google financió a Anthropic con 2 mil millones de dólares a partir de octubre pasado. Todos los hiperescaladores que trabajan en IA empresarial han promocionado con éxito la IA generativa como una nueva idea, pero monetizar los productos de IA generativa es difícil. «AWS y Google probablemente vean a Anthropic como su mejor opción para competir con ChatGPT y Copilot y quitarles participación de mercado», dijo Gordon McKenna, vicepresidente de evangelización de la nube y alianzas de la empresa de gestión de servicios de TI Ensono, en un correo electrónico a TechRepublic. «El momento de este anuncio probablemente se coordinó con los recientes anuncios de ganancias de AWS y Google y tenía como objetivo reforzar su presencia en este mercado». Mientras que Claude Team cuesta $ 30 por mes por persona, el equipo ChatGPT de OpenAI cuesta $ 25 por mes por persona anualmente o $ 30 por mes por persona mensualmente. El número mínimo de usuarios del equipo ChatGPT es dos, mientras que el equipo Claude tiene un mínimo de cinco. «Él [Claude Team] Definitivamente indica una presión competitiva sobre el negocio de suscripción móvil de ChatGPT y también pondrá la capacidad de juzgar la eficacia y el rendimiento del modelo en manos de los usuarios diarios”, escribió Ricardo Madan, vicepresidente senior de la agencia de personal TEKsystems Global Services, en una declaración a TechRepublic por correo electrónico. . “Claude FM de Anthropic [foundation model] ya se ha utilizado a nivel empresarial a través del registro Model Garden de Google Cloud y es uno [of] Los principales FM de terceros de AWS se agregaron a su plataforma Bedrock”, escribió Madan. «Sin embargo, Anthropic esencialmente y eventualmente disminuirá la necesidad de cualquier empresa de usarlos como una herramienta de terceros (a través de los hiperescaladores) ahora que están plantando una bandera de acceso directo en el juego del modelo corporativo».

El nuevo vídeo musical de Washed Out fue creado con la tecnología Sora de OpenAI

“The Hardest Part”, una nueva canción del artista indie pop Washed Out, trata sobre el amor perdido, uno de los temas más humanos. Pero, irónicamente, para ilustrar la sensación de anhelo de la melodía, el músico recurrió a algo mucho menos carnal y -sangre: inteligencia artificial. Con el lanzamiento del jueves de “The Hardest Part”, Washed Out, con sede en Macon, Georgia, cuyo nombre real es Ernest Greene, tiene la primera colaboración entre un importante artista musical y un cineasta en un video musical que utiliza la tecnología de texto a video Sora de OpenAI. , según el sello discográfico del cantautor, Sub Pop. El vídeo de aproximadamente cuatro minutos, dirigido por Paul Trillo, acerca rápidamente al espectador a través de elementos clave de la vida de una pareja. El público ve a los personajes, una mujer pelirroja y un hombre de cabello oscuro, pasar de besarse y fumar en una escuela secundaria de los años 80 a casarse y tener un hijo. «No llores, todo está bien ahora», canta Greene. «La parte más difícil es que no puedes volver atrás». La pareja no está interpretada por actores reales. Se crean de forma totalmente digital a través de la IA de Sora. El vídeo podría marcar el comienzo de una tendencia potencialmente innovadora de utilizar la IA en la producción de vídeos. «Creo que el lugar en el que nos encontramos ahora está a punto de explotar, por lo que espero poder incorporar algo de esta nueva tecnología y ver cómo eso influye en lo que se me ocurre», dijo Greene en una entrevista. «Entonces, si eso es pionero, me encantaría ser parte de eso». «The Hardest Part», el sencillo principal del nuevo álbum de producción propia de Greene, «Notes From a Quiet Life», cuyo lanzamiento está previsto para el 28 de junio, es el vídeo musical más largo realizado con tecnología Sora hasta el momento. El programa crea clips cortos basados ​​en indicaciones de texto escrito. Esto permitió a Trillo construir escenas de una manera que hubiera sido mucho más costosa con actores, decorados y ubicaciones reales. “Al no tener limitaciones de presupuesto ni tener que viajar a diferentes lugares, pude explorar todos estos resultados diferentes y alternativos de la vida de esta pareja”, dijo Trillo. Trillo es uno de los creativos que tiene acceso anticipado a Sora, que aún no está disponible públicamente. OpenAI presentó Sora en febrero y ha estado probando el sistema con directores y reuniéndose con ejecutivos y productores de Hollywood. Está solucionando problemas y tratando de abordar las preocupaciones sobre la propiedad intelectual. Las innovaciones en IA han sido enormemente controvertidas en muchos rincones, incluida la industria musical, que se ha visto plagada por el uso de “deepfakes”, o vídeos y audio que utilizan falsamente la imagen o la voz de un artista. Músicos y otras personas han presionado para que se apruebe una legislación que combata este tipo de creaciones engañosas, y las agencias de talentos están trabajando con nuevas empresas tecnológicas para tomar medidas drásticas contra la imitación digital no autorizada. La introducción de Sora, proveniente de la misma compañía que creó el modelo de inteligencia artificial ChatGPT basado en texto, generó preocupaciones dentro de Hollywood y en otros lugares sobre su impacto potencialmente devastador en los empleos y la producción. Aún así, inspiró entusiasmo entre algunos creativos por las formas en que podría ayudarlos a lograr su visión en pantalla sin verse limitados por presupuestos de efectos especiales y limitaciones de viajes. Tanto Greene como Trillo dijeron que pudieron hacer más con Sora de lo que habrían hecho con la realidad. la vida depende de su presupuesto. Sub Pop no reveló los costos del video. El artista musical no le pagó a OpenAI para usar la tecnología para el video musical. Los dos hombres habían explorado otras ideas, incluida la contratación de bailarines y filmar en un lugar que se parecía a las colinas verdes en el arte del nuevo álbum de Greene, pero eso resultó difícil. debido a limitaciones de tiempo y financieras. Entonces Trillo sugirió experimentar con Sora. Greene, cuya música el público televisivo puede reconocer por el tema principal del programa de comedia satírica “Portlandia”, dudó al principio. «Siento que mi música y la mayoría de los videos que he hecho a lo largo de los años siempre comienzan desde un lugar realmente emocional y sincero», dijo Greene, señalando que muchos de los ejemplos de videos de IA que había visto existían. en el temido “valle inquietante”, parecido a un humano pero inquietantemente artificial. No obstante, Greene estaba dispuesto a experimentar. Entonces Trillo probó diferentes conceptos para ver cuál funcionaría en el video. Usando la tecnología, pudo explorar los diversos resultados de la vida de la pareja en múltiples lugares mediante la creación de indicaciones elaboradas basadas en texto. Completó el video en aproximadamente seis semanas, editando juntos alrededor de 55 clips en el video de los aproximadamente 700 que generó usando Sora. «Con esto, no tuve que editar yo mismo», dijo Trillo. «Realmente pude probar cosas y eso crea orgánicamente un tipo diferente de historia debido a eso, poder tirar tantas cosas a la pared y ver qué se pega». Para generar clips utilizables, Greene necesitaba escribir indicaciones con suficientes detalles específicos no solo sobre la imagen en sí sino también sobre los ángulos de toma y los movimientos de los personajes. “Atravesamos la burbuja que explota, atravesamos el chicle y entramos en un campo de fútbol abierto”, escribió Trillo como parte de su sugerencia para un breve fragmento de video. «La escena se mueve rápidamente, mostrando una perspectiva frontal, mostrando a los estudiantes haciéndose más grandes y más rápidos». El vídeo musical final de “The Hardest Part” muestra varios lugares, incluida una escuela secundaria, una tienda de comestibles, colinas, un pasillo con sábanas blancas ondeando y fuego atravesando las paredes. Ernest Greene, conocido como el artista musical “Washed Out”, lanzará un nuevo álbum el 28 de junio. (Ernest Greene) Hubo algunas limitaciones. A veces, Trillo tenía una idea y Sora la concretaba. Otras veces, crearía algo caótico e inutilizable. Los videos aparecían con inconsistencias, que Trillo a veces prefería pasar por alto. Los personajes se ven un poco diferentes de un clip a otro, al igual que el hijo de la pareja. Parte del encanto artístico del video es su estado de ensueño: recuerdos de la vida de una pareja que ilustran la oscuridad de la memoria humana. “Tienes que saber dónde elegir tu lucha con eso”, dijo Trillo sobre Sora. «Tienes que renunciar a un poco de tu libre albedrío al trabajar con esto y tienes que aceptar la naturaleza de lo caótico que es». una historia juntos”, dijo Greene. Tanto Greene como Trillo dijeron que ven la IA como potencialmente abriendo más oportunidades para que las personas impulsen la forma de videoarte musical. Los videos musicales son un medio lógico para jugar con la IA, porque generalmente son cortos y cuestan mucho menos que las películas y los episodios de televisión. Sin embargo, dijo Trillo, para él es importante que esto no se utilice como un nuevo método principal de creación, sino más bien como una herramienta más en el cinturón de herramientas. «Muchos videos musicales simplemente no tienen el presupuesto para soñar en grande», dijo Trillo. «Creo que la IA puede ayudar a la industria de la música en términos de crear cosas con las que incluso Ernest podría soñar y que tal vez no se habría atrevido a soñar antes».

Una guía completa para 2024

OpenAI puede ser el nombre más conocido cuando se trata de IA generativa comercial, pero Meta ha conseguido hacerse un hueco a través de potentes modelos de lenguaje de gran tamaño de código abierto. Meta reveló su modelo de IA generativa más grande hasta el momento, Llama 3, el 18 de abril, que supera al GPT04 en algunas pruebas estándar de IA. ¿Qué es Llama 3? Llama 3 es un LLM creado por Meta. Se puede utilizar para crear IA generativa, incluidos chatbots que puedan responder en lenguaje natural a una amplia variedad de consultas. Los casos de uso en los que se ha evaluado Llama 3 incluyen lluvia de ideas, escritura creativa, codificación, resumen de documentos y respuesta a preguntas en la voz de una persona o personaje específico. El modelo Llama 3 completo viene en cuatro variantes: 8 mil millones de parámetros preentrenados. Instrucción de 8 mil millones de parámetros ajustada. 70 mil millones de parámetros previamente entrenados. Instrucción de 70 mil millones de parámetros ajustada. Las capacidades de IA generativa de Llama 3 se pueden utilizar en un navegador, a través de funciones de IA en Facebook, Instagram, WhatsApp y Messenger de Meta. El modelo en sí se puede descargar desde Meta o desde las principales plataformas empresariales en la nube. ¿Cuándo se lanzará Llama 3 y en qué plataformas? Llama 3 se lanzó el 18 de abril en Google Cloud Vertex AI, watsonx.ai de IBM y otras grandes plataformas de alojamiento LLM. AWS siguió y agregó Llama 3 a Amazon Bedrock el 23 de abril. A partir del 29 de abril, Llama 3 está disponible en las siguientes plataformas: Databricks. Abrazando la cara. Kaggle. Microsoft Azure. NIM de NVIDIA. Las plataformas de hardware de AMD, AWS, Dell, Intel, NVIDIA y Qualcomm son compatibles con Llama 3. ¿Llama 3 es de código abierto? Llama 3 es de código abierto, como lo han sido los otros LLM de Meta. La creación de modelos de código abierto ha sido un valioso diferenciador para Meta. VER: El informe del índice de IA de Stanford revela 8 tendencias de la IA en los negocios actuales. (TechRepublic) Existe cierto debate sobre qué parte del código o los pesos de un modelo de lenguaje grande deben estar disponibles públicamente para contar como código abierto. Pero en lo que respecta a los fines comerciales, Meta ofrece una mirada más abierta a Llama 3 que sus competidores para sus LLM. ¿Llama 3 es gratis? Llama 3 es gratuito siempre que se utilice según los términos de la licencia. El modelo se puede descargar directamente desde Meta o utilizar dentro de los diversos servicios de alojamiento en la nube enumerados anteriormente, aunque esos servicios pueden tener tarifas asociadas. La página de inicio de Meta AI en un navegador ofrece opciones sobre qué pedirle a Llama 3 que haga. Imagen: Meta / Captura de pantalla de Megan Crouse ¿Llama 3 es multimodal? Llama 3 no es multimodal, lo que significa que no es capaz de comprender datos de diferentes modalidades como vídeo, audio o texto. Meta planea hacer que Llama 3 sea multimodal en un futuro próximo. Mejoras de Llama 3 sobre Llama 2 Para hacer que Llama 3 sea más capaz que Llama 2, Meta agregó un nuevo tokenizador para codificar el lenguaje de manera mucho más eficiente. Meta mejoró Llama 3 con atención de consultas agrupadas, un método para mejorar la eficiencia de la inferencia del modelo. El conjunto de entrenamiento de Llama 3 es siete veces mayor que el conjunto de entrenamiento utilizado para Llama 2, dijo Meta, e incluye cuatro veces más código. Meta aplicó nuevas eficiencias al preentrenamiento y al ajuste de instrucciones de Llama 3. Dado que Llama 3 está diseñado como un modelo abierto, Meta agregó barreras de seguridad pensando en los desarrolladores. Una nueva barrera de seguridad es Code Shield, cuyo objetivo es detectar el código inseguro que el modelo pueda producir. ¿Qué sigue para Llama 3? Meta planea: Agregar varios idiomas a Llama 3. Expandir la ventana contextual. Generalmente aumenta las capacidades del modelo en el futuro. Meta está trabajando en un modelo de parámetros 400B, que puede ayudar a dar forma a la próxima generación de Llama 3. En las primeras pruebas, Llama 3 400B con ajuste de instrucciones obtuvo una puntuación de 86,1 en la evaluación de conocimientos MMLU (una prueba comparativa de IA), según Meta, lo que lo convierte en competitivo con GPT-4. Llama 400B sería el LLM más grande de Meta hasta el momento. El lugar de Llama 3 en el competitivo panorama de la IA generativa Llama 3 compite directamente con GPT-4 y GPT-3.5, Gemini y Gemma de Google, Mistral 7B de Mistral AI, Perplexity AI y otros LLM para uso individual o comercial para construir chatbots de IA generativa y otros. herramientas. Aproximadamente una semana después de que se revelara Llama 3, Snowflake presentó su propia IA empresarial abierta con capacidades comparables, llamada Snowflake Arctic. Los crecientes requisitos de rendimiento de LLM como Llama 3 están contribuyendo a una carrera armamentista de PC con IA que pueden ejecutar modelos al menos parcialmente en el dispositivo. Mientras tanto, las empresas de IA generativa pueden enfrentar un mayor escrutinio por sus grandes necesidades informáticas, lo que podría contribuir a empeorar el cambio climático. Llama 3 vs GPT-4 Llama 3 supera al GPT-4 de OpenAI en HumanEval, que es un punto de referencia estándar que compara la capacidad del modelo de IA para generar código con el código escrito por humanos. Llama 3 70B obtuvo una puntuación de 81,7, en comparación con la puntuación de 67 de GPT-4. Sin embargo, GPT-4 superó a Llama 3 en la evaluación de conocimientos MMLU con una puntuación de 86,4 frente a 79,5 de Llama 3 70B. El rendimiento de Llama 3 en más pruebas se puede encontrar en la publicación del blog de Meta.

Con OpenAI sumido en el caos, los reclutadores tecnológicos apuntan al talento

Para OpenAI, que se ha convertido en la cara de la floreciente industria de la IA gracias a productos de consumo populares como ChatGPT y DALL-E, los últimos días han sido una crisis sin un final claro a la vista. Pero para los competidores en el espumoso sector de la IA, es una oportunidad. Más de 700 empleados de la potencia de inteligencia artificial OpenAI amenazaron el lunes con dejar el desarrollador de software a menos que los miembros de su junta directiva, que a fines de la semana pasada despidieron abruptamente al director ejecutivo Sam Altman, renunciaran y reintegraran al ex director ejecutivo. “Cualquier reclutador experimentado Lo sabremos, cada vez que se anuncia un despido, cada vez que hay este tipo de cambio o cambio dramático, lo primero que se hace es iniciar la conversación”, dijo Andrew Esguerra, director general de la agencia de contratación Coda Search. «Intentas llegar allí primero». Esguerra ya ha comenzado a comunicarse con los empleados de OpenAI para ver si están buscando nuevos trabajos, dijo, y es casi seguro que no está solo: «Cada uno de estos OpenAI [employees]específicamente los ingenieros… No me sorprendería si cada uno ya hubiera sido contratado por 100, 200, 300 personas”. No es inmediatamente obvio que las empresas rivales de IA serían las mayores beneficiarias de un éxodo. Los más de 700 empleados de OpenAI que firmaron una carta el lunes amenazando con abandonar el barco dijeron que se dirigirían a Microsoft, donde Altman aterrizó después de ser despedido. El gigante tecnológico con sede en Redmond, Washington, que ha invertido y trabajado estrechamente con OpenAI, “ «Nos aseguró que hay puestos para todos los empleados de OpenAI», dijeron los firmantes. Altman tuiteó el lunes: «Todos vamos a trabajar juntos de una manera u otra». También podría, según algunos informes, regresar a OpenAI como parte de un proceso de transición. junta directiva o incluso como director ejecutivo. Incluso si Altman regresara de alguna manera, muchos empleados de OpenAI podrían cuestionar la estabilidad de la empresa en el futuro. Y eso podría dar a otras empresas de IA la oportunidad de hacerles mejores ofertas. Con la mayoría de los 770 empleados de OpenAI aparentemente disponibles, los competidores grandes y pequeños podrían hacerse con parte del valioso capital humano que hace girar el mundo de la tecnología. “Salesforce, Slack y Tableau TODOS igualarán a cualquier investigador de OpenAI que haya ofertado. su renuncia OTE completa en efectivo y capital para unirse inmediatamente a nuestros equipos de investigación de IA confiable de Salesforce Einstein”, tuiteó el lunes el director ejecutivo de Salesforce Inc., Marc Benioff. «Únase a nuestra revolución empresarial de IA confiable». DeepMind de Google experimentó un aumento en los currículums entrantes de OpenAI después de la partida de Altman, informó The Information el domingo, mientras que los actores más pequeños de IA se movilizaron para reclutar de manera proactiva personal de OpenAI. Esguerra, el empleado de la agencia de reclutamiento, dijo que no ha Sin embargo, he visto LinkedIn inundado de solicitantes de empleo (la situación todavía está cambiando, enfatizó, y muchos empleados quieren arreglar OpenAI en lugar de darse por vencido), pero ya ha visto «algunas respuestas aquí y allá». Seguro que vamos a perder gente”, dijo. “La gente ya está mirando hacia otra parte. La gente ahora está abriendo sus oídos a lo que los reclutadores tienen que decir: qué proyectos existen, qué tipo de trabajo podrían estar haciendo en otros lugares”. Muchos de los mayores competidores de OpenAI en el sector de la inteligencia artificial, incluidos Amazon, Anthropic, Apple, Google , Hugging Face, IBM, Meta, Midjourney, Runway y xAI – declinaron o no respondieron a una solicitud de comentarios sobre si habían intentado reclutar o si habían sido contactados por personal descontento de OpenAI.“El laboratorio de investigación de IA dentro de Microsoft «Se ha quedado atrás con respecto a sus pares en el desarrollo de modelos básicos hasta la fecha… y no será instantáneamente tan efectivo como OpenAI con una infusión de talento», dijo Brendan Burke, analista senior de investigación de tecnologías emergentes en la firma de investigación de mercado PitchBook, en un correo electrónico. «Los competidores tienen una ventana para buscar avances fundamentales que puedan superar los esfuerzos de Microsoft-OpenAI». Un informe publicado por PitchBook el viernes encontró que se habían comprometido 23.200 millones de dólares en financiación para nuevas empresas de IA generativa este año hasta mediados de octubre, aunque esa cifra era una cifra relativamente menos impresionante de 7.900 millones de dólares cuando se excluyeron del total las asociaciones corporativas atípicas. Las circunstancias exactas en las que OpenAI despidió a Altman siguen sin estar claras, pero se cree que su despido se debió a desacuerdos sobre la velocidad y seguridad con las que debería trabajar el desarrollador. sobre IA. Aunque OpenAI tiene algunos componentes con fines de lucro, en última instancia está dirigido por una junta sin fines de lucro cuyo objetivo es desarrollar la IA de manera segura y teniendo en cuenta los mejores intereses de la humanidad. En una declaración, la junta de OpenAI atribuyó el despido de Altman a una falta de franqueza constante en sus comunicaciones con miembros de la Junta. Desde entonces, la junta nombró al ex director ejecutivo de Twitch, Emmett Shear, director ejecutivo interino de OpenAI. Las empresas tecnológicas son conocidas por hacer todo lo posible en una carrera para contratar desarrolladores talentosos y otro personal antes que sus competidores. Es una cultura que dio lugar a la imagen de las oficinas tecnológicas como campus universitarios exuberantes llenos de mesas de pingpong, comodidades en el lugar y abundantes beneficios. Cuando se adquiere una startup tecnológica, a veces tiene menos que ver con el producto que la empresa ha creado que con el personal que ha reunido, una táctica conocida como «adquisición». OpenAI no respondió a una solicitud de comentarios sobre si ha tenido problemas. retener personal desde que despidieron a Altman, o cómo planea responder a la carta del empleado. Aludiendo a la capacidad de ChatGPT para ayudar a los solicitantes de empleo a agilizar el proceso de solicitud, Esguerra dijo: «Estoy seguro de que todos [at OpenAI]utilizaron el software que crearon para crear sus propios currículums durante el fin de semana”.

Sam Altman está de regreso en OpenAI. ¿Lo que acaba de suceder?

Casi tan rápido como se fue, Sam Altman está de regreso. Luego de su abrupto y aún en gran medida inexplicable despido del influyente desarrollador de inteligencia artificial OpenAI el viernes, el empresario tecnológico de 38 años regresará ahora a la empresa detrás de ChatGPT y otras IA populares. programas. El ex y futuro director ejecutivo responderá ante una junta directiva diferente a la que lo despidió a fines de la semana pasada, escribió la compañía en X, anteriormente Twitter, y agregó: «Estamos colaborando para determinar los detalles». Durante una semana vertiginosa de intrigas en la sala de juntas, ha habido mucho que asimilar. ¿Por qué despidieron a Sam Altman? Todavía no está del todo claro. El viernes, la compañía publicó un blog titulado “OpenAI anuncia transición de liderazgo”, en el que decía que Altman se iría después de “un proceso de revisión deliberante por parte de la junta, que concluyó que no fue consistentemente sincero en su comunicaciones”. La junta, que entonces incluía a Ilya Sutskever, científico jefe de OpenAI; Adam D’Angelo, director ejecutivo de la plataforma de preguntas y respuestas Quora; Tasha McCauley, ejecutiva de tecnología; y Helen Toner, directora del Centro de Seguridad y Tecnología Emergente de Georgetown, ya no tenían «confianza en su capacidad para continuar liderando OpenAI», escribieron. Pero los detalles sobre qué es exactamente Altman, uno de los nombres más importantes en el floreciente sector de la IA, y un elemento fijo del ecosistema de startups del Área de la Bahía de San Francisco, los errores han sido escasos, lo que llevó a algunos a criticar a la junta directiva de OpenAI por crear un vacío de información. Después de despedirlo, la junta decidió reemplazar a Altman con un CEO interino: la primera directora de tecnología, Mira. Murati y luego Emmett Shear, exdirector de la plataforma de transmisión Twitch, propiedad de Amazon. Shear dijo que encargaría una investigación sobre el despido de Altman, pero que no fue motivada por un «desacuerdo específico sobre seguridad». Sin embargo, muchos han especulado que la cuestión era una disputa sobre la rapidez (y la seguridad) con la que la empresa debería trasladarse a su puesto. Desarrollar software de IA cada vez más potente. Shear ha expresado su preocupación por el desarrollo de la IA en el pasado. (Altman también ha reconocido los riesgos de la tecnología, pero también ha rechazado las regulaciones). La búsqueda de Altman de financiación externa para poner en marcha otras empresas de IA, incluida una startup de semiconductores y una startup de hardware de IA, también puede haber sido un punto de tensión. ¿Qué es OpenAI? Si ha notado un auge repentino en la inteligencia artificial durante los últimos dos años, se debe en gran parte a OpenAI. Además de realizar muchas investigaciones en el campo, la empresa ha lanzado dos productos: el generador de imágenes DALL- E y el chatbot ChatGPT, que han atraído la atención generalizada del público en general. Ambos caen en el campo de la “IA generativa”, o IA que ingiere grandes cantidades de datos y luego puede generar medios nominalmente originales basados ​​en patrones que descifra. El resultado de estos y otros productos de software competidores ha sido un auge generalizado en el uso. de la IA para una variedad de tareas que incluyen la realización de películas, la redacción de cartas de presentación y las citas y, en algunos casos, una reacción violenta por el desplazamiento laboral y otras ramificaciones de la automatización masiva. Entonces, ¿cómo terminó regresando Altman? Después de su despido, Altman rápidamente alineó un aterrizaje en Microsoft, donde estaba destinado a liderar un equipo de investigación de IA. El gigante tecnológico con sede en Redmond, Washington, tiene una relación continua con OpenAI y acordó a principios de este año invertir 10 mil millones de dólares en ella, en un intento por competir con otros actores importantes en el espumoso mercado de la IA. Pero muchos en OpenAI querían que Altman volviera. Más de 700 empleados de la empresa firmaron una carta el lunes pidiendo a la junta directiva que dimitiera y también reintegrara al ex ejecutivo. Si no se cumplía su ultimátum, amenazaron con seguir a Altman a Microsoft, que se había ofrecido a contratarlos a todos. Murati, el primer CEO interino, supuestamente había estado interesado en un momento en volver a contratar a Altman. Esas conversaciones continuaron bajo el mando de Shear, de quien Bloomberg informó el martes por la tarde estaba hablando con Altman, inversionistas de OpenAI y al menos un miembro de la junta sobre la reinstalación de Altman como CEO o posiblemente como director de una junta de transición. El martes por la noche, Altman estaba de regreso en el interior. como si todo el asunto nunca hubiera sucedido. Se le unirá una junta recién reconstituida que mantendrá a D’Angelo, el ejecutivo de Quora, y que también incluirá al ex codirector ejecutivo de Salesforce, Bret Taylor, y al exsecretario del Tesoro de Estados Unidos, Lawrence Summers. ¿No es todo este caos malo para los negocios? Casi con certeza. En un momento dado, el drama redujo la valoración de Microsoft en 48.000 millones de dólares y brevemente incitó una lucha por parte de empresas de inteligencia artificial competidoras para contratar a los leales a Altman. La inestabilidad también puede empujar a algunos de los clientes empresariales de OpenAI a reconsiderar su dependencia del software de la empresa. Pero eso puede no venir al caso. OpenAI es bastante único en Silicon Valley porque, aunque tiene algunos elementos con fines de lucro, esos elementos están subordinados. a una estructura sin fines de lucro. La junta directiva que expulsó a Altman representa una 501(c)(3) y tiene como misión la creación de IA de uso general que beneficie a la humanidad, no la generación de ganancias. “La mayoría de las juntas directivas tienen la tarea de garantizar que sus directores ejecutivos sean servir mejor a los intereses financieros de la empresa”, escribió recientemente el columnista del Times Brian Merchant sobre la inusual estructura de incentivos. «La junta directiva de OpenAI tiene la tarea de garantizar que su CEO no sea imprudente con el desarrollo de la inteligencia artificial». Sin embargo, OpenAI estuvo recientemente en conversaciones con inversores que la habrían valorado en 86 mil millones de dólares.

Google cree que puede sacar provecho de la IA generativa. Microsoft ya tiene

El director ejecutivo de Alphabet, Sundar Pichai, confía en que Google encontrará una manera de ganar dinero vendiendo el acceso a herramientas de inteligencia artificial generativa. El director ejecutivo de Microsoft, Satya Nadella, dice que su empresa ya lo está haciendo. Ambas empresas informaron el jueves de ventas y ganancias trimestrales mejores de lo esperado. Y los precios de las acciones de ambos se dispararon con los resultados, y Alphabet se vio aún más impulsada por sus nuevos planes de recomprar más acciones y emitir su primer dividendo. Pero la suerte a corto plazo de Microsoft y Google, al menos en lo que respecta a su capacidad generativa En lo que respecta a los esfuerzos de IA, se ven diferentes bajo el capó y en los comentarios de sus ejecutivos. La forma en que los inversores, los trabajadores y los clientes potenciales perciban los esfuerzos de los rivales podría determinar quién se quedará con la mejor parte de los cientos de miles de millones de dólares en gastos que se espera que fluyan hacia dicho software en los próximos años. En una llamada con analistas financieros el jueves, Nadella promocionó que Microsoft ahora tiene 1,8 millones de clientes para GitHub Copilot, una herramienta de inteligencia artificial generativa que ayuda a los ingenieros a escribir código de software. Esto es más que los 1,3 millones de clientes de hace un trimestre. Entre las empresas Fortune 500, el 60 por ciento utiliza Copilot para Microsoft Office 365, un asistente virtual que utiliza IA generativa para ayudar a los trabajadores a escribir correos electrónicos y documentos, y el 65 por ciento utiliza un servicio de nube de Microsoft Azure. que les permite acceder al software de IA generativa de OpenAI, creador de ChatGPT. «Azure se ha convertido en un punto de referencia para prácticamente cualquiera que esté realizando un proyecto de IA», dijo Nadella. Los 13 mil millones de dólares que Microsoft ha invertido en OpenAI ciertamente han ayudado a ganar esos clientes. El interés en los servicios de IA ayudó a impulsar los ingresos de la unidad más grande de Microsoft, los servicios en la nube, hasta siete puntos porcentuales en comparación con hace un año, y las ventas generales de Microsoft aumentaron. 17 por ciento a casi $62 mil millones. También ganó cuota de mercado en la nube, añadió Nadella. El número de acuerdos de nube por valor de 100 millones de dólares que Microsoft consiguió aumentó un 80 por ciento durante el trimestre en comparación con el mismo periodo del año anterior y los acuerdos por valor de 10 millones de dólares se duplicaron. Pichai de Alphabet también tuvo hitos de los que presumir. Dijo a los analistas en una llamada separada que más de 1 millón de desarrolladores están utilizando las herramientas de IA generativa de Google Cloud y que el 60 por ciento de las nuevas empresas de IA generativa respaldadas por inversores son clientes de Google Cloud. La IA generativa también está impulsando las campañas publicitarias de los clientes publicitarios de Google. Pero Pichai no dijo cuántas suscripciones había atraído Google a Gemini Advanced, un plan de suscripción de 20 dólares al mes anunciado en febrero que brinda acceso al chatbot de IA más avanzado de la compañía. Pichai, el negocio principal de búsqueda de Google, no compartió cifras de ingresos relacionadas con experimentos para resumir los resultados de las consultas utilizando IA generativa. Al proporcionar respuestas más directas a los buscadores, Google podría terminar con menos oportunidades de mostrar anuncios de búsqueda si las personas dedican menos tiempo a realizar búsquedas adicionales y más refinadas. Los tipos de anuncios que Google muestra también podrían tener que cambiar. Si bien Pichai dijo que las pruebas muestran que los usuarios expuestos a búsquedas generativas impulsadas por IA están realizando más búsquedas, también son potencialmente menos rentables para Google porque la tecnología subyacente impulsa a los buscadores más avanzados. es más costoso que operar sus sistemas de larga data. Picahi expresó poca preocupación en ambos frentes. «Estamos muy, muy seguros de que podemos gestionar el costo de cómo atender estas consultas», dijo. “Me siento cómodo y confiado en que aquí también podremos gestionar la transición de monetización. Las ventas totales de Alphabet aumentaron un 15 por ciento a casi 81 mil millones de dólares. Gastó aproximadamente la misma cantidad (alrededor de 12 mil millones de dólares) que Microsoft invirtió en infraestructura como servidores y centros de datos el último trimestre. Pero los resultados y comentarios del jueves sugieren que Microsoft está más avanzado en la obtención de beneficios. Por ahora, los accionistas están dando margen de maniobra a ambas empresas. Al cierre del jueves, las acciones de Microsoft subieron un 35 por ciento durante el año pasado y las de Alphabet un 51 por ciento durante el año pasado. Ambos están en máximos históricos o cerca de ellos. Pero si los clientes siguen acudiendo en masa a Copilot y las perspectivas para Gemini y la búsqueda de Google no se vuelven más claras, las líneas de tendencia pronto podrían divergir.

GPT-4 de OpenAI puede explotar de forma autónoma el 87% de las vulnerabilidades de un día

El modelo de lenguaje grande GPT-4 de OpenAI puede explotar vulnerabilidades del mundo real sin intervención humana, según un nuevo estudio realizado por investigadores de la Universidad de Illinois en Urbana-Champaign. Otros modelos de código abierto, incluidos GPT-3.5 y escáneres de vulnerabilidad, no pueden hacer esto. Un gran agente de modelo de lenguaje (un sistema avanzado basado en un LLM que puede tomar acciones a través de herramientas, razonamiento, autorreflexión y más) que se ejecuta en GPT-4 explotó con éxito el 87% de las vulnerabilidades de «un día» cuando se le proporcionó su Instituto Nacional. de Normas y descripción de Tecnología. Las vulnerabilidades de un día son aquellas que se han divulgado públicamente pero aún no se han solucionado, por lo que todavía están abiertas a la explotación. «A medida que los LLM se han vuelto cada vez más poderosos, también lo han hecho las capacidades de los agentes de LLM», escribieron los investigadores en la preimpresión de arXiv. También especularon que el fracaso comparativo de los otros modelos se debe a que son «mucho peores en el uso de herramientas» que GPT-4. Los hallazgos muestran que GPT-4 tiene una «capacidad emergente» de detectar y explotar de forma autónoma vulnerabilidades de un día que los escáneres podrían pasar por alto. Daniel Kang, profesor asistente de la UIUC y autor del estudio, espera que los resultados de su investigación se utilicen en el entorno defensivo; sin embargo, es consciente de que esta capacidad podría presentar un modo de ataque emergente para los ciberdelincuentes. Le dijo a TechRepublic en un correo electrónico: “Sospecharía que esto reduciría las barreras para explotar las vulnerabilidades de un día cuando los costos de LLM bajen. Anteriormente, este era un proceso manual. Si los LLM se vuelven lo suficientemente baratos, este proceso probablemente se automatizará más”. ¿Qué éxito tiene GPT-4 en la detección y explotación de vulnerabilidades de forma autónoma? GPT-4 puede explotar de forma autónoma vulnerabilidades de un día El agente GPT-4 pudo explotar de forma autónoma vulnerabilidades web y no web de un día, incluso aquellas que se publicaron en la base de datos de vulnerabilidades y exposiciones comunes después de la fecha límite de conocimiento del modelo en noviembre. 26 de enero de 2023, demostrando sus impresionantes capacidades. «En nuestros experimentos anteriores, descubrimos que GPT-4 es excelente para planificar y seguir un plan, por lo que no nos sorprendió», dijo Kang a TechRepublic. VER: Hoja de referencia de GPT-4: ¿Qué es GPT-4 y de qué es capaz? El agente GPT-4 de Kang tenía acceso a Internet y, por lo tanto, a cualquier información disponible públicamente sobre cómo podría explotarse. Sin embargo, explicó que, sin una IA avanzada, la información no sería suficiente para dirigir a un agente a través de una explotación exitosa. «Usamos ‘autónomo’ en el sentido de que GPT-4 es capaz de elaborar un plan para explotar una vulnerabilidad», dijo a TechRepublic. “Muchas vulnerabilidades del mundo real, como ACIDRain, que causó más de 50 millones de dólares en pérdidas en el mundo real, tienen información en línea. Sin embargo, explotarlos no es trivial y, para un ser humano, requiere ciertos conocimientos de informática”. De las 15 vulnerabilidades de un día que se le presentaron al agente GPT-4, sólo dos no pudieron ser explotadas: Iris XSS y Hertzbeat RCE. Los autores especularon que esto se debía a que la aplicación web Iris es particularmente difícil de navegar y la descripción de Hertzbeat RCE está en chino, lo que podría ser más difícil de interpretar cuando el mensaje está en inglés. GPT-4 no puede explotar de forma autónoma las vulnerabilidades de día cero. Si bien el agente GPT-4 tuvo una tasa de éxito fenomenal del 87% con acceso a las descripciones de vulnerabilidades, la cifra se redujo a solo el 7% cuando no lo hizo, lo que demuestra que actualmente no es capaz. de explotar vulnerabilidades de «día cero». Los investigadores escribieron que este resultado demuestra cómo el LLM es «mucho más capaz de explotar vulnerabilidades que de encontrarlas». Es más barato usar GPT-4 para explotar vulnerabilidades que un hacker humano. Los investigadores determinaron que el costo promedio de una explotación exitosa de GPT-4 es de $8,80 por vulnerabilidad, mientras que emplear un probador de penetración humano sería de aproximadamente $25 por vulnerabilidad si les tomara la mitad. una hora. Si bien el agente LLM ya es 2,8 veces más barato que la mano de obra humana, los investigadores esperan que los costos de funcionamiento asociados de GPT-4 caigan aún más, ya que GPT-3.5 se ha vuelto tres veces más barato en solo un año. «Los agentes LLM también son trivialmente escalables, en contraste con el trabajo humano», escribieron los investigadores. GPT-4 toma muchas acciones para explotar de forma autónoma una vulnerabilidad. Otros hallazgos incluyeron que un número significativo de vulnerabilidades requirió muchas acciones para explotar, algunas hasta 100. Sorprendentemente, el número promedio de acciones tomadas cuando el agente tuvo acceso a las descripciones y cuando No solo difirió marginalmente, y GPT-4 en realidad dio menos pasos en la última configuración de día cero. Kang especuló a TechRepublic: «Creo que sin la descripción CVE, GPT-4 se rinde más fácilmente porque no sabe qué camino tomar». Más cobertura de IA de lectura obligada ¿Cómo se probaron las capacidades de explotación de vulnerabilidades de los LLM? Los investigadores primero recopilaron un conjunto de datos de referencia de 15 vulnerabilidades de software del mundo real de un día de la base de datos CVE y artículos académicos. Estas vulnerabilidades reproducibles de código abierto consistían en vulnerabilidades de sitios web, vulnerabilidades de contenedores y paquetes de Python vulnerables, y más de la mitad se clasificaron como de gravedad «alta» o «crítica». Lista de las 15 vulnerabilidades proporcionadas al agente LLM y sus descripciones. Imagen: Fang R et al. A continuación, desarrollaron un agente LLM basado en el marco de automatización ReAct, lo que significa que podría razonar sobre su siguiente acción, construir un comando de acción, ejecutarlo con la herramienta adecuada y repetirlo en un bucle interactivo. Los desarrolladores solo necesitaron escribir 91 líneas de código para crear su agente, lo que demuestra lo sencillo que es implementarlo. Diagrama del sistema del agente LLM. Imagen: Fang R et al. El modelo de lenguaje base podría alternarse entre GPT-4 y estos otros LLM de código abierto: GPT-3.5. OpenHermes-2.5-Mistral-7B. Charla Llama-2 (70B). Charla LLaMA-2 (13B). Charla LLaMA-2 (7B). Instrucción Mixtral-8x7B. Mistral (7B) Instrucción v0.2. Nous Hermes-2 Yi 34B. OpenChat 3.5. El agente estaba equipado con las herramientas necesarias para explotar de forma autónoma las vulnerabilidades en los sistemas de destino, como elementos de navegación web, una terminal, resultados de búsqueda web, capacidades de creación y edición de archivos y un intérprete de código. También podría acceder a las descripciones de vulnerabilidades de la base de datos CVE para emular la configuración de un día. Luego, los investigadores proporcionaron a cada agente un mensaje detallado que lo animó a ser creativo, persistente y explorar diferentes enfoques para explotar las 15 vulnerabilidades. Este mensaje constaba de 1.056 «tokens» o unidades individuales de texto, como palabras y signos de puntuación. El rendimiento de cada agente se midió en función de si explotó con éxito las vulnerabilidades, la complejidad de la vulnerabilidad y el costo en dólares del esfuerzo, en función de la cantidad de tokens ingresados ​​y generados y los costos de la API de OpenAI. VER: La tienda GPT de OpenAI ya está abierta para los creadores de Chatbot El experimento también se repitió cuando al agente no se le proporcionaron descripciones de las vulnerabilidades para emular una configuración de día cero más difícil. En este caso, el agente tiene que descubrir la vulnerabilidad y luego explotarla con éxito. Además del agente, se proporcionaron las mismas vulnerabilidades a los escáneres de vulnerabilidades ZAP y Metasploit, ambos comúnmente utilizados por los probadores de penetración. Los investigadores querían comparar su eficacia para identificar y explotar las vulnerabilidades de los LLM. Al final, se descubrió que sólo un agente LLM basado en GPT-4 podía encontrar y explotar vulnerabilidades de un día, es decir, cuando tenía acceso a sus descripciones CVE. Todos los demás LLM y los dos escáneres tuvieron una tasa de éxito del 0% y, por lo tanto, no fueron probados con vulnerabilidades de día cero. ¿Por qué los investigadores probaron las capacidades de explotación de vulnerabilidades de los LLM? Este estudio se realizó para abordar la brecha de conocimiento sobre la capacidad de los LLM para explotar con éxito vulnerabilidades de un día en sistemas informáticos sin intervención humana. Cuando se revelan vulnerabilidades en la base de datos CVE, la entrada no siempre describe cómo se pueden explotar; por lo tanto, los actores de amenazas o los evaluadores de penetración que buscan explotarlas deben resolverlo ellos mismos. Los investigadores intentaron determinar la viabilidad de automatizar este proceso con los LLM existentes. VER: Aprenda a utilizar la IA para su negocio El equipo de Illinois ha demostrado previamente las capacidades de piratería autónoma de los LLM mediante ejercicios de “captura de la bandera”, pero no en implementaciones del mundo real. Otros trabajos se han centrado principalmente en la IA en el contexto de la “mejora humana” en la ciberseguridad, por ejemplo, donde los piratas informáticos cuentan con la ayuda de un chatbot impulsado por GenAI. Kang dijo a TechRepublic: “Nuestro laboratorio se centra en la cuestión académica de cuáles son las capacidades de los métodos de IA de vanguardia, incluidos los agentes. Nos hemos centrado en la ciberseguridad debido a su importancia recientemente”. Se ha contactado a OpenAI para hacer comentarios.

Página 1 de 4

Funciona con WordPress & Tema de Anders Norén