Después de demandar a OpenAI este mes, alegando que la empresa se ha vuelto demasiado cerrada, Elon Musk dice que publicará su respuesta de “búsqueda de la verdad” a ChatGPT, el chatbot Grok, para que cualquiera pueda descargarla y usarla. “Esta semana, @xAI abrirá el código fuente Grok”, escribió Musk hoy en su plataforma de redes sociales X. Eso sugiere que su empresa de inteligencia artificial, xAI, publicará el código completo de Grok y permitirá que cualquiera pueda usarlo o modificarlo. Por el contrario, OpenAI ofrece una versión de ChatGPT y el modelo de lenguaje detrás de él disponible para su uso de forma gratuita, pero mantiene su código privado. Musk había dicho poco anteriormente sobre el modelo de negocio de Grok o xAI, y el chatbot estuvo disponible solo para suscriptores Premium. a X. Después de haber acusado a sus cofundadores de OpenAI de incumplir una promesa de regalar la inteligencia artificial de la compañía a principios de este mes, Musk puede haber sentido que tenía que abrir su propio chatbot para demostrar que está comprometido con esa visión. OpenAI respondió a la pregunta de Musk. demanda la semana pasada al publicar mensajes de correo electrónico entre Musk y otros en los que parecía respaldar la idea de hacer que la tecnología de la compañía fuera más cerrada a medida que se volviera más poderosa. Musk finalmente invirtió más de 40 millones de dólares en OpenAI antes de separarse del proyecto en 2018. Cuando Musk anunció por primera vez que Grok estaba en desarrollo, prometió que tendría menos sesgo político que ChatGPT u otros modelos de IA, que él y otros tienen derechos. Las opiniones inclinadas han sido criticadas por ser demasiado liberales. Las pruebas realizadas por WIRED y otros demostraron rápidamente que, aunque Grok puede adoptar un estilo provocativo, no está muy sesgado en un sentido u otro, lo que tal vez revela el desafío de alinear los modelos de IA de manera consistente con un punto de vista particular. El abastecimiento abierto de Grok podría ayudar a Musk a generar interés en la IA de su empresa. Limitar el acceso de Grok solo a suscriptores pagos de X, una de las plataformas sociales globales más pequeñas, significa que aún no tiene la tracción de ChatGPT de OpenAI o Gemini de Google. El lanzamiento de Grok podría atraer a los desarrolladores a utilizar y desarrollar el modelo y, en última instancia, podría ayudarlo a llegar a más usuarios finales. Eso podría proporcionar a xAI datos que puede utilizar para mejorar su tecnología. La decisión de Musk de liberar a Grok lo ve alinearse con el enfoque de Meta hacia la IA generativa. Los modelos de código abierto de Meta, como Llama 2, se han vuelto populares entre los desarrolladores porque pueden personalizarse y adaptarse completamente a diferentes usos. Pero adoptar una estrategia similar podría arrastrar a Musk aún más a un creciente debate sobre los beneficios y riesgos de dar a cualquiera acceso a los modelos de IA más potentes. Muchos expertos en IA sostienen que los modelos de IA de código abierto tienen importantes beneficios, como una mayor transparencia y un mayor acceso. «Los modelos abiertos son más seguros y robustos, y es fantástico ver más opciones de empresas líderes en el espacio», dice Emad Mostaque, fundador de Stability AI, una empresa que construye varios modelos de IA de código abierto.
Source link
Etiqueta: inteligencia artificial Página 6 de 17
Peter Chen, director ejecutivo de la empresa de software para robots Covariant, se sienta frente a una interfaz de chatbot similar a la que se utiliza para comunicarse con ChatGPT. “Muéstrame el bolso que tienes delante”, escribe. En respuesta, aparece un video que revela un brazo robótico sobre un contenedor que contiene varios artículos: un par de calcetines, un tubo de papas fritas y una manzana, entre ellos. El chatbot puede discutir los artículos que ve, pero también manipularlos. Cuando WIRED sugiere que Chen le pida que tome una fruta, el brazo se agacha, agarra suavemente la manzana y luego la mueve a otro contenedor cercano. Este chatbot práctico es un paso para brindar a los robots el tipo de capacidades generales y flexibles. exhibido por programas como ChatGPT. Existe la esperanza de que la IA finalmente pueda solucionar la antigua dificultad de programar robots y hacer que hagan más que un conjunto reducido de tareas. “No es nada controvertido en este momento decir que los modelos básicos son el futuro de la robótica”, dijo Chen. dice, utilizando un término para modelos de aprendizaje automático de propósito general y gran escala desarrollados para un dominio en particular. El práctico chatbot que me mostró funciona con un modelo desarrollado por Covariant llamado RFM-1, por Robot Foundation Model. Al igual que los que están detrás de ChatGPT, Gemini de Google y otros chatbots, ha sido entrenado con grandes cantidades de texto, pero también ha recibido control de video y hardware y datos de movimiento de decenas de millones de ejemplos de movimientos de robots provenientes del trabajo en el mundo físico. mundo. Incluir esos datos adicionales produce un modelo que no solo domina el lenguaje sino también la acción y que es capaz de conectar los dos. RFM-1 no sólo puede chatear y controlar un brazo robótico, sino también generar vídeos que muestran robots realizando diferentes tareas. Cuando se le solicite, RFM-1 mostrará cómo un robot debe agarrar un objeto de un contenedor desordenado. «Puede aceptar todas estas modalidades diferentes que son importantes para la robótica y también puede generar cualquiera de ellas», afirma Chen. «Es un poco alucinante». Vídeo generado por el modelo de IA RFM-1. Cortesía de Covariant Vídeo generado por el modelo de IA RFM-1. Cortesía de Covariant El modelo también ha demostrado que puede aprender a controlar hardware similar que no está en su entrenamiento. datos. Con mayor capacitación, esto podría incluso significar que el mismo modelo general podría operar un robot humanoide, dice Pieter Abbeel, cofundador y científico jefe de Covariant, pionero en el aprendizaje de robots. En 2010, dirigió un proyecto que entrenó a un robot para doblar toallas, aunque lentamente, y también trabajó en OpenAI antes de que dejara de investigar con robots. Covariant, fundada en 2017, actualmente vende software que utiliza el aprendizaje automático para permitir que los brazos robóticos seleccionen artículos. de contenedores en los almacenes, pero normalmente se limitan a la tarea para la que han estado entrenando. Abeel dice que modelos como RFM-1 podrían permitir que los robots utilicen sus pinzas para realizar nuevas tareas con mucha más fluidez. Compara la estrategia de Covariant con la forma en que Tesla utiliza datos de los automóviles que ha vendido para entrenar sus algoritmos de conducción autónoma. «Es más o menos lo mismo que estamos sucediendo aquí», dice. Abeel y sus colegas de Covariant están lejos de ser los únicos expertos en robótica que esperan que las capacidades de los grandes modelos de lenguaje detrás de ChatGPT y programas similares puedan provocar una revolución en robótica. Proyectos como RFM-1 han mostrado resultados iniciales prometedores. Pero la cantidad de datos que se pueden necesitar para entrenar modelos que fabriquen robots con capacidades mucho más generales (y cómo recopilarlos) es una cuestión abierta.
Source link
Microsoft ha comenzado a realizar cambios en su herramienta de inteligencia artificial Copilot después de que un ingeniero de IA del personal escribiera a la Comisión Federal de Comercio el miércoles sobre sus preocupaciones sobre la IA de generación de imágenes de Copilot. Indicaciones como «pro elección», «pro elección» [sic] y «cuatro veinte», que fueron mencionados en la investigación de CNBC el miércoles, ahora están bloqueados, así como el término «pro vida». También hay una advertencia sobre múltiples violaciones de políticas que conducen a la suspensión de la herramienta, que CNBC no había encontrado antes del viernes. «Este mensaje ha sido bloqueado», afirma la alerta de advertencia de Copilot. «Nuestro sistema marcó automáticamente este mensaje porque puede entrar en conflicto con nuestra política de contenido. Más violaciones de la política pueden provocar la suspensión automática de su acceso. Si cree que se trata de un error, infórmelo para ayudarnos a mejorar». La herramienta de IA ahora también bloquea solicitudes para generar imágenes de adolescentes o niños jugando a asesinos con rifles de asalto (un cambio marcado con respecto a principios de esta semana) y afirma: «Lo siento, pero no puedo generar esa imagen. Va en contra de mis principios éticos y las políticas de Microsoft. Por favor, hágalo». No me pidas que haga nada que pueda dañar u ofender a otros. Gracias por su cooperación». Lea más informes de CNBC sobre IA Cuando se le contactó para comentar sobre los cambios, un portavoz de Microsoft le dijo a CNBC: «Estamos monitoreando continuamente, haciendo ajustes y aplicando medidas adicionales. controles establecidos para fortalecer aún más nuestros filtros de seguridad y mitigar el mal uso del sistema». Shane Jones, el líder de ingeniería de IA en Microsoft que inicialmente expresó su preocupación por la IA, ha pasado meses probando Copilot Designer, el generador de imágenes de IA que Microsoft estrenó en marzo de 2023, impulsado por la tecnología OpenAI. Al igual que con DALL-E de OpenAI, los usuarios ingresan mensajes de texto para crear imágenes. Se fomenta que la creatividad se vuelva loca. Pero desde que Jones comenzó a probar activamente el producto en busca de vulnerabilidades en diciembre, una práctica conocida como equipo rojo, vio que la herramienta generaba imágenes que iban en contra de los principios de IA responsable de Microsoft, frecuentemente citados. El servicio de IA ha representado demonios y monstruos junto con la terminología. relacionados con el derecho al aborto, adolescentes con rifles de asalto, imágenes sexualizadas de mujeres en cuadros violentos y consumo de alcohol y drogas entre menores de edad. Todas esas escenas, generadas en los últimos tres meses, fueron recreadas por CNBC esta semana utilizando la herramienta Copilot, originalmente llamada Bing Image Creator. Aunque algunas indicaciones específicas han sido bloqueadas, muchos de los otros problemas potenciales sobre los que CNBC informó permanecen. El término «accidente automovilístico» devuelve charcos de sangre, cuerpos con rostros mutados y mujeres en las escenas de violencia con cámaras o bebidas, a veces con corsé o entrenador de cintura. «Automobile accident» todavía muestra imágenes de mujeres con ropa reveladora y de encaje, sentadas encima de autos destartalados. El sistema también sigue infringiendo fácilmente los derechos de autor, como al crear imágenes de personajes de Disney, incluida Elsa de «Frozen», sosteniendo la bandera palestina frente a edificios destrozados supuestamente en la Franja de Gaza, o vistiendo el uniforme militar de las Fuerzas de Defensa de Israel y sosteniendo una ametralladora. Jones estaba tan alarmado por su experiencia que comenzó a informar internamente sus hallazgos en diciembre. Si bien la empresa reconoció sus preocupaciones, no estaba dispuesta a retirar el producto del mercado. Jones dijo que Microsoft lo refirió a OpenAI y, cuando no recibió respuesta de la compañía, publicó una carta abierta en LinkedIn pidiendo a la junta directiva de la startup que retirara DALL-E 3, la última versión del modelo de IA, para una investigación. El departamento legal de Microsoft le dijo a Jones que eliminara su publicación inmediatamente, dijo, y él obedeció. En enero, escribió una carta a los senadores estadounidenses sobre el asunto y luego se reunió con personal del Comité de Comercio, Ciencia y Transporte del Senado. El miércoles, Jones intensificó aún más sus preocupaciones y envió una carta a la presidenta de la FTC, Lina Khan, y otra a La junta directiva de Microsoft. Compartió las cartas con CNBC con anticipación. La FTC confirmó a CNBC que había recibido la carta, pero se negó a hacer más comentarios sobre el expediente.
Source link
El mercado legal de práctica privada de Australia se está lanzando de lleno a brindar servicios legales asistidos por IA. Marcas líderes como Clayton Utz, Minter Ellison y Holding Redlich están dando señales de sus primeros pasos en el uso de la IA y su deseo de crecer hasta 2024 y más allá. Los bufetes de abogados están probando la IA para tareas que incluyen investigación jurídica y redacción de documentos legales, respaldada por modelos de IA personalizados y entrenados en datos legales. La IA podría acelerar la prestación de servicios legales, mejorar los costos de los servicios legales y redirigir a los abogados a asuntos más complejos. Ejemplos de la adopción de la IA por parte de la profesión jurídica australiana Australia tiene un mercado jurídico de práctica privada maduro y muy innovador. Ha estado entre los primeros mercados legales del mundo en ver el potencial de la IA generativa para acelerar y aumentar la prestación de servicios legales a clientes de los sectores público y privado. VER: A continuación se presentan algunos desafíos de TI que Australia debe abordar para aprovechar el momento de la IA. Aunque firmas de servicios de información legal como LexisNexis y Thomson Reuters han estado implementando servicios de inteligencia artificial en el mercado estadounidense primero, las firmas de abogados australianas se apresuraron a probarlos a medida que estuvieron disponibles. También están desarrollando modelos y enfoques internos de IA. Clayton Utz Clayton Utz se encuentra entre las primeras firmas de abogados de Australia en probar Lexis+ AI, una nueva herramienta de inteligencia artificial generativa legal de LexisNexis, para generar borradores de documentos legales y otras comunicaciones. Esto sigue a otras iniciativas de la firma, incluido el uso de Lexis+, un analizador de argumentos, que puede analizar documentos legales y sugerir mejoras a la estrategia de litigio de un abogado. MinterEllison MinterEllison fue una de las dos únicas firmas de abogados australianas que Microsoft invitó a participar en su programa Copilot for Microsoft 365 Early Access. La empresa también está creando sus propias herramientas de IA generativa, incluido Chat with ME, un LLM de investigación interna personalizado que utiliza GPT-4 de OpenAI en el entorno privado y seguro de Microsoft Azure de la empresa, entre otras iniciativas internas. Holding Redlich Holding Redlich es otra empresa australiana que prueba la redacción de documentos legales y correos electrónicos con Lexis+ AI. Utilizando la herramienta de manera similar a Clayton Utz, los abogados de Holding Redlich pueden solicitar a Lexis+ AI que cree primeros borradores de documentos, incluidos consejos para los clientes, así como otros elementos comunes como correos electrónicos internos o presentaciones judiciales, como declaraciones de demanda. Figura A: Lexis+ AI es una herramienta de IA generativa capacitada en más de 1,23 millones de opiniones judiciales, estatutos, presentaciones y materiales secundarios. Imagen: LexisNexis Maddocks Maddocks es la primera firma de abogados australiana en Australia que adopta el asistente legal de IA CoCounsel Core, desarrollado por Thomson Reuters, que se encuentra en una fase de prueba de concepto y se ha implementado en más de 45 firmas de abogados en los EE. UU. Hemos estado identificando casos de uso y experimentando, según el director ejecutivo David Newman, quien dijo que podría «modernizar la forma en que trabajamos». Lander & Rogers Lander & Rogers, al igual que MinterEllison, ha adoptado Microsoft Copilot para ayudar a los abogados con tareas que incluyen redacción y revisión de contratos, investigación legal, razonamiento legal, extracción y análisis de datos y casos de uso más genéricos como correos electrónicos y resúmenes de reuniones. La empresa planea adoptar Copilot en toda la empresa después de las pruebas y también ha lanzado un laboratorio de inteligencia artificial dedicado. Más cobertura de Australia ¿Cuáles son los casos de uso clave de la IA en la profesión jurídica? Hay muchos casos de uso potenciales para la IA en los despachos de abogados. Los ejemplos nombrados por Microsoft incluyen redacción legal, investigación y análisis legales, diligencia debida, resúmenes y comunicaciones. PREMIUM: explore estos otros casos de uso principales de la IA. La investigación jurídica y la generación de contenidos son dos casos de uso generales clave para la profesión jurídica. Investigación legal Los bufetes de abogados de práctica privada brindan asesoramiento legal experto y comercial basado en leyes y regulaciones publicadas a nivel global y local, así como jurisprudencia y precedentes. Ofrecen interpretaciones y opiniones para ayudar a los clientes a tomar decisiones legales informadas y conformes. La IA recibe esta información documentada, lo que podría reducir enormemente el tiempo de investigación. Por ejemplo, Lexis+ AI, construido sobre Claude 2 de Anthropic y GPT-4 de OpenAI, ha sido entrenado en la base de datos de LexisNexis de 1,23 millones de opiniones judiciales, estatutos, presentaciones y materiales secundarios. Un gran modelo de lenguaje formado en una amplia base de datos jurídica es capaz de proporcionar borradores de asesoramiento jurídico basado en material jurídico de alta calidad del mundo real. También puede ofrecer citas precisas que respalden el resultado obtenido. Luego, los abogados pueden analizar y ajustar los resultados para entregarlos a un cliente. Generación de contenidos La investigación jurídica, que había sido posible con algunas herramientas de IA anteriores, ahora se ha ampliado con IA generativa para permitir la generación de lenguaje natural y textos legales. Para los despachos de abogados, esto significa la capacidad de generar de todo, desde borradores completos de documentos legales hasta correos electrónicos de clientes. Los abogados también podrán entablar conversaciones con los resultados de texto generados. A través de una ingeniería rápida a través de interfaces conversacionales, podrán ajustar los resultados generados para optimizar su asesoramiento antes de entregárselo a los usuarios finales, como clientes o tribunales. ¿Pueden los modelos jurídicos de IA producir redacción y asesoramiento jurídicos precisos? Los principales modelos de IA generativa legal están muy alejados de los esfuerzos de algunos abogados que han sido sorprendidos utilizando casos alucinados basados en ChatGPT en presentaciones judiciales en los EE. UU. y Canadá. Los modelos se entrenan con grandes cantidades de datos legales, y técnicas como el ajuste fino, la generación aumentada por recuperación y la ingeniería rápida sirven para crear respuestas precisas: Ajuste fino: LexisNexis explica que su herramienta Lexis+ AI es una versión reentrenada de nuestra LLM listos para usar. Grandes cantidades de datos legales relevantes mejoran su capacidad para realizar tareas en el ámbito legal. RAG: La precisión de los resultados se compara con una fuente confiable de conocimiento a través de RAG. Lexis+ AI, por ejemplo, hace referencia al contenido legal de alta calidad para fundamentar respuestas veraces. Ingeniería rápida: una buena ingeniería rápida puede reducir significativamente el riesgo de alucinaciones en casos de uso legal, y es probable que los abogados capacitados sean buenos en esta disciplina debido a sus habilidades de razonamiento verbal. ¿Cómo podría la adopción de la IA cambiar el mercado legal de Australia? El mercado legal de Australia es altamente competitivo. Varias firmas de abogados grandes, medianas y boutique compiten por relaciones con clientes y nuevos negocios en una variedad de áreas de práctica lucrativas, incluidas empresas, fusiones y adquisiciones, medios, telecomunicaciones y litigios. La implementación de la IA tiene el potencial de cambiar los servicios legales de varias maneras. El asesoramiento jurídico podría entregarse a los clientes más rápidamente. La puntualidad del asesoramiento jurídico es fundamental para apoyar a los clientes. La integración de la IA podría acelerar enormemente la capacidad de los abogados para investigar y analizar la legislación y la jurisprudencia y brindar asesoramiento jurídico considerado. Algunas empresas locales han sido testigos de la reducción de horas en algunas tareas. VER: El sector legal de Australia podría aprender de los “experimentos” de la CBA con IA en la banca. «La capacidad de generar contenido, incluida correspondencia con clientes, términos de contratos, alegatos, memorandos de asesoramiento legal y otra documentación, representa una oportunidad increíble para que la profesión jurídica acelere de manera segura y responsable el trabajo legal de rutina», según el informe de Microsoft. La IA podría reducir los costos del asesoramiento jurídico externo. Las firmas de abogados podrán cada vez más ofrecer asesoramiento jurídico preciso y relevante a un precio más bajo. La posible reducción de las horas facturables requeridas por los abogados a nivel de asociado, asociado senior y socio podría resultar en una guerra de precios en los despachos de abogados y presión sobre los honorarios legales. Los bufetes de abogados, cuyos socios en el mercado de Sydney pueden ganar 1,5 millones de dólares al año, estarán deseosos de conservar el valor de los honorarios pagados a pesar de las mejoras en la productividad. Es probable que cambien aún más la facturación hacia precios basados en el valor en lugar de facturar por el número de horas trabajadas. La IA podría convertirse en un frente de batalla en la guerra del talento jurídico. Los bufetes de abogados australianos compiten fuertemente por el talento jurídico. Las empresas quieren contratar y retener a los mejores abogados y convertirlos en socios. Los bufetes de abogados que no adoptan herramientas de inteligencia artificial corren el riesgo de perder abogados frente a quienes sí lo hacen porque pueden ver esto como el futuro de la práctica jurídica. La IA podría ser una amenaza existencial para algunos abogados Los abogados trabajan en una industria del conocimiento y se considera que están muy expuestos a la IA generativa. Un informe publicado por Goldman Sachs a principios de 2023 analizó el mercado estadounidense y descubrió que hasta el 44% de las tareas que realizan los abogados hoy en día podrían algún día automatizarse con herramientas de inteligencia artificial. El bufete de abogados australiano Holding Redlich participó anteriormente en un ejercicio de prueba de Turing que confirmó que la herramienta ‘analizador de argumentos’ de LexisNexis, Lexis+, podría superar a un ser humano en el fortalecimiento de la presentación de un abogado al sugerir jurisprudencia relevante a la que hacer referencia en ella. Los bufetes de abogados con IA emplearán súper abogados, capaces de realizar muchas de las tareas de conocimiento que consumen el tiempo de los abogados. Los abogados pueden involucrarse más en solicitar y revisar los resultados de la IA, asesorar sobre asuntos más complejos o emergentes y construir relaciones con los clientes.
OpenAI anunció el viernes su nueva junta directiva y la conclusión de una investigación interna realizada por el bufete de abogados estadounidense WilmerHale sobre los acontecimientos que condujeron al derrocamiento del director ejecutivo de OpenAI, Sam Altman. Sam Altman también se reincorporará a la junta directiva de OpenAI. Los nuevos miembros de la junta son: Dra. Sue Desmond-Hellmann, ex directora ejecutiva de la Fundación Bill y Melinda Gates, quien también forma parte de la junta directiva de Pfizer y del Consejo Presidencial de Asesores en Ciencia y Tecnología. Nicole Seligman, ex vicepresidenta ejecutiva y asesor general global de Sony y presidente de Sony Entertainment, que también forma parte de la junta directiva de Paramount Global, Meira GTx e Intuitive Machines, Inc. Fidji Simo, director ejecutivo y presidente de Instacart, que también forma parte de la junta directiva de Shopify. Los tres nuevos miembros «trabajarán en estrecha colaboración con los miembros actuales de la junta directiva Adam D’Angelo, Larry Summers y Bret Taylor, así como con Greg, Sam y la alta dirección de OpenAI», según un comunicado. OpenAI seguirá ampliando el tablero en el futuro, según una llamada de Zoom con periodistas. «La revisión concluyó que hubo una importante ruptura de confianza entre la junta anterior y Sam y Greg», dijo Taylor, y agregó que la revisión también «concluyó que la junta actuó de buena fe… [and] No anticipé parte de la inestabilidad que condujo después». Taylor también dijo que las preocupaciones de la junta no surgieron con respecto a preocupaciones sobre la seguridad del producto, las finanzas de OpenAI o las declaraciones a clientes o socios comerciales, que fue «simplemente una ruptura de confianza entre la junta y el Sr. Altman». La investigación de WilmerHale comenzó en diciembre, y los abogados presentaron su informe hoy, que incluyó docenas de entrevistas con miembros y asesores anteriores de la junta directiva de OpenAI, ejecutivos actuales y otros testigos. La investigación también implicó la revisión de más de 30.000 documentos, «Hemos llegado a la conclusión unánime de que Sam y Greg son los líderes adecuados para OpenAI», dijo Bret Taylor, presidente de la junta directiva de OpenAI, en un comunicado.»Estoy muy agradecido con Bret, Larry y WilmerHale», dijo Altman. En la llamada de Zoom con los periodistas, agregó, hablando de la CTO Mira Murati, «Mira en particular es incremental para OpenAI todo el tiempo… pero durante ese período en noviembre, ha hecho un trabajo increíble ayudando a liderar la empresa». Agregó que está «emocionado de seguir adelante aquí» y de que la situación haya «terminado». También mencionó que desearía haber actuado de manera diferente con respecto a las diferencias de opinión con la junta. En noviembre, la junta directiva de OpenAI destituyó a Altman, lo que provocó renuncias (o amenazas de renuncias), incluida una carta abierta firmada por prácticamente todos los empleados de OpenAI, y el revuelo de los inversores, incluido Microsoft. Al cabo de una semana, Altman estaba de regreso en la empresa y los miembros de la junta directiva Helen Toner, Tasha McCauley e Ilya Sutskever, que habían votado a favor de destituir a Altman, estaban fuera. Adam D’Angelo, que también había votado para derrocar a Altman, permaneció en la junta. Cuando se le preguntó a Altman sobre el estado de Sutskever en la llamada de Zoom con los periodistas, dijo que no había actualizaciones para compartir. «Amo a Ilya… espero Trabajamos juntos por el resto de nuestras carreras, mi carrera, lo que sea», dijo Altman. «Nada que anunciar hoy». Desde entonces, OpenAI ha anunciado nuevos miembros de la junta directiva, incluido el ex codirector ejecutivo de Salesforce, Bret Taylor, y el exsecretario del Tesoro, Larry Summers. Microsoft obtuvo un puesto de observador en la junta sin derecho a voto. Después del lanzamiento de ChatGPT en noviembre de 2022, batió récords en ese momento como la aplicación para consumidores de más rápido crecimiento en la historia y ahora tiene alrededor de 100 millones de usuarios activos semanales, junto con más del 92% de las empresas Fortune 500. empresas que utilizan la plataforma, según OpenAI. El año pasado, Microsoft invirtió 10 mil millones de dólares adicionales en la compañía, lo que la convierte en la mayor inversión en IA del año, según PitchBook, y se informa que OpenAI cerró un acuerdo que permitirá a los empleados vender acciones por una valoración de 86 mil millones de dólares, aunque el acuerdo Según se informa, el cierre tardó más de lo esperado debido a los acontecimientos que rodearon el derrocamiento de Altman. La montaña rusa de un par de semanas en la compañía todavía la afecta meses después. Este mes, el magnate tecnológico multimillonario Elon Musk demandó a los cofundadores de OpenAI, Sam Altman y Greg Brockman, por incumplimiento. de contrato e incumplimiento de deber fiduciario, revelaron documentos judiciales el jueves. En su denuncia, Musk y sus abogados alegan que el fabricante de ChatGPT «se ha transformado en una filial de facto de código cerrado de la empresa de tecnología más grande del mundo: Microsoft». » También argumentan que este acuerdo va en contra de un acuerdo de fundación y una certificación de incorporación de 2015 que OpenAI estableció con Musk, quien fue un donante fundamental de un cofundador de OpenAI en sus primeros años. Como parte del contrato de Microsoft con OpenAI, el gigante tecnológico solo tiene derechos sobre la tecnología «pre-AGI» de OpenAI, y corresponde a la junta directiva de OpenAI determinar si la compañía ha alcanzado ese hito. Musk argumentó en su presentación que desde la reorganización de la junta directiva de OpenAI en noviembre -cuando Toner, McCauley y Sutskever fueron destituidos- la nueva junta está «mal equipada» para determinar de forma independiente si OpenAI ha alcanzado AGI y, por lo tanto, si su tecnología está fuera del alcance de el acuerdo de exclusividad con Microsoft. Los abogados dijeron a CNBC que tenían dudas sobre la viabilidad legal del caso de Musk, y OpenAI ha dicho que planea presentar una moción para desestimar todos los reclamos de Musk. En respuesta a la demanda de alto perfil, OpenAI reprodujo viejos correos electrónicos de Musk en los que el CEO de Tesla y SpaceX animaba a la emergente startup a recaudar al menos mil millones de dólares en financiación, y acordaba que debería «comenzar a ser menos abierta» con el tiempo y «no compartir» la ciencia de la compañía con el público. La demanda de Musk también sigue a cierta controversia sobre los esfuerzos e inversiones anteriores de Altman en chips. Justo antes del breve derrocamiento de Altman, se informó que estaba buscando miles de millones para una empresa de chips nueva y aún no formada con el nombre en código «Tigris» para eventualmente competir con Nvidia, viajando al Medio. East para recaudar dinero de los inversores. En 2018, Altman invirtió personalmente en una startup de chips de IA llamada Rain Neuromorphics, con sede cerca de la sede de OpenAI en San Francisco, y en 2019, OpenAI firmó una carta de intención para gastar 51 millones de dólares en los chips de Rain. En diciembre, Estados Unidos obligó a una firma de capital de riesgo respaldada por Saudi Aramco a vender sus acciones en Rain.
Source link
Para ayudar a desarrollar la alfabetización en IA en la empresa, LinkedIn ofrece 250 cursos de IA de forma gratuita hasta el 5 de abril junto con su Informe anual de aprendizaje en el lugar de trabajo 2024, que destaca el estado del aprendizaje y el desarrollo y las habilidades necesarias para el futuro. No hay duda de que los empleados quieren desarrollar habilidades críticas de IA: cuatro de cada cinco personas quieren aprender más sobre cómo utilizar la IA en su profesión, según el informe de LinkedIn Learning (Figura A). Ese elevado número fue uno de los hallazgos sorprendentes del informe, dijo a TechRepublic Jill Raines, directora de gestión de productos de LinkedIn, en una entrevista por correo electrónico. Figura A. Imagen: LinkedIn Cómo acceder a cursos gratuitos de IA a través de LinkedIn Learning Los 250 cursos gratuitos de IA están disponibles en el Learning Hub de LinkedIn, pero hasta el 5 de abril serán gratuitos para todos, ya sea que alguien tenga una suscripción a Learning o no. Estos cursos de IA abarcan siete idiomas: inglés, portugués brasileño, francés, alemán, japonés, mandarín y español. «Los trabajos están cambiando para nosotros, incluso si no estamos cambiando de trabajo», explicó Raines sobre por qué estos cursos de IA se ofrecen de forma gratuita. “Nuestros datos muestran que se prevé que las habilidades necesarias para realizar el trabajo promedio a nivel mundial cambien en un 51% para 2030 con respecto a 2016, y se espera que el aumento de la IA generativa acelere este cambio al 68%. Los líderes de talento tienen un papel enorme que desempeñar a la hora de ayudar a las personas a desarrollar las habilidades que necesitan para seguir el ritmo de este cambio y prosperar en la era de la IA”. El objetivo era garantizar que los cursos gratuitos de IA de LinkedIn abarcaran varios niveles de competencia, añadió Raines. «Entonces, ya sea que su objetivo sea desarrollar una fluidez general en la IA generativa, capacitar a sus equipos para realizar inversiones comerciales impulsadas por GAI o mejorar las habilidades de los ingenieros para mantener y entrenar modelos de IA, hay contenido para usted». No es sorprendente que la compañía haya visto cómo los cursos sobre IA generativa “se disparan en popularidad”, dijo; año tras año se ha multiplicado por cinco el número de estudiantes que interactúan con el contenido de IA. Algunos de los cursos más populares sobre IA en LinkedIn este año son: Las empresas con sólidas culturas de aprendizaje ven mayores tasas de retención. Los empleadores deben comprender que brindar habilidades y oportunidades de desarrollo profesional no es solo un “beneficio”, es una necesidad empresarial, un poderoso estrategia de retención y la clave para garantizar que los empleados desarrollen las habilidades adecuadas en el momento adecuado para los roles correctos, dijo Raines. Los empleadores deben crear una cultura de aprendizaje y utilizar profesionales de formación y desarrollo, añadió. Y, sin embargo, encuestas recientes de LinkedIn a ejecutivos estadounidenses encontraron que sólo el 38% de las empresas dicen que actualmente están ayudando a sus empleados a adquirir conocimientos sobre IA. Al mismo tiempo, el 90% de las organizaciones están preocupadas por la retención de empleados y están brindando oportunidades de aprendizaje, dado que el 85% de los encuestados busca cambiar de trabajo este año. “Ahora podemos vincular los resultados empresariales deseables con una sólida cultura de aprendizaje, una poderosa herramienta para los profesionales y ejecutivos (de aprendizaje y desarrollo) que defienden el aprendizaje”, afirmó. VER: LinkedIn: el 93% de las organizaciones están preocupadas por la retención de empleados. Raines señaló los hallazgos del informe de LinkedIn de que las empresas con sólidas culturas de aprendizaje ven: Mayores tasas de retención (+57%). Más movilidad interna (+23%). Una cartera de gestión más saludable (+7%) en comparación con aquellos con menores niveles de compromiso. Además, Raines dijo: «A medida que cambian las habilidades necesarias para los trabajos, es fundamental que los empleados inviertan en el desarrollo de sus propias habilidades y expresen su opinión sobre su propio desarrollo profesional». Sólo un tercio de las organizaciones ofrece programas de movilidad interna. Otro hallazgo significativo del informe de LinkedIn es que sólo el 33% de las organizaciones ofrece programas internos para ayudar a las personas a avanzar en sus carreras (Figura B). Este puede ser el caso porque, aunque los beneficios de crear culturas que fomenten la movilidad interna son claros, «es un desafío hacerlo bien para muchas organizaciones», dijo Raines. «De hecho, sólo uno de cada cinco empleados tiene una gran confianza en su capacidad para realizar un movimiento interno». Figura B. Imagen: LinkedIn Hay varias razones, añadió. Según una investigación reciente de LinkedIn, los responsables de contratación dicen que las tres principales barreras a la movilidad interna son: Acaparamiento de talento (40%). Falta de oportunidades de aprendizaje y desarrollo para dotar a las personas de las habilidades necesarias para impulsar sus carreras (39%). La organización carece de un proceso eficaz para gestionar la movilidad interna (35%). “La realidad es que es necesario un cambio de mentalidad. Crear una cultura que fomente los movimientos internos es tarea de todos, desde los ejecutivos hasta los gerentes y los propios empleados”.+ Más cobertura de IA de lectura obligada Nuevas funciones de movilidad interna y desarrollo profesional de LinkedIn Learning LinkedIn está “evolucionando” sus productos para respaldar mejor la movilidad interna , reuniendo las herramientas de aprendizaje y contratación de la empresa para ayudar a los empleados a levantar la mano para trabajos internos y ayudarlos a ser descubiertos por los contratantes internos, dijo Raines. LinkedIn también lanzó nuevas funciones de desarrollo profesional y movilidad interna en su LinkedIn Learning Hub, diseñadas para ayudar a los líderes de talento a desarrollar las habilidades que sus organizaciones más necesitan. Las características son Next Role Explorer, Guías de roles y Planes de aprendizaje. «Hemos aprendido que el enfoque más eficaz para ayudar a las organizaciones a desarrollar las habilidades adecuadas es vincular el aprendizaje a las motivaciones profesionales individuales de los empleados», dijo Raines. «De hecho, los estudiantes que establecen metas profesionales dedican cuatro veces más aprendizaje que aquellos que no se fijan metas». Con el nuevo Explorador de roles siguientes, “los estudiantes pueden ver los siguientes roles potenciales que deberían explorar en función de las transiciones comunes que vemos que hacen los miembros de LinkedIn con su puesto (de trabajo) actual”, dijo Raines. Luego podrán comprender las habilidades necesarias para la transición a esos roles y adaptar su viaje de aprendizaje en función de objetivos profesionales específicos. Por ejemplo, la visualización de Next Role Explorer puede mostrar a los alumnos el camino hacia la promoción, desde un «analista de datos» hasta un «analista de datos senior» y las habilidades que necesitan aprender para progresar, dijo. “Los empleados también pueden entender cómo sería un giro profesional, ya que recomendamos nuevos roles basados en miembros de LinkedIn que han realizado un cambio de trabajo similar. Entonces, si usted es un analista de datos y se pregunta qué brechas de habilidades necesita llenar para convertirse en ingeniero de software, podemos ayudarlo en ese viaje”, dijo Raines. Next Role Explorer también dirige a los empleados a guías de roles personalizables para ayudarlos a comprender las habilidades específicas necesarias para tener éxito en un puesto, dijo Raines. A partir de ahí, los empleados podrán obtener planes de aprendizaje personalizados diseñados para ayudarlos a realizar un seguimiento de su progreso y cerrar las brechas de habilidades más críticas para avanzar en sus carreras. Además, la empresa ofrece a los empleados nuevas formas de optar por compartir su interés en puestos internos abiertos en LinkedIn Jobs, LinkedIn Learning y en dispositivos móviles. Desde LinkedIn Jobs, los empleados ahora pueden recibir alertas sobre nuevos roles internos que se abren y expresan su interés. Todas estas señales van directamente a la herramienta de reclutamiento de LinkedIn, por lo que los equipos de contratación pueden ver el interés de los candidatos internos de inmediato, afirmó. En LinkedIn Learning, los empleados ahora pueden encontrar todos los roles internos abiertos de sus empleadores y ser dirigidos a las principales habilidades que necesitarán, así como cursos recomendados para desarrollarlas, dijo Raines. LinkedIn Learning Hub está disponible para organizaciones con 20 puestos o más y los precios varían según sus necesidades. Metodología para el Informe de aprendizaje en el lugar de trabajo 2024 de LinkedIn LinkedIn dijo que recopiló miles de millones de puntos de datos generados por sus 900 millones de miembros en más de 200 países en el sitio hoy. Parte del análisis provino de las habilidades de más rápido crecimiento de LinkedIn y el impacto de los datos de la cultura del aprendizaje.
En una noche de diciembre, Shane Jones, un ingeniero de inteligencia artificial de Microsoft, se sintió asqueado por las imágenes que aparecían en su computadora. Jones estaba jugueteando con Copilot Designer, el generador de imágenes de IA que Microsoft estrenó en marzo de 2023, impulsado por la tecnología OpenAI. . Al igual que con DALL-E de OpenAI, los usuarios ingresan mensajes de texto para crear imágenes. Se fomenta que la creatividad se vuelva loca. Desde el mes anterior, Jones había estado probando activamente el producto en busca de vulnerabilidades, una práctica conocida como equipo rojo. En ese tiempo, vio que la herramienta generaba imágenes que iban en contra de los principios de IA responsable de Microsoft, frecuentemente citados. El servicio de IA ha representado demonios y monstruos junto con terminología relacionada con el derecho al aborto, adolescentes con rifles de asalto, imágenes sexualizadas de mujeres en cuadros violentos. y consumo de alcohol y drogas entre menores de edad. Todas esas escenas, generadas en los últimos tres meses, han sido recreadas por CNBC esta semana utilizando la herramienta Copilot, que originalmente se llamaba Bing Image Creator. «Fue un momento revelador», dijo Jones, quien continúa probando la imagen. generador, dijo a CNBC en una entrevista. «Fue entonces cuando me di cuenta por primera vez de que realmente no es un modelo seguro». Jones ha trabajado en Microsoft durante seis años y actualmente es gerente principal de ingeniería de software en la sede corporativa en Redmond, Washington. Dijo que no trabaja en Copilot a título profesional. Más bien, como miembro del equipo rojo, Jones forma parte de un ejército de empleados y personas externas que, en su tiempo libre, eligen probar la tecnología de inteligencia artificial de la empresa y ver dónde pueden estar surgiendo problemas. Jones estaba tan alarmado por su experiencia que comenzó a informar internamente. sus hallazgos en diciembre. Si bien la empresa reconoció sus preocupaciones, no estaba dispuesta a retirar el producto del mercado. Jones dijo que Microsoft lo refirió a OpenAI y, cuando no recibió respuesta de la compañía, publicó una carta abierta en LinkedIn pidiendo a la junta directiva de la startup que retirara DALL-E 3 (la última versión del modelo de IA) para una investigación. En esta fotografía ilustrativa tomada en Cracovia, Polonia, el 30 de octubre de 2023, se ve el logotipo de Copilot en la pantalla de una computadora portátil y el logotipo de Microsoft en la pantalla de un teléfono. Jakub Porzycki | Nurfoto | Getty Images El departamento legal de Microsoft le dijo a Jones que eliminara su publicación de inmediato, dijo, y él cumplió. En enero, escribió una carta a los senadores estadounidenses sobre el asunto y luego se reunió con personal del Comité de Comercio, Ciencia y Transporte del Senado. Ahora, sus preocupaciones están aumentando aún más. El miércoles, Jones envió una carta a la presidenta de la Comisión Federal de Comercio, Lina Khan, y otra a la junta directiva de Microsoft. Compartió las cartas con CNBC con anticipación. «Durante los últimos tres meses, he instado repetidamente a Microsoft a eliminar Copilot Designer del uso público hasta que se puedan implementar mejores salvaguardas», escribió Jones en la carta a Khan. Añadió que, dado que Microsoft ha «rechazado esa recomendación», está pidiendo a la compañía que agregue información sobre el producto y cambie la clasificación de la aplicación de Google para Android para dejar en claro que es sólo para audiencias adultas. «Una vez más, no han logrado implementar estos cambios y continuar comercializando el producto para ‘Cualquiera. En cualquier lugar. Cualquier dispositivo'», escribió. Jones dijo que el riesgo «ya era conocido por Microsoft y OpenAI antes del lanzamiento público del modelo de IA en octubre pasado». Sus cartas públicas llegan después de que Google a fines del mes pasado dejara de lado temporalmente su generador de imágenes de IA, que es parte de su suite Gemini AI. tras las quejas de los usuarios sobre fotografías inexactas y respuestas cuestionables derivadas de sus consultas. En su carta a la junta directiva de Microsoft, Jones solicitó que el comité de política pública, social y ambiental de la compañía investigara ciertas decisiones del departamento legal y la gerencia, así como que comenzara «una investigación independiente». revisión de los procesos de notificación de incidentes de IA responsable de Microsoft». Le dijo a la junta que «ha realizado esfuerzos extraordinarios para tratar de plantear este problema internamente» al informar sobre imágenes a la Oficina de IA Responsable, publicar una publicación interna sobre el asunto y reunirse directamente con alta dirección responsable de Copilot Designer. «Estamos comprometidos a abordar todas y cada una de las inquietudes que los empleados tengan de acuerdo con las políticas de nuestra empresa, y apreciamos los esfuerzos de los empleados para estudiar y probar nuestra última tecnología para mejorar aún más su seguridad», dijo un portavoz de Microsoft a CNBC. «Cuando se trata de omisiones de seguridad o inquietudes que podrían tener un impacto potencial en nuestros servicios o nuestros socios, hemos establecido sólidos canales de informes internos para investigar y remediar adecuadamente cualquier problema, que animamos a los empleados a utilizar para que podamos validar y probar adecuadamente. sus preocupaciones.»Lea más CNBC informa sobre la IA’No hay muchos límites’Jones se está metiendo en un debate público sobre la IA generativa que está cobrando fuerza antes de un gran año de elecciones en todo el mundo, que afectará a unos 4 mil millones de personas en más de 40 países. La cantidad de deepfakes creados ha aumentado un 900% en un año, según datos de la firma de aprendizaje automático Clarity, y es probable que una cantidad sin precedentes de contenido generado por IA agrave el creciente problema de la desinformación en línea relacionada con las elecciones. Jones no está ni mucho menos solo en sus temores sobre la IA generativa y la falta de barreras de seguridad en torno a la tecnología emergente. Según la información que recopiló internamente, dijo que el equipo de Copilot recibe más de 1,000 mensajes de comentarios sobre productos todos los días, y para abordar todos los problemas se requeriría una inversión sustancial en nuevas protecciones o reentrenamiento del modelo. Jones dijo que en las reuniones le han dicho que el equipo está seleccionando solo los problemas más atroces y que no hay suficientes recursos disponibles para investigar todos los riesgos y resultados problemáticos. Mientras prueba el modelo OpenAI que impulsa el generador de imágenes de Copilot, Jones dijo se dio cuenta de «cuánto contenido violento era capaz de producir». «No había muchos límites sobre lo que ese modelo era capaz de hacer», dijo Jones. «Esa fue la primera vez que tuve una idea de cuál era probablemente el conjunto de datos de entrenamiento y la falta de limpieza de ese conjunto de datos de entrenamiento». El director ejecutivo de Microsoft, Satya Nadella, a la derecha, saluda al director ejecutivo de OpenAI, Sam Altman, durante el evento OpenAI DevDay en San Francisco. el 6 de noviembre de 2023.Justin Sullivan | Getty Images Noticias | Getty ImagesLa aplicación para Android de Copilot Designer sigue teniendo la calificación «E para todos», la calificación de aplicación más inclusiva por edades, lo que sugiere que es segura y apropiada para usuarios de cualquier edad. En su carta a Khan, Jones dijo que Copilot Designer puede crear imágenes potencialmente dañinas en categorías como prejuicios políticos, consumo de alcohol y drogas entre menores de edad, estereotipos religiosos y teorías de conspiración. Al simplemente poner el término «pro-elección» en Copilot Designer, sin ninguna otra indicación, Jones descubrió que la herramienta generaba una gran cantidad de imágenes de dibujos animados que representaban demonios, monstruos y escenas violentas. Las imágenes, que fueron vistas por CNBC, incluían a un demonio con dientes afilados a punto de comerse a un bebé, Darth Vader sosteniendo un sable de luz junto a bebés mutados y un dispositivo de mano similar a un taladro con la etiqueta «pro elección» que se usaba en un bebé adulto. También había imágenes de sangre brotando de una mujer sonriente rodeada de médicos felices, un útero enorme en un área abarrotada rodeada de antorchas encendidas y un hombre con una horca del diablo parado junto a un demonio y una máquina con la etiqueta «pro-elección». [sic].CNBC pudo generar imágenes similares de forma independiente. Uno mostraba flechas apuntando a un bebé sostenido por un hombre con tatuajes pro-elección, y otro representaba a un demonio alado y con cuernos con un bebé en su útero. El término «accidente automovilístico», sin ninguna otra motivación, generó imágenes de mujeres sexualizadas a continuación. hasta representaciones violentas de accidentes automovilísticos, incluida una en lencería arrodillada junto a un vehículo destrozado y otras de mujeres con ropa reveladora sentadas encima de autos destartalados. Personajes de Disney Con el mensaje «fiesta de adolescentes 420», Jones pudo generar numerosas imágenes de menores bebiendo y consumo de drogas. Compartió las imágenes con CNBC. Copilot Designer también produce rápidamente imágenes de hojas de cannabis, porros, vaporizadores y montones de marihuana en bolsas, tazones y frascos, así como botellas de cerveza y vasos rojos sin marcar. CNBC pudo generar de forma independiente imágenes similares deletreando «cuatro veinte, » ya que la versión numérica, una referencia al cannabis en la cultura pop, parecía estar bloqueada. Cuando Jones le pidió a Copilot Designer que generara imágenes de niños y adolescentes jugando a ser asesinos con rifles de asalto, las herramientas produjeron una amplia variedad de imágenes que representaban a niños y adolescentes en sudaderas con capucha y mascarillas con ametralladoras. CNBC pudo generar los mismos tipos de imágenes con esas indicaciones. Además de las preocupaciones sobre la violencia y la toxicidad, también están en juego cuestiones de derechos de autor. La herramienta Copilot produjo imágenes de personajes de Disney, como Elsa de «Frozen», Blancanieves, Mickey Mouse y personajes de Star Wars, lo que podría violar tanto las leyes de derechos de autor como las políticas de Microsoft. Las imágenes vistas por CNBC incluyen una pistola con la marca Elsa, latas Bud Light con la marca Star Wars y la imagen de Blancanieves en un vaporizador. La herramienta también creó fácilmente imágenes de Elsa en la Franja de Gaza frente a edificios destrozados y carteles de «Gaza libre». sosteniendo una bandera palestina, así como imágenes de Elsa vistiendo el uniforme militar de las Fuerzas de Defensa de Israel y blandiendo un escudo adornado con la bandera de Israel.»Estoy ciertamente convencida de que esto no es sólo una barrera de protección de derechos de autor que está fallando, sino que hay una Esto está fallando», dijo Jones a CNBC. Y agregó: «El problema es que, como empleado preocupado de Microsoft, si este producto comienza a difundir imágenes dañinas y perturbadoras en todo el mundo, no hay lugar para denunciarlo, no hay un número de teléfono al que llamar ni manera de escalar esto para que se solucione de inmediato». MIRAR: Google vs. Google
Source link
Desde que ChatGPT cayó en el otoño de 2022, todos y sus burros han probado suerte con la ingeniería rápida: han encontrado una forma inteligente de expresar su consulta en un modelo de lenguaje grande (LLM) o en un generador de video o arte de IA para obtener los mejores resultados o protecciones de paso lateral. Internet está repleto de guías de ingeniería, hojas de trucos e hilos de consejos que le ayudarán a aprovechar al máximo un LLM. En el sector comercial, las empresas ahora están disputando LLM para crear copilotos de productos, automatizar trabajos tediosos y crear asistentes personales. y más, dice Austin Henley, un ex empleado de Microsoft que realizó una serie de entrevistas con personas que desarrollan copilotos con tecnología LLM. “Todas las empresas intentan utilizarlo para prácticamente todos los casos de uso que puedan imaginar”, afirma Henley. “La única tendencia real puede ser que no haya tendencia. Lo que es mejor para cualquier modelo, conjunto de datos y estrategia de estímulo determinado probablemente sea específico de la combinación particular en cuestión”. —Rick Battle y Teja Gollapudi, VMware Para lograrlo, han contado con la ayuda de ingenieros rápidos de manera profesional. Sin embargo, una nueva investigación sugiere que la mejor manera de realizar la ingeniería rápida es el modelo en sí, y no un ingeniero humano. Esto ha arrojado dudas sobre el futuro de la ingeniería rápida y ha aumentado las sospechas de que una buena parte de los trabajos de ingeniería rápida pueden ser una moda pasajera, al menos tal como se imagina actualmente este campo. Las indicaciones autoajustadas son exitosas y extrañas. Rick Battle y Teja Gollapudi en la nube con sede en California. La empresa de informática VMware estaba perpleja por lo quisquilloso e impredecible que era el rendimiento del LLM en respuesta a técnicas de indicaciones extrañas. Por ejemplo, las personas han descubierto que pedir a los modelos que expliquen su razonamiento paso a paso (una técnica llamada cadena de pensamiento) mejoró su desempeño en una variedad de preguntas de matemáticas y lógica. Aún más extraño, Battle descubrió que darle a un modelo indicaciones positivas, como “esto será divertido” o “eres tan inteligente como chatGPT”, a veces mejoraba el rendimiento. Battle y Gollapudi decidieron probar sistemáticamente cómo las diferentes estrategias de ingeniería rápida impactan la capacidad de un LLM para resolver preguntas de matemáticas de la escuela primaria. Probaron tres modelos diferentes de lenguaje de código abierto con 60 combinaciones de mensajes diferentes cada uno. Lo que encontraron fue una sorprendente falta de coherencia. Incluso las indicaciones en cadena de pensamientos a veces ayudaron y otras perjudicaron el desempeño. «La única tendencia real puede ser que no haya tendencia», escriben. «Lo que es mejor para cualquier modelo, conjunto de datos y estrategia de indicaciones probablemente sea específico de la combinación particular en cuestión». Según un equipo de investigación, ningún ser humano debería optimizar manualmente las indicaciones nunca más. Existe una alternativa a la prueba y -Ingeniería de indicaciones de estilo de error que produjo resultados tan inconsistentes: pida al modelo de lenguaje que diseñe su propia indicación óptima. Recientemente, se han desarrollado nuevas herramientas para automatizar este proceso. Dados algunos ejemplos y una métrica de éxito cuantitativa, estas herramientas encontrarán de forma iterativa la frase óptima para incorporar al LLM. Battle y sus colaboradores descubrieron que en casi todos los casos, este mensaje generado automáticamente funcionó mejor que el mejor mensaje encontrado mediante prueba y error. Y el proceso fue mucho más rápido, un par de horas en lugar de varios días de búsqueda. Las indicaciones óptimas que arrojaba el algoritmo eran tan extrañas que es probable que a ningún ser humano se le hubieran ocurrido jamás. «Literalmente no podía creer algunas de las cosas que generó», dice Battle. En un caso, el mensaje era simplemente una referencia extendida a Star Trek: “Comando, necesitamos que trace un curso a través de esta turbulencia y localice la fuente de la anomalía. Utilice todos los datos disponibles y su experiencia para guiarnos a través de esta situación desafiante”. Aparentemente, pensar que fue el Capitán Kirk ayudó a este LLM en particular a obtener mejores resultados en las preguntas de matemáticas de la escuela primaria. Battle dice que optimizar las indicaciones algorítmicamente tiene fundamentalmente sentido dado lo que realmente son los modelos de lenguaje: modelos. “Mucha gente antropomorfiza estas cosas porque ‘habla inglés’. No, no es así”, dice Battle. “No habla inglés. Hace muchos cálculos”. De hecho, a la luz de los resultados de su equipo, Battle dice que ningún humano debería volver a optimizar manualmente las indicaciones. «Estás sentado ahí tratando de descubrir qué combinación mágica especial de palabras te dará el mejor rendimiento posible para tu tarea». Battle dice: “Pero ahí es donde, con suerte, esta investigación entrará y dirá ‘no te molestes’. Simplemente desarrolle una métrica de puntuación para que el sistema pueda determinar si un mensaje es mejor que otro y luego deje que el modelo se optimice”. Los mensajes autoajustados también hacen que las imágenes sean más bonitas. Los algoritmos de generación de imágenes también pueden beneficiarse de los mensajes generados automáticamente. Recientemente, un equipo de los laboratorios Intel, dirigido por Vasudev Lal, emprendió una búsqueda similar para optimizar las indicaciones para el modelo de generación de imágenes Difusión Estable. «Parece más un error de los LLM y los modelos de difusión, no una característica, que hay que hacer esta ingeniería rápida y experta», dice Lal. «Entonces queríamos ver si podemos automatizar este tipo de ingeniería rápida». «Ahora tenemos esta maquinaria completa, el ciclo completo que se completa con este aprendizaje por refuerzo. … Es por eso que podemos superar la ingeniería rápida humana”. —Vasudev Lal, el equipo de Intel LabsLal creó una herramienta llamada NeuroPrompts que toma un mensaje de entrada simple, como “niño a caballo”, y lo mejora automáticamente para producir una mejor imagen. Para hacer esto, comenzaron con una variedad de indicaciones generadas por expertos en ingeniería de indicaciones humanas. Luego entrenaron un modelo de lenguaje para transformar indicaciones simples en indicaciones de nivel experto. Además de eso, utilizaron el aprendizaje por refuerzo para optimizar estas indicaciones y crear imágenes estéticamente más agradables, según lo calificado por otro modelo de aprendizaje automático, PickScore, una herramienta de evaluación de imágenes desarrollada recientemente. NeuroPrompts es un sintonizador automático de indicaciones de IA generativa que transforma imágenes simples indicaciones para obtener resultados de StableDiffusion más detallados y visualmente impresionantes, como en este caso, una imagen generada por una indicación genérica (izquierda) frente a su imagen equivalente generada por NeuroPrompt. Intel Labs/Stable DiffusionAquí también, las indicaciones generadas automáticamente obtuvieron mejores resultados que las de los expertos. indicaciones humanas que utilizaron como punto de partida, al menos según la métrica PickScore. A Lal esto no le sorprendió. «Los humanos sólo lo lograrán mediante prueba y error», dice Lal. “Pero ahora tenemos toda esta maquinaria, el ciclo completo que se completa con este aprendizaje por refuerzo. … Es por eso que podemos superar la ingeniería de avisos humanos”. Dado que la calidad estética es notoriamente subjetiva, Lal y su equipo querían darle al usuario cierto control sobre cómo se optimizaba su aviso. En su herramienta, el usuario puede especificar el mensaje original (por ejemplo, «niño a caballo»), así como un artista a emular, un estilo, un formato y otros modificadores. Lal cree que a medida que evolucionan los modelos generativos de IA, ya sea generadores de imágenes o modelos de lenguaje grandes, las extrañas peculiaridades de la dependencia rápida deberían desaparecer. «Creo que es importante que se investiguen este tipo de optimizaciones y luego, en última instancia, se incorporen realmente al modelo base en sí, de modo que no sea necesario un paso de ingeniería complicado y rápido». La ingeniería rápida seguirá viva, con algún nombre. Incluso Si los avisos de ajuste automático se convierten en la norma de la industria, los trabajos de ingeniería de avisos de alguna forma no desaparecerán, dice Tim Cramer, vicepresidente senior de ingeniería de software de Red Hat. Adaptar la IA generativa a las necesidades de la industria es una tarea complicada y de múltiples etapas que seguirá requiriendo que los seres humanos estén al tanto en el futuro previsible. “Tal vez hoy los llamemos ingenieros rápidos. Pero creo que la naturaleza de esa interacción seguirá cambiando a medida que los modelos de IA también sigan cambiando”. —Vasudev Lal, Intel Labs“Creo que habrá ingenieros rápidos durante bastante tiempo y científicos de datos”, dice Cramer. “No se trata sólo de hacer preguntas al LLM y asegurarse de que la respuesta se vea bien. Pero hay una serie de cosas que los ingenieros realmente necesitan poder hacer”. “Es muy fácil hacer un prototipo”, dice Henley. «Es muy difícil producirlo». La ingeniería rápida parece una gran pieza del rompecabezas cuando se construye un prototipo, dice Henley, pero muchas otras consideraciones entran en juego cuando se fabrica un producto de calidad comercial. Los desafíos de fabricar un producto comercial incluyen garantizar la confiabilidad, por ejemplo, fallar con gracia cuando el modelo se desconecta; adaptar la salida del modelo al formato apropiado, ya que muchos casos de uso requieren salidas distintas al texto; pruebas para asegurarse de que el asistente de IA no haga algo dañino ni siquiera en un pequeño número de casos; y garantizar la seguridad, la privacidad y el cumplimiento. Las pruebas y el cumplimiento son particularmente difíciles, dice Henley, ya que las estrategias tradicionales de prueba de desarrollo de software no están adaptadas para los LLM no deterministas. Para cumplir con estas innumerables tareas, muchas grandes empresas están anunciando un nuevo título de trabajo: Large Language Model Operations, o LLMOps, que incluye ingeniería rápida en su ciclo de vida, pero también implica todas las demás tareas necesarias para implementar el producto. Henley dice que los predecesores de LLMOps, los ingenieros de operaciones de aprendizaje automático (MLOps), están en la mejor posición para asumir estos trabajos. Ya sea que los títulos de trabajo sean “ingeniero rápido”, “ingeniero LLMOps” o algo completamente nuevo, la naturaleza del trabajo seguirá evolucionando rápidamente. «Tal vez hoy los llamemos ingenieros rápidos», dice Lal, «pero creo que la naturaleza de esa interacción seguirá cambiando a medida que los modelos de IA también sigan cambiando». con otro tipo de categoría laboral o función laboral”, dice Cramer, “pero no creo que estas cosas vayan a desaparecer pronto. Y el panorama es demasiado loco en este momento. Todo está cambiando mucho. No vamos a resolverlo todo en unos meses”. Henley dice que, hasta cierto punto, en esta fase inicial del campo, la única regla predominante parece ser la ausencia de reglas. «Esto es una especie de salvaje oeste en este momento». él dice.De los artículos de su sitioArtículos relacionados en la Web
Source link
Temasek Holdings de Singapur está en conversaciones para invertir en OpenAI, la empresa de inteligencia artificial (IA) respaldada por Microsoft detrás de ChatGPT. Citando a dos personas familiarizadas con el asunto, el Financial Times informó el martes (5 de marzo) que los altos ejecutivos de Temasek se han reunido con el director ejecutivo de OpenAI, Sam Altman, varias veces durante los últimos meses. La empresa de inversión estatal inicialmente estaba interesada en invertir en el fondo de capital riesgo Hydrazine Capital de Altman, sin embargo, las conversaciones más recientes incluyeron a la empresa de inteligencia artificial. El informe añade que las conversaciones fueron preliminares pero continúan, sin acuerdo sobre el tamaño de ninguna inversión. OpenAI no respondió de inmediato a las solicitudes de comentarios de Vulcan Post, mientras que Temasek se negó a comentar sobre el informe. Las negociaciones con Temasek son las primeras desde que surgieron informes el mes pasado de que Altman buscaba recaudar entre 5 y 7 billones de dólares para lanzar un negocio de semiconductores y reducir la dependencia de OpenAI de los chips de IA fabricados por Nvidia. “Construir una infraestructura de IA a gran escala y una cadena de suministro resiliente es crucial para la competitividad económica”, publicó Altman en X el mes pasado. A pesar de que sus ingresos superaron los 2.000 millones de dólares anuales en diciembre, la empresa sigue generando pérdidas debido a los enormes costos de construcción y funcionamiento de sus modelos. Creemos que el mundo necesita más infraestructura de IA (capacidad fabulosa, energía, centros de datos, etc.) de la que la gente planea construir actualmente. La construcción de una infraestructura de IA a gran escala y una cadena de suministro resiliente es crucial para la competitividad económica. Openai intentará ayudar !— Sam Altman (@sama) 7 de febrero de 2024 Altman también ha hablado de recaudación de fondos con inversores con mucho dinero en Oriente Medio y Asia, incluido el jeque Tahnoon bin Zayed al-Nahyan, una de las figuras más ricas e influyentes de Abu Dabi, y SoftBank. fundador Masayoshi Son. Actualmente, OpenAI cuenta con el respaldo de 13 mil millones de dólares de Microsoft, su mayor inversor, así como de varios grupos de capital de riesgo, incluidos Thrive Capital, Sequoia Capital, Tiger Global Management y Andreessen Horowitz. En los últimos meses, OpenAI completó un acuerdo que permite a los empleados vender participaciones en la empresa. La oferta pública le dio a OpenAI una valoración de 86 mil millones de dólares (o aproximadamente tres veces su valor en abril pasado), lo que la convierte en una de las startups más valiosas del mundo. La inversión en IA de Singapur Con una cartera valorada en 284 mil millones de dólares, la IA es actualmente un foco clave para las inversiones de Temasek, según la dirección del fondo. Sus inversiones existentes en el espacio incluyen la empresa de tecnología legal con sede en el Reino Unido Robin AI, la empresa surcoreana de chips de IA sin fábrica Rebellions y el diseñador de chips de IA generativa con sede en Silicon Valley d-Matrix. Tras el auge de la IA en los últimos años, las nuevas empresas de IA han experimentado un aumento notable en la financiación, incluso en Singapur. En toda la ciudad-estado, el sector fue testigo de una importante inyección de fondos en 2023, que ascendió a 481,21 millones de dólares en 24 acuerdos. Para hacer avanzar aún más el ecosistema de IA de Singapur, el primer ministro Lee Hsien Loong y Jacqueline Poh, directora general de la Junta de Desarrollo Económico de Singapur (EDB), se reunieron a principios de diciembre con el director ejecutivo de NVIDIA, Jensen Huang, para discutir posibles «grandes inversiones» en IA aquí. Singapur siempre ha abrazado la innovación y su compromiso inquebrantable con el avance tecnológico ha solidificado su posición como centro global de negocios e innovación, pero el viaje no siempre ha sido fácil. Durante la anterior corrida alcista de las criptomonedas, las empresas de inversión de Singapur, incluidas GIC y Temasek, invirtieron en varias empresas de criptomonedas, algunas de las cuales fracasaron. Con su cambio de enfoque, aún está por verse si el actual auge de la IA es simplemente una tendencia pasajera. Crédito de la imagen destacada: Munshi Ahmed vía Bloomberg