Todo lo que necesitas saber sobre tecnología

Etiqueta: IA generativa Página 3 de 8

La ingeniería de avisos de IA está muerta


Desde que ChatGPT cayó en el otoño de 2022, todos y sus burros han probado suerte con la ingeniería rápida: han encontrado una forma inteligente de expresar su consulta en un modelo de lenguaje grande (LLM) o en un generador de video o arte de IA para obtener los mejores resultados o protecciones de paso lateral. Internet está repleto de guías de ingeniería, hojas de trucos e hilos de consejos que le ayudarán a aprovechar al máximo un LLM. En el sector comercial, las empresas ahora están disputando LLM para crear copilotos de productos, automatizar trabajos tediosos y crear asistentes personales. y más, dice Austin Henley, un ex empleado de Microsoft que realizó una serie de entrevistas con personas que desarrollan copilotos con tecnología LLM. “Todas las empresas intentan utilizarlo para prácticamente todos los casos de uso que puedan imaginar”, afirma Henley. “La única tendencia real puede ser que no haya tendencia. Lo que es mejor para cualquier modelo, conjunto de datos y estrategia de estímulo determinado probablemente sea específico de la combinación particular en cuestión”. —Rick Battle y Teja Gollapudi, VMware Para lograrlo, han contado con la ayuda de ingenieros rápidos de manera profesional. Sin embargo, una nueva investigación sugiere que la mejor manera de realizar la ingeniería rápida es el modelo en sí, y no un ingeniero humano. Esto ha arrojado dudas sobre el futuro de la ingeniería rápida y ha aumentado las sospechas de que una buena parte de los trabajos de ingeniería rápida pueden ser una moda pasajera, al menos tal como se imagina actualmente este campo. Las indicaciones autoajustadas son exitosas y extrañas. Rick Battle y Teja Gollapudi en la nube con sede en California. La empresa de informática VMware estaba perpleja por lo quisquilloso e impredecible que era el rendimiento del LLM en respuesta a técnicas de indicaciones extrañas. Por ejemplo, las personas han descubierto que pedir a los modelos que expliquen su razonamiento paso a paso (una técnica llamada cadena de pensamiento) mejoró su desempeño en una variedad de preguntas de matemáticas y lógica. Aún más extraño, Battle descubrió que darle a un modelo indicaciones positivas, como “esto será divertido” o “eres tan inteligente como chatGPT”, a veces mejoraba el rendimiento. Battle y Gollapudi decidieron probar sistemáticamente cómo las diferentes estrategias de ingeniería rápida impactan la capacidad de un LLM para resolver preguntas de matemáticas de la escuela primaria. Probaron tres modelos diferentes de lenguaje de código abierto con 60 combinaciones de mensajes diferentes cada uno. Lo que encontraron fue una sorprendente falta de coherencia. Incluso las indicaciones en cadena de pensamientos a veces ayudaron y otras perjudicaron el desempeño. «La única tendencia real puede ser que no haya tendencia», escriben. «Lo que es mejor para cualquier modelo, conjunto de datos y estrategia de indicaciones probablemente sea específico de la combinación particular en cuestión». Según un equipo de investigación, ningún ser humano debería optimizar manualmente las indicaciones nunca más. Existe una alternativa a la prueba y -Ingeniería de indicaciones de estilo de error que produjo resultados tan inconsistentes: pida al modelo de lenguaje que diseñe su propia indicación óptima. Recientemente, se han desarrollado nuevas herramientas para automatizar este proceso. Dados algunos ejemplos y una métrica de éxito cuantitativa, estas herramientas encontrarán de forma iterativa la frase óptima para incorporar al LLM. Battle y sus colaboradores descubrieron que en casi todos los casos, este mensaje generado automáticamente funcionó mejor que el mejor mensaje encontrado mediante prueba y error. Y el proceso fue mucho más rápido, un par de horas en lugar de varios días de búsqueda. Las indicaciones óptimas que arrojaba el algoritmo eran tan extrañas que es probable que a ningún ser humano se le hubieran ocurrido jamás. «Literalmente no podía creer algunas de las cosas que generó», dice Battle. En un caso, el mensaje era simplemente una referencia extendida a Star Trek: “Comando, necesitamos que trace un curso a través de esta turbulencia y localice la fuente de la anomalía. Utilice todos los datos disponibles y su experiencia para guiarnos a través de esta situación desafiante”. Aparentemente, pensar que fue el Capitán Kirk ayudó a este LLM en particular a obtener mejores resultados en las preguntas de matemáticas de la escuela primaria. Battle dice que optimizar las indicaciones algorítmicamente tiene fundamentalmente sentido dado lo que realmente son los modelos de lenguaje: modelos. “Mucha gente antropomorfiza estas cosas porque ‘habla inglés’. No, no es así”, dice Battle. “No habla inglés. Hace muchos cálculos”. De hecho, a la luz de los resultados de su equipo, Battle dice que ningún humano debería volver a optimizar manualmente las indicaciones. «Estás sentado ahí tratando de descubrir qué combinación mágica especial de palabras te dará el mejor rendimiento posible para tu tarea». Battle dice: “Pero ahí es donde, con suerte, esta investigación entrará y dirá ‘no te molestes’. Simplemente desarrolle una métrica de puntuación para que el sistema pueda determinar si un mensaje es mejor que otro y luego deje que el modelo se optimice”. Los mensajes autoajustados también hacen que las imágenes sean más bonitas. Los algoritmos de generación de imágenes también pueden beneficiarse de los mensajes generados automáticamente. Recientemente, un equipo de los laboratorios Intel, dirigido por Vasudev Lal, emprendió una búsqueda similar para optimizar las indicaciones para el modelo de generación de imágenes Difusión Estable. «Parece más un error de los LLM y los modelos de difusión, no una característica, que hay que hacer esta ingeniería rápida y experta», dice Lal. «Entonces queríamos ver si podemos automatizar este tipo de ingeniería rápida». «Ahora tenemos esta maquinaria completa, el ciclo completo que se completa con este aprendizaje por refuerzo. … Es por eso que podemos superar la ingeniería rápida humana”. —Vasudev Lal, el equipo de Intel LabsLal creó una herramienta llamada NeuroPrompts que toma un mensaje de entrada simple, como “niño a caballo”, y lo mejora automáticamente para producir una mejor imagen. Para hacer esto, comenzaron con una variedad de indicaciones generadas por expertos en ingeniería de indicaciones humanas. Luego entrenaron un modelo de lenguaje para transformar indicaciones simples en indicaciones de nivel experto. Además de eso, utilizaron el aprendizaje por refuerzo para optimizar estas indicaciones y crear imágenes estéticamente más agradables, según lo calificado por otro modelo de aprendizaje automático, PickScore, una herramienta de evaluación de imágenes desarrollada recientemente. NeuroPrompts es un sintonizador automático de indicaciones de IA generativa que transforma imágenes simples indicaciones para obtener resultados de StableDiffusion más detallados y visualmente impresionantes, como en este caso, una imagen generada por una indicación genérica (izquierda) frente a su imagen equivalente generada por NeuroPrompt. Intel Labs/Stable DiffusionAquí también, las indicaciones generadas automáticamente obtuvieron mejores resultados que las de los expertos. indicaciones humanas que utilizaron como punto de partida, al menos según la métrica PickScore. A Lal esto no le sorprendió. «Los humanos sólo lo lograrán mediante prueba y error», dice Lal. “Pero ahora tenemos toda esta maquinaria, el ciclo completo que se completa con este aprendizaje por refuerzo. … Es por eso que podemos superar la ingeniería de avisos humanos”. Dado que la calidad estética es notoriamente subjetiva, Lal y su equipo querían darle al usuario cierto control sobre cómo se optimizaba su aviso. En su herramienta, el usuario puede especificar el mensaje original (por ejemplo, «niño a caballo»), así como un artista a emular, un estilo, un formato y otros modificadores. Lal cree que a medida que evolucionan los modelos generativos de IA, ya sea generadores de imágenes o modelos de lenguaje grandes, las extrañas peculiaridades de la dependencia rápida deberían desaparecer. «Creo que es importante que se investiguen este tipo de optimizaciones y luego, en última instancia, se incorporen realmente al modelo base en sí, de modo que no sea necesario un paso de ingeniería complicado y rápido». La ingeniería rápida seguirá viva, con algún nombre. Incluso Si los avisos de ajuste automático se convierten en la norma de la industria, los trabajos de ingeniería de avisos de alguna forma no desaparecerán, dice Tim Cramer, vicepresidente senior de ingeniería de software de Red Hat. Adaptar la IA generativa a las necesidades de la industria es una tarea complicada y de múltiples etapas que seguirá requiriendo que los seres humanos estén al tanto en el futuro previsible. “Tal vez hoy los llamemos ingenieros rápidos. Pero creo que la naturaleza de esa interacción seguirá cambiando a medida que los modelos de IA también sigan cambiando”. —Vasudev Lal, Intel Labs“Creo que habrá ingenieros rápidos durante bastante tiempo y científicos de datos”, dice Cramer. “No se trata sólo de hacer preguntas al LLM y asegurarse de que la respuesta se vea bien. Pero hay una serie de cosas que los ingenieros realmente necesitan poder hacer”. “Es muy fácil hacer un prototipo”, dice Henley. «Es muy difícil producirlo». La ingeniería rápida parece una gran pieza del rompecabezas cuando se construye un prototipo, dice Henley, pero muchas otras consideraciones entran en juego cuando se fabrica un producto de calidad comercial. Los desafíos de fabricar un producto comercial incluyen garantizar la confiabilidad, por ejemplo, fallar con gracia cuando el modelo se desconecta; adaptar la salida del modelo al formato apropiado, ya que muchos casos de uso requieren salidas distintas al texto; pruebas para asegurarse de que el asistente de IA no haga algo dañino ni siquiera en un pequeño número de casos; y garantizar la seguridad, la privacidad y el cumplimiento. Las pruebas y el cumplimiento son particularmente difíciles, dice Henley, ya que las estrategias tradicionales de prueba de desarrollo de software no están adaptadas para los LLM no deterministas. Para cumplir con estas innumerables tareas, muchas grandes empresas están anunciando un nuevo título de trabajo: Large Language Model Operations, o LLMOps, que incluye ingeniería rápida en su ciclo de vida, pero también implica todas las demás tareas necesarias para implementar el producto. Henley dice que los predecesores de LLMOps, los ingenieros de operaciones de aprendizaje automático (MLOps), están en la mejor posición para asumir estos trabajos. Ya sea que los títulos de trabajo sean “ingeniero rápido”, “ingeniero LLMOps” o algo completamente nuevo, la naturaleza del trabajo seguirá evolucionando rápidamente. «Tal vez hoy los llamemos ingenieros rápidos», dice Lal, «pero creo que la naturaleza de esa interacción seguirá cambiando a medida que los modelos de IA también sigan cambiando». con otro tipo de categoría laboral o función laboral”, dice Cramer, “pero no creo que estas cosas vayan a desaparecer pronto. Y el panorama es demasiado loco en este momento. Todo está cambiando mucho. No vamos a resolverlo todo en unos meses”. Henley dice que, hasta cierto punto, en esta fase inicial del campo, la única regla predominante parece ser la ausencia de reglas. «Esto es una especie de salvaje oeste en este momento». él dice.De los artículos de su sitioArtículos relacionados en la Web

Source link

Informatica afirma que la fragmentación de datos se interpone en el camino de la IA generativa de APAC

Los jefes de datos de la región de Asia y el Pacífico están buscando seriamente el despliegue de la inteligencia artificial, según una encuesta internacional de Informatica entre 600 líderes de datos globales. India está a la cabeza en la región: el 75% de los encuestados ya ha adoptado la IA generativa. Sin embargo, los encuestados de APAC enfrentan obstáculos en torno a la gestión de datos para la IA. Estos incluyen la fragmentación de datos en medio de una cantidad cada vez mayor de fuentes de datos, la calidad de los datos disponibles para la IA y la incorporación de una gobernanza de datos que sea lo suficientemente sólida para el desafío de la IA. Richard Scott, vicepresidente senior de Asia-Pacífico y Japón de Informatica, dijo que la alfabetización en datos es importante para respaldar la gestión de datos organizacionales. Scott recomendó implementar una arquitectura de datos en la nube desde el principio y centrarse en las personas, los procesos y la tecnología. La IA está impulsando un enfoque paralelo en la gestión de datos. Los líderes de datos de APAC dijeron que la capacidad de ofrecer datos confiables y consistentes aptos para la IA generativa (40%) era la principal prioridad de la estrategia de datos para 2024, junto con la mejora de la gobernanza y los procesos de datos (40%). Esto indica que la IA está impulsando un enfoque mutuo en la gestión de datos. VER: Los 10 principales beneficios de una mejor calidad de datos para su organización. La íntima conexión entre la IA y los datos también se reflejó en las intenciones de inversión. Tres de cada cuatro (78%) jefes de datos de APAC predijeron que sus inversiones en datos aumentarían en 2024. Ninguno de los encuestados no planeaba invertir en capacidades de gestión de datos de alguna forma. La inversión regional en capacidades de datos clave está aumentando. Varias capacidades de gestión de datos están recibiendo inversiones en línea con las prioridades de la estrategia de datos. La privacidad y protección de datos ocupó el primer lugar (45%), lo que refleja la necesidad de mantener los datos privados y seguros en medio de un aumento en un entorno de ciberseguridad que cambia rápidamente. Le siguieron la calidad y observabilidad de los datos (42%) y la integración e ingeniería de datos (40%). «Estamos viendo un aumento en la calidad de los datos como área de enfoque y en la gobernanza de los datos», dijo Scott. «Así que la IA realmente impulsará una especie de nueva ola de limpieza de los conjuntos de datos». VER: Cómo ve Matthew Candy de IBM la búsqueda de Australia de una escala de IA generativa en 2024. Más cobertura en Australia La IA está planteando muchos desafíos en la gestión de datos Según los resultados de la encuesta global de Informatica, que se obtuvieron de líderes de datos en organizaciones con más de 500 millones de dólares en ingresos, casi todos (99%) los líderes de datos habían encontrado obstáculos en su viaje hacia la IA. incluidos los de APAC. Fragmentación y crecimiento de datos Los líderes de datos de APAC esperan que la fragmentación y la complejidad de los datos empeoren en 2024. Informatica descubrió que el 56 % de los líderes de datos tenían dificultades para equilibrar más de 1000 fuentes de datos. Además, el 78% de los líderes de datos de APAC esperan que la cantidad de fuentes de datos aumente este año calendario. «Solo el año pasado, Informatica procesó alrededor de 86 billones de transacciones en la nube al mes, un 60% más que el año anterior», explicó Scott. “Entonces, mientras las organizaciones intentan poner en orden su centro de datos, los datos siguen explotando; Estamos viendo este crecimiento realmente explosivo”, afirmó. Calidad de los datos y sesgo del modelo de IA La calidad de los datos fue considerada el mayor desafío para la IA generativa por el 42% de los encuestados a nivel mundial. La posibilidad de sesgo se destacó como una preocupación particular en APAC debido a los grandes modelos lingüísticos; El 53% de los encuestados australianos dijeron que evitar los prejuicios era su mayor preocupación (Figura A). Figura A: La calidad de los datos es un desafío importante para los líderes de datos de todo el mundo en la carrera por la IA. Imagen: Informatica “En la era de la analítica, si se tuvieran bases de datos deficientes, se tomaría la decisión equivocada más rápidamente”, afirmó Scott. «Del mismo modo, si tienes un entorno de gestión de datos deficiente, obtendrás una respuesta de la IA generativa, pero puede llevarte en la dirección equivocada». La alfabetización en datos fuera del ámbito de los datos La alfabetización en datos organizacionales está frenando el avance de la IA, según los líderes de datos encuestados. Por ejemplo, el 98% de los líderes de datos globales dijeron que habían experimentado obstáculos organizacionales no técnicos para una mejor gestión de datos, como la falta de apoyo de liderazgo. Mejorar la cultura basada en datos y la alfabetización en datos fue nombrado por el 39% de los líderes de datos globales como una de las principales prioridades para 2024. Mejorar la alfabetización en datos fue la segunda medida más importante (42%) de la efectividad de la estrategia de datos, solo superada por la preparación de los datos para la IA. e iniciativas de análisis. “Nuestro director ejecutivo de Informatica habla mucho sobre el hecho de que, dado que las empresas subcontratan aplicaciones, edificios y tantos otros aspectos de un negocio, para muchas empresas su único activo son los datos. Por lo tanto, tiene que ser una prioridad realmente alta para el equipo ejecutivo y la junta directiva”, dijo Scott. Un crecimiento en las herramientas de gestión de datos El número de herramientas de gestión de datos está creciendo. Dos tercios (60%) de los líderes de APAC dicen que necesitarán cinco o más herramientas de gestión de datos para respaldar las prioridades y gestionar los conjuntos de datos, un aumento con respecto al número de jefes de datos que necesitaban esta cantidad de herramientas en 2023 (55%). Gobernanza y democratización de datos Mejorar la gobernanza de datos y procesos fue nombrado por el 40% de los líderes de datos regionales como una de las principales prioridades de la estrategia de datos para 2024. Los líderes de datos de APAC también pusieron el mayor énfasis (67%) en permitir una mayor democratización de los datos en toda su organización al utilizarlos. IA generativa. Esto está impulsando a los proveedores a ofrecer servicios y herramientas de gobernanza. Informatica lanzó recientemente una herramienta integrada de gestión de acceso a datos en la nube tras la adquisición de Privitar, que ayuda a respaldar la gestión, el intercambio y el uso de datos en jurisdicciones de todo el mundo. VER: La gobernanza de datos será un enfoque renovado en TI para las organizaciones australianas en 2024. Informatica también ofrece un mercado de datos de autoservicio diseñado para «democratizar» el acceso a los datos. Los usuarios pueden solicitar y acceder a datos según los permisos. Los datos se entregan con calificaciones de relevancia y calidad de los datos y se realiza un seguimiento para que los administradores de datos comprendan cómo se utilizan. Arquitectura fundamental para afrontar el desafío de los datos Richard Scott de Informatica aconsejó a los líderes de datos regionales implementar la arquitectura de nube adecuada para soportar la escala y centrarse en las personas y los procesos, así como en la tecnología. Comience con la arquitectura de nube adecuada Las organizaciones deben comenzar asegurándose de que su arquitectura de nube sea sólida, dijo Scott, ya que hacerlo bien desde el principio respaldará los esfuerzos futuros de escalamiento. «Cuando estás escalando y no tienes el tipo correcto de arquitectura de gestión de datos cuando te metes en verdaderos problemas», dijo Scott. Scott añadió que conseguir una arquitectura de nube desde el principio también es más barato. «Las empresas con múltiples contratos de nube pagan mucho dinero en costos de entrada y salida entre nubes», dijo Scott. «Una arquitectura de nube incorrecta no sólo da como resultado un entorno que tal vez no pueda soportar la IA generativa, sino que también es muy costosa». El cliente de Informatica, NRMA, una de las organizaciones con miembros más antiguas de Australia, está trabajando exitosamente con más de 3000 conjuntos de datos. Las organizaciones que se esfuerzan por lograr la arquitectura correcta pueden controlar los datos y tener un impacto material en su patrimonio de datos, dijo Scott. Observe a las personas, los procesos y la tecnología La naturaleza del desafío de los datos significa que las organizaciones deben considerar de manera más integral a las personas, los procesos y la tecnología. Scott dijo que para los líderes de datos en organizaciones que intentan solucionar los problemas a medida que surgen, puede parecer como «poner el dedo en el dique para detener una inundación». “Lo que sucederá es que si simplemente tapamos cada pequeño agujero en el dique obteniendo una nueva aplicación o escribiendo algún código, terminaremos con un entorno muy fragmentado, que será muy frágil. Es necesario observar a las personas, los procesos y la tecnología y tener una comprensión clara de hacia dónde se dirige; entonces podrá incorporar tecnología que se integrará increíblemente bien y le brindará la capacidad de transportar datos a través de su entorno”.

Source link

Anthropic, respaldado por Amazon, presenta Claude 3, su chatbot más poderoso hasta el momento

Anthropic presentó el lunes Claude 3, un conjunto de modelos de inteligencia artificial que, según afirma, son los más rápidos y potentes hasta el momento. Las nuevas herramientas se llaman Claude 3 Opus, Sonnet y Haiku. La compañía dijo que el más capaz de los nuevos modelos, Claude 3 Opus, superó al GPT-4 de OpenAI y al Gemini Ultra de Google en pruebas de referencia de la industria, como conocimiento a nivel de pregrado, nivel de posgrado. razonamiento y matemáticas básicas. Esta es la primera vez que Anthropic ofrece soporte multimodal. Los usuarios pueden cargar fotografías, gráficos, documentos y otros tipos de datos no estructurados para análisis y respuestas. Los otros modelos, Sonnet y Haiku, son más compactos y menos costosos que Opus. Sonnet y Opus están disponibles en 159 países a partir del lunes, mientras que Haiku llegará pronto, según Anthropic. La compañía se negó a especificar cuánto tiempo llevó entrenar a Claude 3 o cuánto costó, pero dijo que compañías como Airtable y Asana ayudaron a probar los modelos A/B. El año pasado, por estas fechas, Anthropic fue vista como una prometedora startup de IA generativa fundada por ex ejecutivos de investigación de OpenAI. Había completado las rondas de financiación de las Series A y B, pero solo había lanzado la primera versión de su chatbot sin ningún acceso al consumidor ni gran fanfarria. Doce meses después, es una de las nuevas empresas de inteligencia artificial más populares, con patrocinadores que incluyen a Google, Salesforce y Amazon. y un producto que compite directamente con ChatGPT tanto en el mundo empresarial como en el de consumo. Durante el año pasado, la startup cerró cinco acuerdos de financiación diferentes, por un total de alrededor de 7.300 millones de dólares. El campo de la IA generativa se ha disparado durante el año pasado, con un récord de 29.100 millones de dólares invertidos en casi 700 acuerdos en 2023, un aumento de más del 260% en los acuerdos. valor del año anterior, según PitchBook. Se ha convertido en la frase más comentada en las llamadas sobre resultados corporativos trimestre tras trimestre. Académicos y especialistas en ética han expresado importantes preocupaciones sobre la tendencia de la tecnología a propagar prejuicios, pero aun así, rápidamente llegó a las escuelas, los viajes en línea, la industria médica, la publicidad en línea y más. Entre 60 y 80 personas trabajaron en el modelo central de IA. , mientras que entre 120 y 150 personas trabajaron en sus aspectos técnicos, dijo a CNBC la cofundadora de Anthropic, Daniela Amodei, en una entrevista. Para la última versión del modelo de IA, un equipo de 30 a 35 personas trabajó directamente en él, con alrededor de 150 personas en total apoyándolo, dijo Amodei a CNBC en julio. Anthropic dijo que Claude 3 puede resumir hasta aproximadamente 150.000 palabras, o una cantidad considerable. libro (piense: alrededor del rango de duración de «Moby Dick» o «Harry Potter y las Reliquias de la Muerte»). Su versión anterior sólo podía resumir 75.000 palabras. Los usuarios pueden ingresar grandes conjuntos de datos y solicitar resúmenes en forma de memorando, carta o historia. ChatGPT, por el contrario, puede manejar alrededor de 3.000 palabras. Amodei también dijo que Claude 3 comprende mejor el riesgo en las respuestas que su versión anterior. «En nuestra búsqueda por tener un modelo altamente inofensivo, Claude 2 a veces se negaba demasiado», dijo Amodei. dijo a CNBC. «Cuando alguien se topaba con algunos de los temas más picantes o las barreras de confianza y seguridad, a veces Claude 2 tendía a ser un poco conservador al responder esas preguntas». Claude 3 tiene una comprensión más matizada de las indicaciones, según Anthropic La multimodalidad, o agregar opciones como capacidades de fotografía y video a la IA generativa, ya sea cargándolas usted mismo o creándolas usando un modelo de IA, se ha convertido rápidamente en uno de los casos de uso más populares de la industria. «El mundo es multimodal», dijo el director de operaciones de OpenAI, Brad Lightcap. CNBC en noviembre. «Si piensas en la forma en que nosotros, como seres humanos, procesamos el mundo y nos relacionamos con él, vemos cosas, oímos cosas, decimos cosas: el mundo es mucho más grande que el texto. Así que para nosotros, siempre nos pareció incompleto el texto y «Pero la multimodalidad y los modelos de IA cada vez más complejos también conllevan más riesgos potenciales. Google recientemente desconectó su generador de imágenes de IA, parte de su chatbot Gemini, después de que los usuarios descubrieron inexactitudes históricas y respuestas cuestionables, que han circulado ampliamente en las redes sociales. Claude 3 de Anthropic no genera imágenes; en cambio, sólo permite a los usuarios cargar imágenes y otros documentos para su análisis. «Por supuesto, ningún modelo es perfecto, y creo que es muy importante decirlo desde el principio», dijo Amodei a CNBC. «Hemos intentado con mucha diligencia hacer que estos modelos sean lo más capaces y seguros posible. Por supuesto, habrá lugares donde el modelo aún inventará algo de vez en cuando». Aclaración: Anthropic aclaró con CNBC que Claude 3 puede resumir unas 150.000 palabras, no 200.000.

Source link

Los programas universitarios de grado en IA están en auge. ¿Valen la pena el costo?

Ute Grabowsky | Fototeca | Getty Images Las ciencias de la computación no son una especialidad nueva en las mejores escuelas, pero con los trabajos de IA en alta demanda, hay una lista cada vez mayor de colegios y universidades que ofrecen un título de cuatro años en «IA» específicamente. Estos programas generalmente van más allá de los fundamentos de las ciencias de la computación. para centrarse en temas como el aprendizaje automático, los algoritmos informáticos, el análisis de datos y la robótica avanzada. La Universidad de Pensilvania anunció recientemente que su programa BSE en Inteligencia Artificial comenzará en el otoño de 2024. Carnegie Mellon introdujo un programa mucho antes de que la IA gen. fuera una palabra de moda, en el otoño de 2018, y el programa del MIT comenzó en el otoño de 2022. La Universidad Purdue ofrece una carrera universitaria en IA. especialización, mientras que muchos colegios y universidades ofrecen clases de IA dentro de su departamento de ciencias de la computación, incluso si no hay una especialización dedicada. El aumento de programas de grado específicos de IA se produce cuando las empresas tienen escasez de talento para este campo de rápido desarrollo. La mitad de las habilidades tecnológicas mejor pagadas son específicas de la IA, según el sitio web de empleo Indeed.com. Aun así, existe cierto grado de escepticismo sobre la aplicabilidad de un título de cuatro años específico de IA, dado lo rápido que está cambiando la tecnología. Pero sus defensores dicen que mientras un programa esté lleno de ciencias de la computación y otros fundamentos, centrarse en la IA podría ser una gran ayuda para la creación de currículums. Esto es lo que los estudiantes y sus padres, así como cualquiera que esté pensando en regresar a la escuela para una nueva carrera. carrera, necesita saber acerca de un título en IA de cuatro años: Los fundamentos de STEM siguen siendo críticos. Los estudiantes que quieran obtener un título en IA deben buscar un programa que enseñe información fundamental, como conceptos de informática, estadística, matemáticas e ingeniería, que sientan las bases. para una carrera en un campo relacionado con la IA, dijo Kerem Koca, director ejecutivo de BlueCloud, un proveedor de servicios en la nube. La tecnología en sí está cambiando, pero estos fundamentos básicos no, y pueden preparar a los estudiantes para tener éxito, incluso cuando la tecnología subyacente cambia, dijo.»Es importante que los títulos de IA y otros programas de capacitación educativa no solo se centren en el desarrollo de habilidades específicas, pero que el enfoque está en ayudar a los estudiantes a aprender cómo aprender, lo que incluye desarrollar una curiosidad intelectual y habilidades como liderazgo, comunicación y pensamiento crítico», dijo Maria Flynn, presidenta y directora ejecutiva de Jobs for the Future, una organización que se enfoca en Oportunidades y educación para los trabajadores, en un correo electrónico. Aumento de títulos en IA desde 2011 Hay varios programas diferentes que se centran en IA a nivel de pregrado y posgrado, y ha habido un aumento en las ofertas y títulos otorgados durante más de una década. Según el Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown, los títulos de IA han contrarrestado la tendencia general en educación desde 2011, con un crecimiento positivo en la concesión de títulos versus un crecimiento negativo en todas las áreas de grado. Los títulos relacionados con la IA, en particular, crecieron incluso más rápido que los títulos STEM como categoría general en los niveles de licenciatura, maestría y doctorado. Su revisión de datos gubernamentales y otras fuentes sobre el mercado de la educación superior describió el crecimiento de la concesión de títulos de IA como «dramático», aumentando un 120% desde 2011 tanto en el nivel de licenciatura como de maestría. Algunos estudiantes también podrían estar interesados ​​en obtener un título de asociado en IA , que ofrecen varias escuelas, incluido Miami Dade College. Relevancia de la educación en un mercado tecnológico que cambia rápidamente. Algunos estudiantes pueden preguntarse si necesitan un título, dado lo rápido que está cambiando el mercado y el hecho de que más empleadores han expresado su voluntad de contratar trabajadores sin títulos si tienen las habilidades adecuadas requeridas por el trabajo. Sin embargo, es importante tener en cuenta que investigaciones recientes sugieren que la práctica de contratar personas sin títulos se ha quedado corta, y la investigación del sitio de carreras Ladders muestra que todavía se requiere un título. para los trabajos mejor pagados, una lista que incluye ingenieros de software. Un título de cuatro años sigue siendo un gran paso adelante para la mayoría que ingresa al mercado laboral por primera vez, dijo Celeste Grupman, directora ejecutiva de Dataquest, que ofrece educación relacionada con la IA. materiales y laboratorios a las universidades. «Sigue siendo una de las primeras cosas que un empleador va a considerar. No te descalificarán, mientras que no tenerla sí podría hacerlo». Aun así, varios proveedores, incluidos Dataquest y Coursera, ofrecen programas de certificación para que los estudiantes desarrollen habilidades rápidamente. Estos programas pueden ser apropiados para estudiantes que carecen del tiempo y los recursos para completar un programa de cuatro años, o que ya tienen un título y buscan mejorar sus habilidades, dijo Grupman. Una plataforma en línea permite a los estudiantes comenzar rápidamente a crear proyectos y comprender cómo implementar estas herramientas con éxito con fines laborales. IA versus ciencias de la computación Es importante que los estudiantes piensen críticamente sobre el plan de estudios del programa que están considerando y en qué se diferencia de una computadora estándar. plan de estudios de ciencias, la probable trayectoria profesional de los graduados del programa y los resultados económicos de los graduados. «Como vemos en el marketing de productos, cualquiera puede incluir ‘IA’ en un producto existente. Los estudiantes deben preguntar qué aspectos de la IA aprenderán», dijo Flynn. También es importante que los estudiantes consideren cuidadosamente lo que quieren. ¿Están buscando un programa que brinde exposición a la IA o practique su uso, o quieren un programa técnico que brinde contenido fundamental y cursos sobre tecnología de IA? También deberían considerar si en última instancia quieren habilidades y conocimientos relevantes que los lleven al mercado laboral ahora mismo o si quieren un título más amplio que sea la base para un avance a largo plazo, dijo Flynn. «No quieres un título en martillos. Quieres entender los martillos, quieres entender la zonificación y quieres entender cómo construir una casa que ayude a una familia a cobrar vida. Lo mismo ocurre con la IA», dijo Nichol Bradford. , ejecutivo residente de inteligencia artificial e inteligencia humana en SHRM, una organización para profesionales de recursos humanos. Cómo obtener una ventaja con los empleadores Algunos empleadores pueden ver más favorablemente un título específico en IA que un título simple en ciencias de la computación, dijo David Leighton, director ejecutivo de WITI, una organización para profesionales con mentalidad tecnológica. «Creo que eso los distingue». Por otra parte, nadie sabe realmente en este momento cuál será el valor de un título de este tipo dentro de unos años. «En el año 2000, si tuvieras un título en Internet, si existiera tal cosa, habría sido fantástico», dijo Koca. «Ahora, no sería tan aplicable. Pero si lo tuvieras en 2002, podrías haber conseguido un trabajo en cualquier lugar. Lo mismo podría ser cierto para un título en IA». Dada la incertidumbre, algunos profesionales dijeron que los estudiantes no pueden equivocarse con un título tradicional en ciencias de la computación o uno específico de IA, siempre que se cubran los fundamentos. Sin embargo, aquellos que toman la primera ruta deberían considerar tomar clases relacionadas con la inteligencia artificial y la ciencia de datos, que pueden ser importantes para el empleo futuro. De lo contrario, los estudiantes podrían necesitar «cerrar ellos mismos la brecha de aplicaciones prácticas después de graduarse», dijo Bryan Ackermann, jefe de estrategia y transformación de IA en la consultora de gestión Korn Ferry, en un correo electrónico.

Source link

Cohere dice que sus rivales están construyendo autos deportivos Bugatti, «Nosotros fabricamos F150»

El presidente de Cohere, Martin Kon, dice que muchas de las nuevas empresas de inteligencia artificial que están en el mercado hoy en día están construyendo el equivalente de autos deportivos de lujo. Su producto, dice, se parece más a un camión pesado. «Si está buscando vehículos para su departamento de servicio técnico de campo y lo llevo a una prueba de manejo en un Bugatti, quedará impresionado qué tan rápido y qué tan bien funciona», dijo Kon a CNBC en una entrevista. Sin embargo, dijo, el precio, junto con las limitaciones de espacio y la falta de un maletero, serán un problema. «Lo que realmente se necesita es una flota de camionetas F-150», dijo Kon. «Fabricamos F-150». Fundada por ex investigadores de IA de Google y respaldada por Nvidia, Cohere está apostando por la IA generativa para la empresa en lugar de por los chatbots de consumo, que han sido la comidilla de la industria tecnológica desde que OpenAI lanzó ChatGPT a finales de 2022. En junio, Cohere recaudó 270 millones de dólares con una valoración de 2.200 millones de dólares, y Salesforce y Oracle participaron en la ronda de financiación. Los ejecutivos de la empresa han asistido a foros de IA en la Casa Blanca. Y, según se informa, Cohere está en conversaciones para recaudar hasta mil millones de dólares en capital adicional. «No comentamos sobre rumores», dijo Kon a CNBC. «Pero alguien me dijo una vez que las nuevas empresas siempre están creciendo». El campo de la IA generativa se ha disparado durante el último año, con una inversión récord de 29.100 millones de dólares en casi 700 acuerdos en 2023, un aumento de más del 260% en el valor de los acuerdos respecto al año anterior, según PitchBook. Se ha convertido en la frase más comentada en las llamadas sobre resultados corporativos trimestre tras trimestre, y alguna forma de tecnología está automatizando tareas en casi todas las industrias, desde servicios financieros e investigación biomédica hasta logística, viajes en línea y servicios públicos. Aunque Cohere a menudo se menciona junto a los pesos pesados ​​de la IA. Al igual que OpenAI, Anthropic, Google y Microsoft, el enfoque de la startup en chatbots exclusivos para empresas la ha diferenciado. Los competidores ofrecen productos de IA tanto para consumidores como para empresas. OpenAI, por ejemplo, lanzó ChatGPT Enterprise en agosto, y Anthropic abrió el acceso de los consumidores a su chatbot Claude, anteriormente exclusivo para empresas, en julio. Kon, quien también es el jefe de operaciones de la compañía, dijo que al mantenerse enfocado solo en la empresa, Cohere puede para funcionar de manera eficiente y mantener los costos bajo control incluso en medio de una escasez de chips, costos crecientes para las unidades de procesamiento de gráficos (GPU) y tarifas de licencia en constante cambio para los modelos de IA. «Rara vez he visto, en mi carrera, muchas empresas que puedan ser exitosamente consumidores y empresas al mismo tiempo, y mucho menos una startup», dijo Kon. Y añadió: «No tenemos que recaudar miles de millones de dólares para ofrecer un servicio gratuito al consumidor». Los clientes actuales incluyen Notion, Oracle y Bamboo HR, según el sitio web de Cohere. Muchos clientes pertenecen a las categorías de banca, servicios financieros y seguros, afirmó Kon. En noviembre, Cohere le dijo a CNBC que había visto un aumento en el interés de los clientes después del repentino y temporal despido del CEO Sam Altman por parte de OpenAI. Kon reconoce que la dinámica cambiante en la industria del hardware ha presentado desafíos persistentes. La compañía ha tenido una reserva de chips de Google durante más de dos años, dijo Kon, asegurada en los primeros días de Cohere para ayudarla a entrenar previamente sus modelos. Ahora, Cohere está avanzando hacia el uso de más GPU H100 de Nvidia, que alimentan a la mayoría de los grandes procesadores actuales. modelos de lenguaje. Las relaciones de Cohere con inversores estratégicos son otra área en la que se diferencia de los competidores de IA generativa, dijo Kon. Muchas empresas han recaudado dinero de empresas como Nvidia y Microsoft con algunas condiciones vinculadas al uso de su software o chips. Kon insiste en que Cohere nunca ha aceptado una inversión condicional y que cada cheque que cobra, incluido el de Nvidia, no tiene ataduras. «En nuestra última ronda, tuvimos varios controles del mismo tamaño; no teníamos condiciones asociadas con ninguno de ellos», dijo Kon. «Tomamos esa decisión explícitamente para poder decir que no estamos en deuda con nadie». La decisión de Cohere de centrarse en chatbots exclusivos para empresas puede ayudar a la empresa a mantenerse alejada del turbio territorio de las preocupaciones por la desinformación, especialmente a medida que se acerca la temporada electoral. En enero, la Comisión Federal de Comercio anunció una investigación de inteligencia artificial sobre Amazon, Alphabet, Microsoft, OpenAI y Anthropic. . La presidenta de la FTC, Lina Khan, lo describió como una «investigación de mercado sobre las inversiones y asociaciones que se están formando entre los desarrolladores de IA y los principales proveedores de servicios en la nube». Cohere no fue nombrado. Kon dice que el crecimiento de la compañía hasta ahora se ha centrado en gran medida en áreas como la búsqueda y recuperación, que requieren sus propios modelos de IA separados. Lo llama «uso de herramientas» e implica entrenar modelos sobre dónde, cuándo y cómo buscar la información que un cliente empresarial necesita, incluso si el modelo no fue entrenado originalmente con esos datos. La búsqueda, dijo Kon, es una pieza clave de la IA generativa que está recibiendo menos atención que otras áreas. «Eso sin duda, para las empresas, será el verdadero desbloqueo», dijo. Al discutir el cronograma de expansión, Kon calificó el año 2023 como «el año de la prueba de concepto.» «Creemos que 2024 se está convirtiendo en el año del despliegue a escala», afirmó. MIRAR: La IA generativa democratizará el acceso a los datos empresariales.

Source link

Las 5 funciones principales de IA que debes usar en tu teléfono

Pero primero, un poco de historia… Las primeras funciones impulsadas por IA en los teléfonos inteligentes incluyen Face ID y Animoji en teléfonos equipados con Apple A11, como el iPhone X de 2017, impulsado por Neural Engine, la marca de Apple para su unidad de procesamiento neuronal. . Ese «motor neuronal» está diseñado para tareas de procesamiento de IA. / © Apple La NPU de Qualcomm en realidad es anterior a eso, con su Hexagon DSP (procesador de señal digital) reutilizado para acelerar el procesamiento neuronal alrededor de 2015. En ese momento, las empresas ya estaban posicionando la IA en una de las funciones más utilizadas aún en 2024: mejorar la cámara. calidad. Otras empresas también invirtieron en sus NPU poco después, y tanto MediaTek como Samsung desarrollaron sus propias soluciones. Pero la IA fue llevada al siguiente nivel gracias a un recién llegado al SoC móvil: Google y su chip Tensor de 2021, que lleva el nombre de los propios núcleos de inteligencia artificial. El momento de Google ahora parece oportuno, con todo el interés renovado que generan las herramientas de inteligencia artificial generativa como Dall-E, ChatGPT y una lista que parece expandirse diariamente. Y eso nos lleva a algunas de las funciones de IA (generativas o no) que la mayoría de nosotros podemos usar ahora mismo. Círculo para buscar (Pixel y Samsung) Google Lens puede ser una función útil en los teléfonos, pero no es la herramienta más fácil de usar. Con el lanzamiento del Galaxy S24, Samsung presentó una función de Google antes de que los teléfonos Pixel la tuvieran: simplemente presione prolongadamente la barra/botón de inicio y dibuje un círculo alrededor de un objeto para iniciar una búsqueda en Lens. Sin embargo, existe una pequeña limitación, ya que actualmente solo se puede acceder a la función Círculo para buscar en dispositivos Samsung que ejecutan One UI 6.1. Pero Samsung ya ha anunciado una lista de teléfonos que obtendrán las funciones Galaxy AI. Puede utilizar la función para identificar especies, objetos exóticos (en el siguiente ejemplo, un modelo VW exclusivo de América Latina), prendas de vestir e incluso resolver ecuaciones matemáticas. El círculo para buscar es básicamente Google-Lens-en cualquier lugar de su teléfono. / © nextpit Es cierto que Circle to Search no es una función de IA adecuada, sino más bien un atajo más conveniente para una: Google Lens. Funciones útiles de Galaxy AI en Samsung Notes Desde un atajo de IA hasta la tendencia actual en LLM (modelos de idiomas grandes), llegamos a las nuevas funciones Galaxy AI de Samsung para la aplicación Notes (entre otras). Este también depende de One UI 6.1. La aplicación, a menudo descuidada, estaba salpicada de las últimas tendencias tecnológicas y ofrece una serie de funciones diferentes impulsadas por IA. Destacaremos dos: Formato automático y Resumir, pero la versión inicial también ofrece un corrector ortográfico y una herramienta de traducción, que son bastante sencillos. Si bien una función similar está disponible en el servicio Microsoft OneNote, es exclusiva para los suscriptores de Co-Pilot. Las funciones de Samsung Notes AI, por otro lado, son gratuitas (al menos por ahora) en los teléfonos Galaxy compatibles. Formato automático Si las notas de su reunión o clase no son más que un montón de palabras aleatorias incluidas en la aplicación, el formato automático puede darle cierta apariencia de orden. La función organiza las notas en temas e incluso crea algunos encabezados basados ​​en sus anotaciones. Para usarlo, simplemente sigue estas instrucciones: Toca el botón Galaxy AI (estrellas) en una nota abierta. Seleccione Formato automático y espere brevemente a que se procese. Desliza el dedo hacia la izquierda o hacia la derecha para seleccionar entre diferentes opciones de formato. Elija Copiar/Reemplazar/Agregar a. Los encabezados «introducción» y «beneficios» fueron creados por AI, junto con los listados. / © nextpit Resumir Si necesita más que una organización para sus notas, la nueva función AI Resumarize puede darles un poco de sabor, reformulando su contenido en algo sorprendentemente útil. Para probarlo usted mismo, abra una anotación en Samsung Notes y luego: Toque el botón Galaxy AI (estrellas). Elija Resumir. Verifique la sugerencia, luego use uno de los botones para copiar, reemplazar o agregar el texto resumido en un bloc de notas. El resumen generado estuvo bien organizado en nuestras pruebas. Además #rip SnapSatellite, la tendencia de 2023 no se impuso. / © nextpit Aislamiento de voz en iPhones Esta función de iOS y iPadOS hace que las llamadas a través de líneas telefónicas, FaceTime e incluso algunas aplicaciones de terceros sean más claras, especialmente en entornos ruidosos. Voice Isolation requiere iOS 16.4 en un iPhone XR/XS o posterior y bloquea el ruido de fondo. Para activarlo: Inicia una llamada de voz o video. Abra el Centro de control deslizándose hacia abajo desde la esquina superior derecha de la pantalla. Toque el acceso directo al modo micrófono. Seleccione Aislamiento de voz. La función no requiere auriculares conectados y funciona tanto con el teléfono junto a tu cara como en una llamada de voz tradicional, como con la pantalla apuntando hacia ti en una videollamada. El aislamiento de voz permanece habilitado en las siguientes llamadas hasta que se desactiva manualmente, una cosa a tener en cuenta. Mejore la calidad de audio de sus llamadas con un interruptor oculto en iOS. / © nextpit En nuestras pruebas, la función hizo un trabajo inquietantemente bueno al eliminar el ruido de fondo que distraía, como si el orador estuviera en una cabina de sonido, incluso cuando estaba en un balcón con un tranvía pasando. Por supuesto, su kilometraje variará y siempre podrá preguntarle a la otra persona si es mejor habilitar o deshabilitar el aislamiento de voz. Elimina objetos no deseados con Magic Eraser (iPhone y Android) Todos hemos pasado por eso, la imagen “perfecta” arruinada por un dedo sobre la cámara, alguna persona al azar o, peor aún, un fotobombardero. Magic Eraser te permite simplemente editarlos, llenando el vacío con resultados sorprendentemente buenos. La función funciona con imágenes guardadas en su cuenta de Google Photos y requiere una cuenta de Google One o un teléfono Pixel compatible. Para propietarios de Pixel y suscriptores de Google One, simplemente sigan estos pasos: Seleccione una imagen en la aplicación Google Photos. Elija Editar. Seleccione el menú Herramientas. Toca Borrador mágico. Dibuja alrededor o sobre el objeto a eliminar. Confirme la edición tocando Listo y luego Guardar copia. Magic Eraser puede realizar ediciones rápidas adecuadas para compartir en las redes sociales. / © nextpit Magic Editor en Pixel y Galaxy AI Los teléfonos Pixel 8 y Galaxy S24 (por ahora) pueden usar una versión más potente de Magic Eraser. Sin embargo, mientras Magic Eraser funciona en el dispositivo (por ejemplo, sin conexión), Magic Editor procesa imágenes en los servidores de Google, lo que requiere una conexión a Internet. Los pasos son similares a los del Magic Eraser, pero Magic Editor también se puede usar para mover sujetos alrededor de la imagen, y en nuestras pruebas ofreció mejores resultados al llenar el espacio debajo de un objeto eliminado: seleccione una imagen en Google Photos (Pixel) o Galería Samsung (Galaxia). Toque el botón Magic Editor (ícono de estrellas en One UI) en la esquina inferior izquierda. Dibuja alrededor del objeto que vas a mover/eliminar. Toque el botón Borrar. En One UI, mantenga presionada la selección y elija el ícono de borrar, luego presione Generar. Confirme la edición tocando el botón de marca de verificación (Hecho en teléfonos Galaxy). Magic Editor puede mover objetos por la escena pero requiere una conexión a Internet. / © nextpit Con el procesamiento de IA basado en la nube, se recomienda leer los términos y condiciones de los servicios que utiliza, generalmente disponibles para leer antes de habilitarlos. Como regla general, no recomendamos compartir información de identificación personal ni datos confidenciales. También es importante destacar que todos los proveedores de IA desaconsejan el uso de sus servicios con fines médicos, legales, financieros u otros fines críticos. Como escribe Google en sus documentos legales: No envíe información sensible, confidencial o personal a los Servicios. ¿Qué pasa contigo? ¿Qué funciones impulsadas por IA te impresionaron? ¿Tuviste más suerte que nosotros con las funciones de traducción en vivo? ¿O crees que la IA es solo otra moda tecnológica como el metaverso, la conectividad satelital y otras tendencias de temporadas pasadas?

Source link

La divulgación de las participaciones de Nvidia aumenta las acciones de las pequeñas empresas de inteligencia artificial

El director ejecutivo de Nvidia, Jensen Huang, habla en la presentación principal de Supermicro durante la conferencia Computex en Taipei el 1 de junio de 2023. Walid Berrazeg | Imágenes de sopa | Cohete ligero | Getty Images Los inversores están tan enamorados de la historia de la inteligencia artificial de Nvidia que quieren una parte de todo lo que toca el fabricante de chips. El miércoles, Nvidia reveló en una presentación regulatoria que tiene participaciones en un puñado de empresas públicas: Arm, SoundHound AI, Recursion Pharmaceuticals, Nano-X Imaging y TuSimple. Con la excepción de Arm, que superó recientemente los 130.000 millones de dólares en capitalización de mercado, las acciones de las empresas respaldadas por Nvidia se dispararon el jueves tras la presentación del 13F, un formulario que deben presentar los gestores de inversiones institucionales que supervisan al menos 100 millones de dólares en activos. Pero ninguna de estas inversiones sorprendería a cualquiera que se tomara el tiempo de examinar informes y archivos de noticias antiguos. La manía de la IA se encuentra firmemente en una fase de exuberancia irracional, y los inversores se están abalanzando sobre cualquier cosa en el espacio. Ninguna acción está más de moda que Nvidia, que superó a Amazon en valor de mercado el martes y luego a Alphabet el miércoles para convertirse en la tercera más valiosa. empresa en EE.UU., sólo por detrás de Apple y Microsoft. Las acciones de Nvidia han subido más del 200% en los últimos 12 meses debido a la demanda aparentemente ilimitada de sus chips de IA, que sustentan potentes modelos de IA de Google, Amazon, OpenAI y otros. SoundHound, que utiliza IA para procesar el habla y el reconocimiento de voz, saltó 67% el jueves, después de que Nvidia revelara una participación que ascendía a 3,7 millones de dólares en el momento de la presentación. Nvidia invirtió en SoundHound en 2017 como parte de una ronda de riesgo de 75 millones de dólares. SoundHound salió a bolsa a través de una empresa de adquisición con fines especiales en 2022, y Nvidia fue nombrada en su presentación como inversor estratégico. Nano-X utiliza IA en imágenes médicas. La divulgación por parte de Nvidia de una inversión de 380.000 dólares en la empresa hizo que las acciones subieran un 49% el jueves. La participación de Nvidia se remonta a años atrás, con una inversión de riesgo en Zebra Medical, una startup israelí de imágenes médicas. Nano-X adquirió Zebra en 2021. TuSimple, una empresa de transporte autónomo, se disparó un 37% el jueves tras la divulgación de la participación de 3 millones de dólares de Nvidia. El repunte de las acciones se produce un mes después de que la compañía anunciara planes de salir de la lista del Nasdaq debido a un «cambio significativo en los mercados de capital» desde su OPI de 2021. TuSimple debutó a 40 dólares la acción y ahora cotiza a aproximadamente 50 centavos. «En consecuencia, el Comité Especial determinó que los beneficios de seguir siendo una empresa que cotiza en bolsa ya no justifican los costos», dijo TuSimple en un comunicado del 17 de enero. «La compañía está está experimentando una transformación que la compañía cree que puede navegar mejor como empresa privada que como empresa que cotiza en bolsa». Nvidia invirtió en TuSimple en 2017, cuatro años antes de la oferta pública inicial. Nvidia adquirió su participación en la empresa de biotecnología Recursion más recientemente. Al igual que TuSimple, Recursion salió a bolsa en 2021, pero Nvidia compró dos años después a través de lo que se llama una inversión privada en capital público, o PIPE. Nvidia compró acciones por valor de 50 millones de dólares en 2023 y ahora tiene una inversión por valor de 76 millones de dólares, según su presentación. Las acciones recursivas se dispararon un 14% el jueves. Las propias finanzas de Nvidia estarán a la vista la próxima semana, cuando la compañía informe sus ganancias trimestrales. Los analistas esperan un crecimiento interanual de los ingresos superior al 200 % hasta más de 20 mil millones de dólares. Es probable que las inversiones más recientes de la compañía sean mucho más significativas que sus apuestas anteriores, reveladas el miércoles por la noche, porque están en el corazón de la IA. auge. En los últimos años, Nvidia ha respaldado nuevas empresas de IA, incluidas Cohere, Hugging Face, CoreWeave y Perplexity. «La IA está transformando la forma en que los consumidores acceden a la información», dijo Jonathan Cohen, vicepresidente de investigación aplicada de Nvidia, en el anuncio de Perplexity de una financiación de 73,6 millones de dólares. ronda en enero. «El equipo de clase mundial de Perplexity está construyendo una plataforma de búsqueda confiable impulsada por IA que ayudará a impulsar esta transformación». MIRAR: Perplexity AI apunta a rivalizar con GoogleNo te pierdas estas historias de CNBC PRO:

Source link

Empresas de tecnología e inteligencia artificial firman un acuerdo para combatir los deepfakes relacionados con las elecciones

Un grupo de 20 empresas tecnológicas líderes anunció el viernes un compromiso conjunto para combatir la desinformación de la IA en las elecciones de este año. La industria está apuntando específicamente a los deepfakes, que pueden usar audio, video e imágenes engañosas para imitar a las partes interesadas clave en las elecciones democráticas o para proporcionar votos falsos. información.Microsoft, Meta, Google, Amazon, IBM, Adobe y el diseñador de chips Arm firmaron el acuerdo. Las startups de inteligencia artificial OpenAI, Anthropic y Stability AI también se unieron al grupo, junto con empresas de redes sociales como Snap, TikTok y las plataformas X.Tech se están preparando para un gran año de elecciones en todo el mundo que afectarán a más de cuatro mil millones de personas en más de 40 años. países. El aumento del contenido generado por IA ha generado serias preocupaciones sobre la desinformación relacionada con las elecciones, y el número de deepfakes que se han creado ha aumentado un 900 % año tras año, según datos de Clarity, una empresa de aprendizaje automático. El principal problema se remonta a la campaña presidencial de 2016, cuando los actores rusos encontraron formas fáciles y económicas de difundir contenido inexacto en las plataformas sociales. Los legisladores están hoy aún más preocupados por el rápido aumento de la IA. «Existen motivos para una seria preocupación sobre cómo la IA podría usarse para engañar a los votantes en las campañas», dijo Josh Becker, senador estatal demócrata en California, en una entrevista. «Es alentador ver que algunas empresas se sientan a la mesa, pero en este momento no veo suficientes detalles, por lo que probablemente necesitaremos una legislación que establezca estándares claros». Mientras tanto, las tecnologías de detección y marcas de agua utilizadas para identificar deepfakes no han avanzado rápidamente. suficiente para seguir el ritmo. Por ahora, las empresas apenas están acordando lo que equivale a un conjunto de estándares técnicos y mecanismos de detección. Les queda un largo camino por recorrer para combatir eficazmente el problema, que tiene muchas capas. Se ha demostrado que los servicios que afirman identificar texto generado por IA, como ensayos, por ejemplo, exhiben prejuicios contra hablantes no nativos de inglés. Y no es mucho más fácil para las imágenes y los videos. Incluso si las plataformas detrás de las imágenes y videos generados por IA aceptan incorporar cosas como marcas de agua invisibles y ciertos tipos de metadatos, hay formas de evitar esas medidas de protección. Las capturas de pantalla a veces pueden incluso engañar a un detector. Además, las señales invisibles que algunas empresas incluyen en las imágenes generadas por IA aún no han llegado a muchos generadores de audio y vídeo. La noticia del acuerdo llega un día después de que el creador de ChatGPT, OpenAI, anunciara Sora, su Nuevo modelo para vídeo generado por IA. Sora funciona de manera similar a la herramienta de inteligencia artificial de generación de imágenes de OpenAI, DALL-E. Un usuario escribe la escena deseada y Sora le devolverá un videoclip de alta definición. Sora también puede generar videoclips inspirados en imágenes fijas y ampliar vídeos existentes o completar fotogramas faltantes. Las empresas participantes en el acuerdo acordaron ocho compromisos de alto nivel, incluida la evaluación de riesgos de modelos, «buscar detectar» y abordar la distribución de dichos contenido en sus plataformas y brindar transparencia sobre esos procesos al público. Como ocurre con la mayoría de los compromisos voluntarios en la industria tecnológica y más allá, el comunicado especifica que los compromisos se aplican sólo «cuando sean relevantes para los servicios que proporciona cada empresa». «La democracia se basa en elecciones seguras y protegidas», dijo Kent Walker, presidente de asuntos globales de Google. , dijo en un comunicado. El acuerdo refleja el esfuerzo de la industria para abordar «la información electoral errónea generada por IA que erosiona la confianza», dijo. Christina Montgomery, directora de privacidad y confianza de IBM, dijo en el comunicado que en este año electoral clave, «se necesitan medidas concretas y cooperativas». necesario para proteger a las personas y las sociedades de los riesgos amplificados del contenido engañoso generado por IA». MIRAR: OpenAI presenta Sora

Source link

Después del éxito viral de ChatGPT, OpenAI ahora llega al video

Una mujer elegante camina por una calle de Tokio llena de luces de neón cálidas y brillantes y carteles animados de la ciudad como parte de un vídeo generado por el modelo Sora AI de OpenAI. OpenAIOpenAI, que irrumpió en la corriente principal el año pasado gracias a la popularidad de ChatGPT, está aportando su inteligencia artificial tecnología al vídeo. La compañía presentó el jueves Sora, su nuevo modelo de IA generativa. Sora funciona de manera similar a la herramienta de inteligencia artificial de generación de imágenes de OpenAI, DALL-E. Un usuario escribe la escena deseada y Sora le devolverá un videoclip de alta definición. Sora también puede generar videoclips inspirados en imágenes fijas y ampliar videos existentes o completar fotogramas faltantes. El video podría ser la próxima frontera para la IA generativa ahora que los chatbots y los generadores de imágenes se han abierto camino en el mundo de los consumidores y los negocios. Si bien las oportunidades creativas entusiasmarán a los entusiastas de la IA, las nuevas tecnologías presentan graves problemas de desinformación a medida que se acercan las principales elecciones políticas en todo el mundo. La cantidad de deepfakes generados por IA ha aumentado un 900% año tras año, según datos de Clarity, una empresa de aprendizaje automático. Con Sora, OpenAI busca competir con herramientas de IA de generación de video de compañías como Meta y Google. que anunció Lumiere el mes pasado. Hay herramientas de inteligencia artificial similares disponibles a través de nuevas empresas como Stability AI, que tiene un producto llamado Stable Video Diffusion. Amazon también ha lanzado Create with Alexa, un modelo especializado en generar contenido infantil animado de formato corto basado en indicaciones. Actualmente, Sora se limita a generar videos de un minuto de duración o menos. OpenAI, respaldado por Microsoft, ha hecho de la multimodalidad (la combinación de generación de texto, imágenes y video) un objetivo en su esfuerzo por ofrecer un conjunto más amplio de modelos de IA. «El mundo es multimodal», dijo el director de operaciones de OpenAI, Brad Lightcap, a CNBC en noviembre. «Si piensas en la forma en que nosotros, como seres humanos, procesamos el mundo y nos relacionamos con él, vemos cosas, oímos cosas, decimos cosas: el mundo es mucho más grande que el texto. Así que para nosotros, siempre nos pareció incompleto el texto y código para ser las modalidades únicas, las interfaces únicas que podríamos tener para saber qué tan poderosos son estos modelos y qué pueden hacer». Hasta ahora, Sora solo ha estado disponible para un pequeño grupo de probadores de seguridad, o «equipos rojos», que prueban el modelo para vulnerabilidades en áreas como la desinformación y el sesgo. La compañía no ha publicado ninguna demostración pública más allá de 10 clips de muestra disponibles en su sitio web, y dijo que el documento técnico que lo acompaña se publicará más tarde el jueves. OpenAI también dijo que está construyendo un «clasificador de detección» que puede identificar videoclips generados por Sora. y que planea incluir ciertos metadatos en su producción que deberían ayudar a identificar el contenido generado por IA. Es el mismo tipo de metadatos que Meta busca utilizar para identificar imágenes generadas por IA este año electoral. Sora es un modelo de IA de difusión que, al igual que ChatGPT, utiliza la arquitectura Transformer, presentada por investigadores de Google en un artículo de 2017. «Sora sirve como base para modelos que pueden comprender y simular el mundo real», escribió OpenAI en su anuncio. MIRAR: OpenAI está en el camino hacia un ‘verdadero avance tecnológico’

Source link

Ahora puedes usar herramientas de IA generativa con Slack

En lo que respecta a las aplicaciones de chat de flujo de trabajo, Slack definitivamente está a la altura de los mejores en términos de características y funcionalidad. Con eso en mente, el equipo detrás de Slack anunció recientemente que los usuarios podrán utilizar herramientas de inteligencia artificial generativa con sus flujos de trabajo y comunicación, conocidas como «Slack AI». Con Slack AI, los usuarios podrán obtener respuestas de búsqueda personalizadas con citas directas a mensajes relevantes en la aplicación Slack, resúmenes de canales y resúmenes de hilos que brindan a los usuarios un resumen de las discusiones en los chats, así como aspectos destacados clave en los canales. Denise Dresser, directora ejecutiva de Slack, afirma: “Durante la última década, Slack ha revolucionado la forma en que trabajamos, reuniendo personas, aplicaciones y sistemas en un solo lugar. Con Slack AI, estamos emocionados de llevar esta transformación al siguiente nivel. Estas nuevas capacidades de IA permiten a nuestros clientes acceder al conocimiento colectivo dentro de Slack para que puedan trabajar de manera más inteligente, moverse más rápido y dedicar su tiempo a cosas que generan innovación y crecimiento reales. En la era de la IA generativa, Slack es la plataforma conversacional confiable que conecta cada parte de una empresa para potenciar la productividad del equipo”. Dicho esto, las nuevas funciones de IA generativa se integrarán directamente en Slack y no requerirán ninguna capacitación adicional para los usuarios. Cabe señalar que Slack AI estará disponible como un complemento pago para los planes Enterprise, con soporte para inglés, mientras que pronto estarán disponibles planes adicionales y soporte para idiomas. Fuente: holgura

Source link

Página 3 de 8

Funciona con WordPress & Tema de Anders Norén