Todo lo que necesitas saber sobre tecnología

Etiqueta: transformadores

El primer clip de Transformers One es muy bonito y muy tonto

El primer clip de Transformers One es muy bonito y muy tonto

Al igual que en otras ceremonias de premios, los Kids Choice Awards de Nickelodeon a veces incluyen un adelanto de las próximas películas para atraer a más espectadores. El de este año fue un clip de Transformers One, la próxima precuela en CG de Paramount de las películas de acción real y lo que sea que venga después para los sueños de la serie en la pantalla grande. El gran atractivo de Transformers One es que presenta versiones jóvenes de los robots que hemos llegado a conocer y amar a lo largo de los años. Ambientado en Cybertron años antes de que una guerra civil destruya el planeta, Optimus Prime (Chris Hemsworth) y Megatron (Brian Tyree Henry) todavía usan sus nombres originales, Orion Pax y D-16. Como robots trabajadores que accidentalmente llegan a la superficie del planeta, la pareja, junto con Elita-One (Scarlett Johansson) y Bee (Keegan-Michael Key), adquieren la capacidad de transformarse y hacer básicamente todo lo que pueden hacer en las películas y los dibujos animados. Pero los nuevos poderes requieren algunos tropiezos, y eso significa algo de payasadas, muchas, como se desprende del siguiente clip. Los chistes como Optimus tropezando con la cabeza aplastada contra el pecho y Bumblebee trepando por el suelo con las manos en forma de rueda sin duda van a triunfar entre el público más joven. Esta es la primera película de Transformers en cines en casi 40 años dirigida más a aquellos menores de 12 años, y es un cambio de ritmo interesante respecto a la franquicia, que constantemente llega al grupo demográfico de adolescentes de mediana edad. No está de más que la versión de Cybertron de la película se vea realmente bonita y distinta, a la vez que claramente influenciada por la estética favorita de los fans de la Generación 1. Como mínimo, esta película puede dejar claro hasta qué punto la franquicia podría soportar hacer películas animadas con más frecuencia en lugar de una vez cada década aproximadamente. Transformers One llega a los cines el 20 de septiembre. ¿Quieres más noticias de io9? Descubre cuándo esperar los últimos estrenos de Marvel, Star Wars y Star Trek, qué es lo próximo para el Universo DC en cine y televisión, y todo lo que necesitas saber sobre el futuro de Doctor Who.

¿Qué es la IA generativa? – Espectro IEEE


La IA generativa es la forma de inteligencia artificial más popular en la actualidad y es lo que impulsa a los chatbots como ChatGPT, Ernie, LLaMA, Claude y Cohere, así como a los generadores de imágenes como DALL-E 2, Stable Diffusion, Adobe Firefly y Midjourney. La IA generativa es la rama de la IA que permite a las máquinas aprender patrones a partir de vastos conjuntos de datos y luego producir de forma autónoma nuevos contenidos basados ​​en esos patrones. Aunque la IA generativa es bastante nueva, ya existen muchos ejemplos de modelos que pueden producir texto, imágenes, vídeos y audio. Muchos de los llamados modelos básicos se han entrenado con datos suficientes para ser competentes en una amplia variedad de tareas. Por ejemplo, un modelo de lenguaje grande puede generar ensayos, códigos informáticos, recetas, estructuras de proteínas, chistes, consejos de diagnóstico médico y mucho más. En teoría, también puede generar instrucciones para construir una bomba o un arma biológica, aunque se supone que las salvaguardias previenen ese tipo de uso indebido. ¿Cuál es la diferencia entre IA, aprendizaje automático e IA generativa? La inteligencia artificial (IA) se refiere a una amplia variedad de enfoques computacionales para imitar la inteligencia humana. El aprendizaje automático (ML) es un subconjunto de la IA; se centra en algoritmos que permiten a los sistemas aprender de los datos y mejorar su rendimiento. Antes de que apareciera la IA generativa, la mayoría de los modelos de ML aprendían de conjuntos de datos para realizar tareas como clasificación o predicción. La IA generativa es un tipo especializado de ML que involucra modelos que realizan la tarea de generar contenido nuevo, aventurándose en el ámbito de la creatividad. ¿Qué arquitecturas utilizan los modelos de IA generativa? Los modelos generativos se construyen utilizando una variedad de arquitecturas de redes neuronales, esencialmente el diseño y la estructura que definen cómo se organiza el modelo y cómo fluye la información a través de él. Algunas de las arquitecturas más conocidas son los codificadores automáticos variacionales (VAE), las redes generativas adversarias (GAN) y los transformadores. Es la arquitectura transformadora, mostrada por primera vez en este artículo fundamental de Google de 2017, la que impulsa los grandes modelos de lenguaje actuales. Sin embargo, la arquitectura del transformador es menos adecuada para otros tipos de IA generativa, como la generación de imágenes y audio. Los codificadores automáticos aprenden representaciones eficientes de datos a través de un marco codificador-decodificador. El codificador comprime los datos de entrada en un espacio de dimensiones inferiores, conocido como espacio latente (o incrustado), que preserva los aspectos más esenciales de los datos. Luego, un decodificador puede utilizar esta representación comprimida para reconstruir los datos originales. Una vez que un codificador automático ha sido entrenado de esta manera, puede utilizar entradas novedosas para generar lo que considera las salidas apropiadas. Estos modelos a menudo se implementan en herramientas de generación de imágenes y también han encontrado uso en el descubrimiento de fármacos, donde pueden usarse para generar nuevas moléculas con las propiedades deseadas. Con las redes generativas adversarias (GAN), el entrenamiento involucra un generador y un discriminador que pueden ser considerados adversarios. El generador se esfuerza por crear datos realistas, mientras que el discriminador pretende distinguir entre los resultados generados y los resultados reales «verdaderos». Cada vez que el discriminador detecta una salida generada, el generador utiliza esa retroalimentación para intentar mejorar la calidad de sus salidas. Pero el discriminador también recibe retroalimentación sobre su desempeño. Esta interacción adversa da como resultado el refinamiento de ambos componentes, lo que lleva a la generación de contenido de apariencia cada vez más auténtica. Las GAN son más conocidas por crear deepfakes, pero también pueden usarse para formas más benignas de generación de imágenes y muchas otras aplicaciones. Se podría decir que el transformador es el campeón reinante de las arquitecturas de IA generativa por su ubicuidad en los poderosos modelos de lenguajes grandes (LLM) actuales. Su punto fuerte radica en su mecanismo de atención, que permite que el modelo se centre en diferentes partes de una secuencia de entrada mientras realiza predicciones. En el caso de los modelos de lenguaje, la entrada consta de cadenas de palabras que forman oraciones, y el transformador predice qué palabras vendrán a continuación (entraremos en detalles a continuación). Además, los transformadores pueden procesar todos los elementos de una secuencia en paralelo en lugar de recorrerla de principio a fin, como lo hacían los modelos anteriores; esta paralelización hace que el entrenamiento sea más rápido y eficiente. Cuando los desarrolladores agregaron vastos conjuntos de datos de texto para que los modelos de transformadores aprendieran, surgieron los notables chatbots de hoy. ¿Cómo funcionan los modelos de lenguaje grandes? Un LLM basado en transformadores se entrena proporcionándole un amplio conjunto de datos de texto del que aprender. El mecanismo de atención entra en juego cuando procesa oraciones y busca patrones. Al observar todas las palabras de una oración a la vez, gradualmente comienza a comprender qué palabras se encuentran más comúnmente juntas y qué palabras son más importantes para el significado de la oración. Aprende estas cosas tratando de predecir la siguiente palabra en una oración y comparando su suposición con la verdad básica. Sus errores actúan como señales de retroalimentación que hacen que el modelo ajuste los pesos que asigna a varias palabras antes de volver a intentarlo. Estos cinco LLM varían mucho en tamaño (dados en parámetros) y los modelos más grandes tienen un mejor rendimiento en una prueba comparativa de LLM estándar. IEEE Spectrum Para explicar el proceso de entrenamiento en términos un poco más técnicos, el texto en los datos de entrenamiento se divide en elementos llamados tokens, que son palabras o fragmentos de palabras, pero para simplificar, digamos que todos los tokens son palabras. A medida que el modelo revisa las oraciones en sus datos de entrenamiento y aprende las relaciones entre los tokens, crea una lista de números, llamada vector, para cada uno. Todos los números del vector representan varios aspectos de la palabra: sus significados semánticos, su relación con otras palabras, su frecuencia de uso, etc. Palabras similares, como elegante y elegante, tendrán vectores similares y también estarán cerca unas de otras en el espacio vectorial. Estos vectores se denominan incrustaciones de palabras. Los parámetros de un LLM incluyen los pesos asociados con todas las incrustaciones de palabras y el mecanismo de atención. Se rumorea que GPT-4, el modelo OpenAI que se considera el campeón actual, tiene más de 1 billón de parámetros. Con suficientes datos y tiempo de formación, el LLM comienza a comprender las sutilezas del lenguaje. Si bien gran parte de la capacitación implica mirar el texto oración por oración, el mecanismo de atención también captura las relaciones entre palabras a lo largo de una secuencia de texto más larga de muchos párrafos. Una vez que un LLM está capacitado y listo para su uso, el mecanismo de atención todavía está en juego. Cuando el modelo genera texto en respuesta a un mensaje, utiliza sus poderes de predicción para decidir cuál debería ser la siguiente palabra. Al generar fragmentos de texto más largos, predice la siguiente palabra en el contexto de todas las palabras que ha escrito hasta ahora; esta función aumenta la coherencia y continuidad de su escritura. ¿Por qué alucinan los modelos de lenguaje grandes? Es posible que haya escuchado que los LLM a veces «alucinan». Es una forma educada de decir que inventan cosas de manera muy convincente. A veces, un modelo genera texto que se ajusta al contexto y es gramaticalmente correcto, pero el material es erróneo o carece de sentido. Este mal hábito surge de la capacitación de los LLM sobre grandes cantidades de datos extraídos de Internet, muchos de los cuales no son objetivamente exactos. Dado que el modelo simplemente intenta predecir la siguiente palabra en una secuencia basándose en lo que ha visto, puede generar un texto que suene plausible y que no tiene base en la realidad. ¿Por qué es controvertida la IA generativa? Una fuente de controversia para la IA generativa es la procedencia de sus datos de entrenamiento. La mayoría de las empresas de inteligencia artificial que entrenan modelos grandes para generar texto, imágenes, videos y audio no han sido transparentes sobre el contenido de sus conjuntos de datos de entrenamiento. Varias filtraciones y experimentos han revelado que esos conjuntos de datos incluyen material protegido por derechos de autor, como libros, artículos de periódicos y películas. Se están llevando a cabo una serie de demandas para determinar si el uso de material protegido por derechos de autor para entrenar sistemas de IA constituye un uso legítimo o si las empresas de IA deben pagar a los titulares de los derechos de autor por el uso de su material. En una nota relacionada, a muchas personas les preocupa que el uso generalizado de la IA generativa quite puestos de trabajo a los humanos creativos que hacen arte, música, obras escritas, etc. Y también, posiblemente, de humanos que realizan una amplia gama de trabajos administrativos, incluidos traductores, asistentes legales, representantes de servicio al cliente y periodistas. Ya ha habido algunos despidos preocupantes, pero aún es difícil decir si la IA generativa será lo suficientemente confiable para aplicaciones empresariales a gran escala. (Ver más arriba sobre las alucinaciones). Finalmente, existe el peligro de que la IA generativa se utilice para crear cosas malas. Y, por supuesto, hay muchas categorías de cosas malas para las que teóricamente podrían usarse. La IA generativa se puede utilizar para estafas personalizadas y ataques de phishing: por ejemplo, mediante la “clonación de voz”, los estafadores pueden copiar la voz de una persona específica y llamar a la familia de esa persona para pedir ayuda (y dinero). Todos los formatos de IA generativa (texto, audio, imagen y video) pueden usarse para generar información errónea mediante la creación de representaciones aparentemente plausibles de cosas que nunca sucedieron, lo cual es una posibilidad particularmente preocupante cuando se trata de elecciones. (Mientras tanto, como informó Spectrum esta semana, la Comisión Federal de Comunicaciones de EE. UU. respondió prohibiendo las llamadas automáticas generadas por IA). Las herramientas de generación de imágenes y videos pueden usarse para producir pornografía no consensuada, aunque las herramientas fabricadas por las principales empresas no permiten ese uso. Y, en teoría, los chatbots pueden guiar a un posible terrorista a través de los pasos necesarios para fabricar una bomba, gas nervioso y una serie de otros horrores. Aunque los grandes LLM tienen salvaguardas para evitar ese uso indebido, algunos piratas informáticos disfrutan eludiendo esas salvaguardas. Es más, existen versiones «sin censura» de LLM de código abierto. A pesar de estos problemas potenciales, mucha gente piensa que la IA generativa también puede hacer que las personas sean más productivas y podría usarse como una herramienta para permitir formas de creatividad completamente nuevas. Probablemente veremos tanto desastres como florecimientos creativos y muchas otras cosas que no esperamos. Pero hoy en día, conocer los conceptos básicos de cómo funcionan estos modelos es cada vez más crucial para las personas conocedoras de la tecnología. Porque no importa cuán sofisticados crezcan estos sistemas, es trabajo de los humanos mantenerlos en funcionamiento, mejorar los siguientes y, con un poco de suerte, ayudar a las personas también.

Source link

Un nuevo artículo de Google afirma que la IA tiene sus propias limitaciones

Tres investigadores de Google publicaron recientemente un artículo sobre ArXiv sobre el progreso de la IA. El artículo informa que el transformador de red neuronal profunda, la tecnología subyacente en el campo de la IA, no es bueno para generalizar. Los transformadores son la base de grandes modelos de lenguaje detrás de herramientas de inteligencia artificial como ChatGPT. En el nuevo artículo, los autores Steve Yadlowsky, Lyric Doshi y Nilesh Tripuraneni escribieron: “Los transformadores exhiben varios modos de falla cuando una tarea o función requiere algo más allá del alcance de los datos previamente entrenados. El informe afirma que la IA puede encontrar difíciles de ejecutar tareas simples si están más allá de su entrenamiento. Sin embargo, los transformadores de redes neuronales profundas son buenos para realizar tareas relacionadas con datos de entrenamiento y no son muy buenos para manejar tareas más allá de este alcance. Para aquellos que esperan lograr la Inteligencia General Artificial (AGI), esta cuestión no puede ignorarse. AGI es un término utilizado por los tecnólogos para describir una IA hipotética que puede hacer cualquier cosa que un humano pueda hacer. Tal como está, la IA es muy buena para realizar tareas específicas, pero no transfiere habilidades entre dominios como lo hacen los humanos. Pedro Domingos, profesor emérito de ciencias informáticas e ingeniería de la Universidad de Washington, dijo que la nueva investigación significa que «en este momento, no deberíamos obsesionarnos demasiado con la IA que se avecina». AGI se promociona como el objetivo final de la IA. En teoría, esto representa la creación de algo tan inteligente o más inteligente que nosotros. Muchos inversores y tecnólogos están invirtiendo mucho tiempo y energía en esto. El lunes, el director ejecutivo de OpenAI, Sam Altman, subió al escenario con el director ejecutivo de Microsoft, Satya Nadella, y reiteró su visión de «colaborar para construir AGI». Aún lejos del objetivo. Lograr este objetivo significa pedirle a la IA que realice muchas de las tareas inductivas que el cerebro humano puede realizar. Esto incluye adaptarse a escenarios desconocidos, crear analogías, procesar nuevos datos y pensar de forma abstracta. Pero, como señala el artículo, si la tecnología tiene dificultades para lograr incluso “tareas simples”, entonces claramente todavía estamos lejos de la meta. El profesor de informática de la Universidad de Princeton, Arvind Narayanan, dijo que muchas personas han aceptado las limitaciones de la IA. Sin embargo, también dice “Es hora de despertar”. Jin Fan, científico senior de inteligencia artificial de NVIDIA, cuestionó por qué los hallazgos de este artículo sorprenderían a la gente porque “los transformadores no son una panacea en primer lugar”. Domingos dijo que el estudio destaca cómo «mucha gente está muy confundida» acerca del potencial de una tecnología que se ha promocionado como un camino hacia la AGI. Noticias de la semana de Gizchina Añadió: «Este es un artículo que se acaba de publicar y lo interesante es quién se sorprenderá y quién no». Si bien Domingos reconoce que los transformadores son tecnología avanzada, cree que muchas personas piensan que estas redes neuronales profundas son mucho más poderosas de lo que realmente son. “El problema es que las redes neuronales son muy opacas. Estos grandes modelos de lenguaje se entrenan con cantidades de datos inimaginablemente grandes. Esto deja a mucha gente muy confundida acerca de lo que pueden y no pueden hacer”, afirmó. «Están empezando a pensar que siempre se pueden hacer milagros». Agrega cuotas y límites Según Google, la IA tiene ciertas cuotas y límites que se le aplican. Estas cuotas restringen la cantidad de un recurso compartido de Google Cloud en particular que puede usar su proyecto de Google Cloud. Por ejemplo, los máximos del conjunto de datos de entrenamiento son 30 000 documentos y 100 000 páginas. Además, el mínimo del conjunto de datos de entrenamiento es cada etiqueta en al menos 10 documentos. Estas cuotas se aplican a cada proyecto de Google Cloud Console. También se comparten entre todas las aplicaciones y direcciones IP que utilizan ese proyecto. La aceleración de Google en el desarrollo de la IA se produce como una cacofonía de voces. Esto incluye a notables ex alumnos de la empresa y veteranos de la industria que piden que los desarrolladores de IA disminuyan la velocidad. Advierten que la tecnología se está desarrollando más rápido de lo que incluso sus inventores anticiparon. Geoffrey Hinton, uno de los pioneros de la tecnología de inteligencia artificial que se unió a Google en 2013 y recientemente dejó la compañía, desde entonces ha lanzado una campaña mediática advirtiendo sobre los peligros de que la inteligencia artificial superinteligente escape al control humano. Pichai y otros ejecutivos han comenzado a hablar cada vez más sobre la perspectiva de que la tecnología de IA iguale o supere la inteligencia humana, un concepto conocido como inteligencia artificial general o AGI. El término que alguna vez fue marginal, asociado con la idea de que la IA representa un riesgo existencial para la humanidad, es central para la misión de OpenAI y ha sido adoptado por DeepMind pero evitado por los altos mandos de Google. Limitaciones de la gobernanza de la IA Existen límites técnicos en cuanto a lo que actualmente es factible para los sistemas complejos de IA. Con suficiente tiempo y experiencia, normalmente es posible obtener una idea de cómo funcionan los sistemas complejos. Sin embargo, en la práctica, hacerlo rara vez será económicamente viable a escala. Además, los requisitos estrictos pueden bloquear inadvertidamente la adopción de sistemas de inteligencia artificial. Desde una perspectiva de gobernanza, la IA plantea un desafío único tanto en la formulación como en el cumplimiento de regulaciones y normas. Por último, simplemente existe una sensación cada vez mayor de que ha llegado el momento de adoptar un enfoque más coherente en la supervisión de la IA. Dada la cultura de investigación abierta en el campo de la IA, es necesario un enfoque integral para la gobernanza de la IA. Esto es más necesario debido a los componentes funcionales más altos y al creciente número de aplicaciones de inteligencia artificial. Palabras finales La IA ha logrado avances significativos en los últimos años, pero aún no está lista para superar a los humanos. Todavía existen muchas limitaciones para la IA, incluidas cuotas y límites, limitaciones de las explicaciones de la IA y limitaciones de la gobernanza de la IA. A medida que la IA continúa desarrollándose, es importante tener en cuenta estas limitaciones.

Source link

Funciona con WordPress & Tema de Anders Norén