Elon Musk ha revelado un nuevo chatbot basado en un modelo de IA generativa que abordará varios modelos de lenguaje importantes, incluidos ChatGPT de OpenAI, PaLM 2 de Google y Claude 2 de Anthropic. El chatbot, que ha sido bautizado como Grok AI, fue desarrollado por xAI, una empresa generativa. Empresa de inteligencia artificial lanzada por Musk en julio para hacer que un modelo de inteligencia artificial comprenda la verdadera naturaleza del universo para hacerlo más seguro. «Grok es una IA modelada según la ‘Guía del autoestopista galáctico’, por lo que pretende responder casi cualquier cosa y, mucho más difícil, incluso sugerir qué preguntas hacer», publicó el equipo de xAI en su sitio web. El equipo dijo además que Grok tiene ha sido diseñado de tal manera que responde cualquier pregunta con un poco de ingenio y «tiene una vena rebelde». Además, el equipo dijo que Grok tiene acceso a Twitter, ahora X, lo que le permite aprender de todo el contenido que se publica. en la plataforma. “También responderá preguntas interesantes que son rechazadas por la mayoría de los otros sistemas de IA”, escribió el equipo de xAI. Sin embargo, el equipo advirtió que el chatbot es un “producto beta muy temprano” y se presentó con solo dos meses de capacitación. Se espera que el modelo detrás de Grok mejore «rápidamente» cada paso débil, afirmó el equipo. Grok-1 supera a GPT-3.5 pero no supera a GPT-4. Grok-1, que es el motor detrás de Grok, se puede utilizar para el procesamiento del lenguaje natural. tareas que incluyen respuesta a preguntas, recuperación de información, escritura creativa y asistencia en codificación, según el equipo de xAI. “Si bien Grok-1 sobresale en el procesamiento de información, es crucial que humanos revisen el trabajo de Grok-1 para garantizar la precisión. El modelo de lenguaje Grok-1 no tiene la capacidad de buscar en la web de forma independiente”, dijo el equipo, y agregó que las herramientas de búsqueda y las bases de datos mejoran las capacidades y la factibilidad del modelo cuando se implementa en Grok. “El modelo aún puede alucinar, a pesar de la acceso a fuentes de información externas”, advirtió el equipo. Para desarrollar Grok-1, el equipo de xAI primero entrenó un prototipo de modelo de lenguaje grande (LLM), denominado Grok-0 con 33 mil millones de parámetros. El modelo Grok-0 funcionó cerca de El modelo LLaMA 2 de Meta que ha sido entrenado con 70 mil millones de parámetros. Luego, el primer modelo fue entrenado y mejorado para producir Grok-1. El equipo de xAI también realizó pruebas comparativas para comparar el rendimiento de Grok-1 con los modelos PaLM 2, Claude 2, Inflection-1, LLaMA 2, GPT-3.5 y GPT-4. Estas pruebas de referencia incluyen problemas de matemáticas de la escuela secundaria, preguntas multidisciplinarias de opción múltiple y tareas de finalización de código Python. En estas pruebas de referencia, Grok-1 superó el rendimiento de todos los demás modelos, excepto GPT-4, que, según la compañía, ha sido entrenado en un «significativamente mayor cantidad de datos de entrenamiento y recursos informáticos”. El chatbot Grok AI, según la compañía, se ofrece actualmente a un número limitado de usuarios en los EE. UU. Los usuarios que estén interesados ​​en probar Grok AI pueden inscribirse en una lista de espera, dijo el equipo, y agregó que tiene planes de lanzar el chatbot a todos los usuarios X que tengan una suscripción. La seguridad de la IA sigue siendo una preocupación importante. La decisión de Musk de lanzar xAI Posteriormente, muchos pudieron considerar que Grok AI contradecía sus comentarios anteriores. El director ejecutivo de SpaceX y Tesla firmó una carta en mayo junto con otros miembros del Centro para la Seguridad de la IA en la que advertían que la evolución de la IA podría conducir a un evento de extinción y sugerían que controlar la tecnología debería ser una máxima prioridad global. Sin embargo, Musk también contratado al director del Centro para la Seguridad de la IA, Dan Hendrycks, para formar parte del equipo asesor de xAI. Varios países han tomado conocimiento de los posibles problemas o desafíos que podrían surgir de un mayor desarrollo de la IA. La semana pasada, China y EE. UU., junto con varios otros países incluidos la UE, Australia, India, Alemania y Francia, firmaron un acuerdo, denominado Declaración de Bletchley, en la Cumbre de Seguridad de la IA del Reino Unido para formar una línea de pensamiento común que supervisaría la evolución de la IA y garantizaría que la tecnología avance de forma segura. OpenAI, creador de ChatGPT, también dijo la semana pasada que estaba preparando un equipo para evitar que lo que la compañía llama modelos de inteligencia artificial fronterizos inicie una guerra nuclear y otras amenazas. La administración del presidente de Estados Unidos, Joe Biden, también emitió durante la semana una orden ejecutiva largamente esperada que estableció reglas claras y medidas de supervisión para garantizar que la IA se mantenga bajo control, al tiempo que proporciona un camino para su crecimiento. Copyright © 2023 IDG Communications, Inc.

Source link