Todo lo que necesitas saber sobre tecnología

Etiqueta: GPT-3

¿Es ‘Copilot’ de IA un término genérico o una marca?

El término «copiloto» para los asistentes de IA parece estar en todas partes en el software empresarial actual. Como muchas cosas en la industria de la IA generativa, la forma en que se usa la palabra está cambiando. A veces se escribe con mayúscula y otras no. La elección de Copilot por parte de GitHub como marca fue el primer uso importante, seguido de que Microsoft nombrara a su asistente insignia de IA Copilot. Luego, el término copiloto rápidamente se volvió genérico. En el uso común, un copiloto de IA es un asistente de IA generativa, generalmente un modelo de lenguaje grande entrenado para una tarea específica. La confusión sobre un término podría llevar a que algunos clientes no sepan si lo que están adquiriendo es un producto de Microsoft, por ejemplo. Pero Microsoft no parece estar buscando apropiarse de la palabra copiloto, como la usan muchas otras compañías. El término copiloto se originó en el vuelo e implica una mano derecha competente para un profesional altamente calificado. Esto es lo que necesita saber sobre algunas de las muchas variedades de copiloto de IA. ¿Qué es el copiloto de Microsoft? Microsoft Copilot es un término general para una variedad de productos de IA generativa y chatbot que ahora están disponibles en todo el software de productividad de Microsoft. Para los usuarios empresariales, tenemos una guía para diferenciar las diversas iteraciones de Microsoft Copilot y las nuevas funciones e integraciones de Copilot. Microsoft utiliza dos construcciones para los nombres de productos Copilot: «en» o «para». En la hoja de trucos de TechRepublic sobre Microsoft Copilot, tenga en cuenta Copilot para seguridad y Copilots para finanzas, ventas y servicios, que probablemente se compren por separado para usos o departamentos específicos. Este es un caso interesante en el que Microsoft usa su propia marca de dos maneras a la vez (incluso después de todo el cambio de nombre de Copilot): los Copilots ofrecen capacidades muy similares, pero más específicas de la industria, en comparación con los Copilots en, por ejemplo. Por ejemplo, Copilot en Word puede ayudar con cualquier tarea de escritura, mientras que Copilot for Security se integra con productos de seguridad específicos. VER: Copilot en Bing solía llamarse Bing Chat antes de que Microsoft unificara un poco sus marcas. (TechRepublic) ¿Qué es GitHub Copilot? GitHub lanzó su producto Copilot en 2021 (GitHub ya había sido adquirido por Microsoft en ese momento). GitHub Copilot genera código basado en el código existente de un desarrollador; Está pensado como una versión AI de la programación en pareja. El GitHub Copilot original se construyó sobre OpenAI Codex, una variante del entonces actual GPT-3. GitHub cerró el círculo de la IA generativa con la incorporación de un chatbot a su versión más reciente, GitHub Copilot X. Más cobertura de IA de lectura obligada Microsoft Copilot vs GitHub Copilot Microsoft Copilot y GitHub Copilot tienen diferentes casos de uso principales. GitHub Copilot es específicamente para codificar, mientras que Microsoft Copilot se integra con una gran cantidad de software empresarial diferente. GitHub Copilot lee código, no lenguaje natural, y lo integra en un editor de código; Microsoft Copilot utiliza lenguaje natural y se integra con una variedad de productos de Microsoft. Por otro lado, Microsoft Copilot se puede utilizar para escribir código en algunos casos, como en Power Pages cuando se integra con Visual Studio Code. Microsoft Copilot para empresas comienza en $30,00 por usuario por mes con una licencia de Microsoft 365 Business Standard o Microsoft 365 Business Premium. GitHub Copilot comienza en $10 por usuario por mes. ¿Cuáles son otros productos Copilot? Salesforce no es un defensor de Microsoft de Copilot como marca. Einstein Copilot, lanzado en febrero de 2024, funciona en las ofertas de software como servicio de gestión de relaciones con clientes, inteligencia artificial y nube de datos de Salesforce. La empresa de software de automatización de procesos empresariales Appian llama Copilot a su compañero de IA generativa. Una empresa de software de prospección de ventas se llamó Copilot AI, pero no vende un robot de IA generativa; en cambio, ofrece respuestas predictivas a las conversaciones y campañas de LinkedIn. Hay muchas más empresas que utilizan Copilot para indicar un impulso generativo de IA para sus servicios. VER: Hay varias razones por las que las empresas o los usuarios individuales podrían querer desactivar las funciones de Microsoft Copilot que vienen con Windows 11. (TechRepublic) ¿Se puede utilizar copiloto como término genérico? Por ahora, “copilot” es una palabra flexible para productos de chatbot de IA genéricos y específicos de marca para usos comerciales específicos. Por ejemplo, Microsoft Copilot es un copiloto. A qué se refiere «copiloto» o cómo se denomina un chatbot de IA puede ser diferente según la organización. Los usos comunes del término indican el período del Salvaje Oeste de la IA en el que nos encontramos, y muestran que los profesionales todavía están trabajando en formas de utilizar la IA generativa para los negocios y que la IA generativa se está asentando en un papel de «asistente» en forma de chatbots personalizados. a productos y aplicaciones específicos. Probablemente verá la palabra copiloto escrita en minúsculas para indicar la versión genérica de los asistentes de IA. Las personas que crean la infraestructura Copilot en mayúsculas también han adoptado la versión genérica del término: el CEO de NVIDIA, Jensen Huang, utilizó copiloto como término genérico en NVIDIA GTC, al igual que muchas empresas en la sala de exposiciones de la conferencia. Otras empresas parecen mantenerse alejadas del término: IBM llama Asistente a su compañero de IA watsonx, al igual que Databricks con su Asistente Databricks.

Source link

El primer LLM verdaderamente abierto y adaptado a instrucciones del mundo por menos de 30 $

Free Dolly 2.0: el primer LLM verdaderamente abierto y ajustado a instrucciones del mundo por menos de 30 $ Dolly 2.0 es un popular modelo de aprendizaje profundo utilizado en el campo de la visión por computadora para tareas de segmentación de imágenes y detección de objetos. El modelo es de código abierto y se puede descargar y configurar de forma gratuita. En este artículo, recorreremos el proceso de instalación y configuración del modelo Free Dolly 2.0. Paso 1: Requisitos Antes de comenzar el proceso de instalación, asegúrese de que su sistema cumpla con los siguientes requisitos: GPU NVIDIA con un mínimo de 4 GB de memoria. CUDA 10.0 o superior. CUDNN 7.5 o superior. Python 3.6 o superior. TensorFlow 2.3 o superior. Paso 2: descargue el modelo Free Dolly 2.0. El modelo Free Dolly 2.0 se puede descargar desde el repositorio oficial de GitHub. Navegue hasta el repositorio y haga clic en el botón «Clonar o descargar». Puede descargar el archivo ZIP o clonar el repositorio usando el siguiente comando: git clone https://github.com/thtrieu/darkflow.git Paso 3: Instalar dependencias Una vez que haya descargado el modelo Free Dolly 2.0, deberá instalarlo. sus dependencias. Abra una ventana de terminal y navegue hasta el directorio donde descargó el modelo. Ejecute el siguiente comando para instalar las dependencias: pip install -r requisitos.txt Paso 4: Compile el modelo Free Dolly 2.0 Después de instalar las dependencias, debe compilar el modelo Free Dolly 2.0. Este paso es necesario para convertir el modelo del formato TensorFlow al formato Darkflow. Ejecute el siguiente comando en la ventana de terminal: python setup.py build_ext –inplace Paso 5: Descargue los pesos previamente entrenados El modelo Free Dolly 2.0 requiere pesos previamente entrenados para realizar tareas de detección de objetos. Puede descargar las pesas previamente entrenadas desde el siguiente enlace: https://pjreddie.com/media/files/yolov2.weights Una vez que haya descargado las pesas previamente entrenadas, colóquelas en el mismo directorio donde descargó el software gratuito. Modelo Dolly 2.0. Paso 6: Configurar el modelo Free Dolly 2.0 Ahora que ha descargado y compilado el modelo Free Dolly 2.0, necesita configurarlo. Abra el archivo de configuración cfg/yolo.cfg en un editor de texto. Este archivo contiene los parámetros de configuración del modelo. Puede modificar los siguientes parámetros para personalizar el modelo: lote: el número de imágenes a procesar a la vez. subdivisiones: el número de subdivisiones por lote. ancho: El ancho de la imagen de entrada. altura: la altura de la imagen de entrada. canales: el número de canales de color en la imagen de entrada. impulso: El impulso del optimizador. decaimiento: El decaimiento del optimizador. learning_rate: la tasa de aprendizaje del optimizador. Asegúrese de guardar los cambios después de modificar el archivo de configuración. Paso 7: Pruebe el modelo Free Dolly 2.0 Para probar el modelo Free Dolly 2.0, abra una ventana de terminal y navegue hasta el directorio donde descargó el modelo. Ejecute el siguiente comando para probar el modelo: python flow –model cfg/yolo.cfg –load yolov2.weights –imgdir sample_img/ Este comando ejecutará el modelo Free Dolly 2.0 en las imágenes de muestra proporcionadas en el directorio sample_img. Si todo está configurado correctamente, debería ver el resultado del modelo en la ventana de la terminal. Paso 8: Utilice el modelo Free Dolly 2.0 Ahora que ha instalado y probado el modelo Free Dolly 2.0, puede utilizarlo para realizar tareas de detección de objetos en sus propias imágenes o vídeos. Para hacerlo, siga estos pasos: Paso 8: Prepare los datos de entrada El modelo Free Dolly 2.0 requiere datos de entrada en forma de imágenes o videos. Asegúrese de que sus datos de entrada estén en un formato que sea compatible con el modelo. Puede utilizar cualquier software de edición de imágenes o vídeos para preparar los datos de entrada. Paso 9: Ejecute el modelo Dolly 2.0 gratuito Abra una ventana de terminal y navegue hasta el directorio donde descargó el modelo. Ejecute el siguiente comando para ejecutar el modelo en sus datos de entrada: Paso 10: Analizar la salida Una vez que el modelo haya terminado de ejecutarse, puede analizar la salida para identificar objetos en los datos de entrada. La salida del modelo se guardará en el directorio de salida. Puede utilizar cualquier software de edición de imágenes o vídeos para ver el resultado. La salida consistirá en cuadros delimitadores alrededor de los objetos que se detectaron en los datos de entrada. Las casillas estarán etiquetadas con el nombre del objeto y la puntuación de confianza. Puede utilizar el resultado para realizar análisis adicionales o crear visualizaciones. Conclusión El modelo Free Dolly 2.0 es una poderosa herramienta para realizar tareas de detección de objetos en visión por computadora. Siguiendo los pasos descritos en este artículo, puede instalar y configurar el modelo en su propio sistema y utilizarlo para analizar imágenes o vídeos. Con un poco de personalización, puede adaptar el modelo para que se adapte a sus necesidades específicas y realizar tareas más complejas.

Source link

Funciona con WordPress & Tema de Anders Norén