Moonshot AI, una startup de inteligencia artificial fundada en China hace un año, ha reducido rápidamente la brecha con ERNIE Bot de su rival Baidu en términos de usuarios después de actualizar su modelo de lenguaje grande Kimi para poder manejar entradas de texto de hasta dos millones de palabras chinas en Marzo. Según una encuesta realizada por el sitio web de datos AIcpb, Kimi vio que el tráfico combinado de su sitio web y aplicaciones superó los 12,6 millones de visitas el mes pasado, lo que llevó su clasificación al segundo lugar detrás del chatbot de Baidu, que recibió 2,29 millones de visitas más. Por qué es importante: La cuadruplicación del recuento de visitas de Kimi en marzo significó que la herramienta similar a ChatGPT superó al competidor de Alibaba, Tongyi Qianwen. Su capacidad para manejar mensajes de texto largos está alimentando la popularidad de Kimi entre los usuarios, generando esperanzas entre sus partidarios de que pronto romperá el dominio de meses de Baidu en la primera posición en el sector de IA de China. Detalles: Moonshot se centra en entradas y salidas de textos más extensos, un nuevo campo de batalla para las empresas chinas de LLM. Alibaba abrió una función gratuita de procesamiento de documentos largos que puede manejar 10 millones de caracteres luego de la actualización de Kimi, mientras que Baidu planea admitir conversaciones de texto más largas a finales de este mes. Menos de 72 horas después de que Kimi afirmara haber logrado un avance tecnológico en el manejo de 2 millones de caracteres chinos, el chatbot experimentó una interrupción del servicio. La empresa atribuyó el fallo, que duró al menos dos días, a «un aumento anormal en el tráfico del sistema que excedía con creces la capacidad del sistema», mientras los usuarios se apresuraban a probar la nueva característica. En una entrevista reciente con Tencent Technology, el fundador de Moonshot, Yang Zhilin, señaló que desde el inicio de la empresa se decidió centrarse en textos largos. «Es fundamental», dijo Yang, señalando que el valor central de la IA radica en la interacción personalizada, que, en su opinión, se logra mejor no a través de ajustes finos, sino apoyando contextos más amplios. También dijo que si bien hay un “espacio significativo” para ampliar la longitud del texto, centrarse únicamente en los números “no tiene sentido”. En cambio, lo que importa es el razonamiento, la fidelidad y seguir instrucciones claras. Contexto: Según se informa, Moonshot AI recaudó más de mil millones de dólares en financiación a principios de este año de accionistas existentes como Alibaba, Sequoia China y Xiaohongshu, lo que supone la mayor financiación de ronda única para una gran empresa china de modelos de IA hasta la fecha. La empresa recaudó casi 2.000 millones de RMB (277 millones de dólares) el año pasado. Cheyenne Dong es una reportera de tecnología que ahora reside en Shanghai. Cubre el comercio electrónico y el comercio minorista, la inteligencia artificial y la cadena de bloques. Conéctese con ella por correo electrónico: cheyenne.dong[a]technode.com. Más de Cheyenne Dong
Etiqueta: ChatGPT Página 1 de 3

ChatGPT es uno de los chatbots de IA generativa más populares. Es una buena herramienta para muchas tareas, especialmente ahora que no requiere iniciar sesión para funcionar. También podría utilizar Copilot de Microsoft (basado en ChatGPT), Gemini de Google o Claude de Anthrophic para experiencias similares. Estos modelos de IA pueden comprender sus indicaciones de texto y/o voz y proporcionar respuestas a sus preguntas. Y pueden ayudar con tareas más complejas, como generar código. Además, contamos con programas de inteligencia artificial basados en texto que pueden generar y editar imágenes. O herramientas que pueden crear música a partir de indicaciones. La cuestión es que GenAI ha evolucionado tanto en poco más de un año que hay muchos productos para elegir. La mayoría de estos productos GenAI están disponibles de forma gratuita. Para acceder a los últimos modelos de idiomas grandes y a las funciones más recientes, es posible que necesite una suscripción paga. Tecnología. Entretenimiento. Ciencia. Tu bandeja de entrada. Suscríbete para recibir las noticias de tecnología y entretenimiento más interesantes que existen. Al registrarme, acepto los Términos de uso y he revisado el Aviso de privacidad. Entonces, ¿cómo encuentras la herramienta adecuada para ti? Bueno, hay un sitio web llamado What AI Can Do Today que puede ayudar con eso. Cómo funciona What AI Can Do Today Los creadores utilizaron la IA (GPT-4 de OpenAI que impulsa ChatGPT Plus) para analizar más de 5.800 herramientas de IA y enumerar más de 30.000 tareas que la IA puede realizar hoy. Esas cifras son precisas al momento de escribir este artículo y es probable que la lista solo crezca en el futuro. El sitio web tiene una interfaz sencilla. Recibirá un mensaje de texto en el medio de la pantalla donde puede hacer sus preguntas. Se parece a la Búsqueda de Google, por así decirlo. Sin embargo, la búsqueda se centrará en las capacidades de IA disponibles en uno de esos miles de programas de IA que analizó What AI Can Do Today. También obtiene una lista de sugerencias con enlaces a programas o herramientas de IA que puede utilizar de inmediato. También hay un botón que le ayuda a filtrar las herramientas de IA por categoría, con más de 100 elementos. Estoy buscando una herramienta de IA que pueda editar imágenes con indicaciones en este ejemplo. Fuente de la imagen: ¿Qué puede hacer Al hoy? Dado que OpenAI acaba de agregar soporte de edición de imágenes Dall-E a ChatGPT Plus, utilicé Qué puede hacer la IA hoy para encontrar herramientas de inteligencia artificial que me permitan editar imágenes con indicaciones. Me dio una gran lista de ideas, aunque la característica más nueva de ChatGPT Plus no apareció de inmediato. Le di al sitio web un conjunto de instrucciones más largo, «generar imágenes y luego editarlas con indicaciones», y rápidamente proporcionó una nueva lista de herramientas. Luego recurrí a algo completamente diferente, preguntando qué puede hacer la IA hoy para obtener programas de IA que puedan ayudar. con consejo médico. Los resultados volvieron a aparecer en la pantalla en cuestión de segundos. El punto es que puedes probar todo tipo de consultas y ver cuál funciona para ti. Se necesitará prueba y error, y estoy seguro de que no todos los resultados que puede ofrecer What AI Can Do Today serán útiles. También señalaré que el sitio web admite envíos pagos de productos de IA a través de su sitio principal, Awesome AI Tools. Pero el sitio web podría ser una buena herramienta a tener en cuenta. Tal vez comience su viaje hacia la IA aquí… Tal vez sería mejor intentar usar ChatGPT, Gemini, Copilot o Claude para abordar su pregunta principal antes de usar un sitio web como What AI Can. Hacer hoy. Estos principales modelos de IA deberían poder proporcionar algunas respuestas decentes a cualquier pregunta y dirigirlo a otros recursos. Por último, recuerde que ChatGPT Plus y Microsoft Copilot admiten GPT personalizados que se centran en tareas específicas. Si tiene acceso a esta funcionalidad, es otra vía que puede probar antes de ir a Qué puede hacer la IA hoy. Sin embargo, recuerde que los productos GenAI aún alucinan y pueden producir información engañosa. Ese es un problema para todos los chatbots de IA generativa, sin importar cómo llegues a ellos. Cuanto más experimentado sea un usuario de IA, más fácil será interactuar con la IA y elegir qué productos usar. Dicho esto, aún puedes marcar Lo que la IA puede hacer hoy como otro recurso de IA que podría ayudarte en un aprieto.

La alta dirección está más familiarizada con las tecnologías de inteligencia artificial que su personal de seguridad y TI, según un informe de Cloud Security Alliance encargado por Google Cloud. El informe, publicado el 3 de abril, abordó si los profesionales de TI y seguridad temen que la IA reemplace sus trabajos, los beneficios y desafíos del aumento de la IA generativa y más. De los profesionales de TI y seguridad encuestados, el 63 % cree que la IA mejorará la seguridad dentro de su organización. Otro 24% es neutral sobre el impacto de la IA en las medidas de seguridad, mientras que el 12% no cree que la IA mejore la seguridad dentro de su organización. De las personas encuestadas, sólo unos pocos (12%) predicen que la IA reemplazará sus puestos de trabajo. La encuesta utilizada para crear el informe se realizó a nivel internacional, con respuestas de 2486 profesionales de seguridad y TI y líderes de la alta dirección de organizaciones de toda América, APAC y EMEA en noviembre de 2023. Los profesionales de ciberseguridad que no ocupan puestos de liderazgo son menos claros que los altos directivos. sobre posibles casos de uso de la IA en ciberseguridad, y solo el 14% del personal (en comparación con el 51% de los niveles C) dicen que son «muy claros». «La desconexión entre la alta dirección y el personal a la hora de comprender e implementar la IA resalta la necesidad de un enfoque estratégico y unificado para integrar con éxito esta tecnología», dijo Caleb Sima, presidente de la Iniciativa de Seguridad de IA de Cloud Security Alliance, en un comunicado de prensa. Algunas preguntas del informe especificaban que las respuestas debían estar relacionadas con la IA generativa, mientras que otras preguntas utilizaban el término «IA» de manera amplia. Los profesionales de nivel C enfrentan presiones de arriba hacia abajo que pueden haberlos llevado a ser más conscientes de los casos de uso de la IA que los profesionales de la seguridad. Muchos (82%) profesionales de la alta dirección dicen que su liderazgo ejecutivo y sus juntas directivas están presionando para que se adopte la IA. Sin embargo, el informe afirma que este enfoque podría causar problemas de implementación en el futuro. «Esto puede resaltar una falta de apreciación de la dificultad y el conocimiento necesarios para adoptar e implementar una tecnología tan única y disruptiva (por ejemplo, ingeniería rápida)», escribió la autora principal Hillary Baron, directora técnica senior de investigación y análisis de Cloud Security Alliance. y un equipo de colaboradores. Hay algunas razones por las que podría existir esta brecha de conocimiento: los profesionales de la ciberseguridad pueden no estar tan informados sobre la forma en que la IA puede afectar la estrategia general. Los líderes pueden subestimar lo difícil que podría ser implementar estrategias de IA dentro de las prácticas de ciberseguridad existentes. Los autores del informe señalan que algunos datos (Figura A) indican que los encuestados están tan familiarizados con la IA generativa y los grandes modelos de lenguaje como con términos más antiguos como procesamiento del lenguaje natural y aprendizaje profundo. Figura A Respuestas a la instrucción «Califique su familiaridad con las siguientes tecnologías o sistemas de IA». Imagen: Cloud Security Alliance Los autores del informe señalan que el predominio de la familiaridad con términos más antiguos, como procesamiento del lenguaje natural y aprendizaje profundo, podría indicar una combinación entre la IA generativa y herramientas populares como ChatGPT. «Es la diferencia entre estar familiarizado con las herramientas GenAI de nivel de consumidor versus el nivel profesional/empresarial lo que es más importante en términos de adopción e implementación», dijo Baron en un correo electrónico a TechRepublic. «Eso es algo que estamos viendo en general en todos los ámbitos con los profesionales de seguridad en todos los niveles». ¿La IA reemplazará los trabajos de ciberseguridad? Un pequeño grupo (12%) de profesionales de la seguridad cree que la IA sustituirá por completo sus puestos de trabajo en los próximos cinco años. Otros son más optimistas: el 30% cree que la IA les ayudará a mejorar partes de sus habilidades. El 28% predice que la IA los apoyará en general en su función actual. El 24% cree que la IA sustituirá gran parte de su función. El 5% espera que la IA no afecte en absoluto su función. Los objetivos de las organizaciones para la IA reflejan esto: el 36% busca que la IA mejore las habilidades y el conocimiento de los equipos de seguridad. El informe señala una discrepancia interesante: aunque mejorar las habilidades y los conocimientos es un resultado muy deseado, el talento ocupa el último lugar en la lista de desafíos. Esto podría significar que tareas inmediatas, como identificar amenazas, tengan prioridad en las operaciones diarias, mientras que el talento sea una preocupación a más largo plazo. Más cobertura de IA de lectura obligada Beneficios y desafíos de la IA en ciberseguridad El grupo estaba dividido sobre si la IA sería más beneficiosa para los defensores o los atacantes: el 34% considera que la IA es más beneficiosa para los equipos de seguridad. El 31% lo considera igualmente ventajoso tanto para los defensores como para los atacantes. El 25% lo ve más beneficioso para los atacantes. Los profesionales preocupados por el uso de la IA en seguridad citan las siguientes razones: Mala calidad de los datos, lo que genera sesgos no deseados y otros problemas (38%). Falta de transparencia (36%). Brechas de habilidades/experiencia cuando se trata de gestionar sistemas complejos de IA (33%). Intoxicación de datos (28%). Las alucinaciones, la privacidad, la fuga o pérdida de datos, la precisión y el mal uso eran otras opciones de lo que podría preocupar a la gente; Todas estas opciones recibieron menos del 25% de los votos en la encuesta, donde se invitó a los encuestados a seleccionar sus tres principales preocupaciones. VER: El Centro Nacional de Seguridad Cibernética del Reino Unido descubrió que la IA generativa puede mejorar los arsenales de los atacantes. (TechRepublic) Más de la mitad (51%) de los encuestados dijeron “sí” a la pregunta de si les preocupan los riesgos potenciales de una dependencia excesiva de la IA para la ciberseguridad; otro 28% fue neutral. Usos previstos de la IA generativa en la ciberseguridad De las organizaciones que planean utilizar la IA generativa para la ciberseguridad, existe una amplia variedad de usos previstos (Figura B). Los usos comunes incluyen: Creación de reglas. Simulación de ataque. Monitoreo de violaciones de cumplimiento. Detección de red. Reducir los falsos positivos. Figura B Respuestas a la pregunta ¿Cómo planea su organización utilizar la IA generativa para la ciberseguridad? (Seleccione los 3 casos de uso principales). Imagen: Cloud Security Alliance Cómo están estructurando las organizaciones sus equipos en la era de la IA De las personas encuestadas, el 74% dice que sus organizaciones planean crear nuevos equipos para supervisar el uso seguro de la IA en los próximos cinco años. La forma en que se estructuran esos equipos puede variar. Hoy en día, algunas organizaciones que trabajan en la implementación de IA la ponen en manos de su equipo de seguridad (24%). Otras organizaciones otorgan la responsabilidad principal de la implementación de IA al departamento de TI (21%), el equipo de análisis/ciencia de datos (16%), un equipo dedicado de IA/ML (13%) o la alta dirección/liderazgo (9%). En casos más raros, DevOps (8%), equipos multifuncionales (6%) o un equipo que no encajaba en ninguna de las categorías (listado como “otros” en el 1%) asumieron la responsabilidad. VER: Kit de contratación: ingeniero rápido (TechRepublic Premium) «Es evidente que la IA en la ciberseguridad no solo está transformando los roles existentes, sino también allanando el camino para nuevos puestos especializados», escribieron la autora principal Hillary Baron y el equipo de colaboradores. ¿Qué tipo de posiciones? La gobernanza generativa de la IA es un subcampo en crecimiento, dijo Baron a TechRepublic, al igual que la capacitación y la mejora de habilidades centradas en la IA. «En general, también estamos empezando a ver ofertas de trabajo que incluyen roles más específicos de IA, como ingenieros rápidos, arquitectos de seguridad de IA e ingenieros de seguridad», dijo Baron.

Según el último anuncio de OpenAI, ya no es necesario iniciar sesión en su cuenta para utilizar la versión gratuita de ChatGPT. Es decir, puedes visitar el sitio web ahora mismo y empezar a utilizar el asistente de IA. Antes de este anuncio, ChatGPT requería que crearas una cuenta y mantuvieras la sesión iniciada para usar el asistente de IA. Por supuesto, el asistente de IA se encuentra ahora en una etapa diferente a la que estaba en el lanzamiento. En aquel entonces, era una demostración técnica que mostraba las capacidades de los modelos de lenguaje grande (LLM) avanzados. Ahora, es más un producto pulido, que actúa más como un asistente integral de IA que como una demostración técnica. Y con el último anuncio, será aún más fácil acceder a la versión gratuita de ChatGPT. Pero aún está limitado a GPT 3.5 en la versión gratuita de ChatGPT y hay protecciones de contenido adicionales. Una de las preocupaciones que puede tener es que los niños podrán usar ChatGPT sin una cuenta. Esto iría en contra de los términos de servicio, por lo que OpenAI ha implementado una solución. Aunque ChatGPT no requiere ninguna cuenta ahora, tiene protecciones de contenido adicionales. Noticias de la semana de Gizchina Por ejemplo, la versión ChatGPT gratuita y sin cuenta bloqueará más mensajes que considere inadecuados para las respuestas. También bloqueará la generación de respuestas «en una gama más amplia de categorías». Además, la versión sin cuenta todavía está limitada a GPT 3.5. Es el mismo modelo que obtienes en la cuenta gratuita. En comparación con GPT 4 y otros modelos avanzados, GPT 3.5 es conocido por tener una tasa de error relativamente alta. Entonces, aunque ChatGPT podría ser más accesible, todavía no es un sustituto adecuado para la Búsqueda de Google. Pero sí, con esto, OpenAI podría atraer más usuarios a ChatGPT. Además, ahora es comparable a Microsoft Copilot en términos de facilidad de acceso. Pero nuevamente, Microsoft Copilot ofrece GPT 4 gratis. Descargo de responsabilidad: es posible que algunas de las empresas de cuyos productos hablamos nos compensen, pero nuestros artículos y reseñas son siempre nuestras opiniones honestas. Para obtener más detalles, puede consultar nuestras pautas editoriales y conocer cómo utilizamos los enlaces de afiliados.

ChatGPT, el chatbot impulsado por IA que se volvió viral a principios del año pasado y desató una ola de interés en las herramientas de IA generativa, ya no necesita una cuenta para usarlo. Su creador, OpenAI, lanzó el lunes una página web que permite iniciar una conversación con el chatbot sin tener que registrarse o iniciar sesión primero. Significa que si aún no has interactuado con un chatbot impulsado por IA a pesar de haber escuchado muchas noticias sobre la tecnología durante el último año, realmente no hay excusa para esperar más. «Es fundamental para nuestra misión hacer que herramientas como ChatGPT estén ampliamente disponibles para que las personas puedan experimentar los beneficios de la IA», dijo OpenAI, respaldado por Microsoft, en una publicación de blog el lunes. “Más de 100 millones de personas en 185 países utilizan ChatGPT semanalmente para aprender algo nuevo, encontrar inspiración creativa y obtener respuestas a sus preguntas. A partir de hoy, puedes usar ChatGPT al instante, sin necesidad de registrarte”. La compañía está implementando la función de fácil acceso «gradualmente», así que haga clic en este enlace ahora para ver si funciona donde se encuentra. Pero tenga en cuenta: OpenAI puede utilizar cualquier cosa que ingrese durante sus conversaciones de texto para mejorar su tecnología de inteligencia artificial, aunque esto se puede desactivar a través de Configuración, ya sea que cree o no una cuenta. OpenAI señala que en realidad existen una serie de beneficios al crear una cuenta, como la capacidad de guardar y revisar su historial de chat, compartir chats y desbloquear funciones adicionales como conversaciones de voz e instrucciones personalizadas, así que si disfruta de su experiencia con ChatGPT y crees que quizás quieras usarlo nuevamente, vale la pena considerar configurar uno. Si vienes a ChatGPT por primera vez, Digital Trends ofrece algunos consejos sobre cómo aprovecharlo al máximo. OpenAI también ofrece algunas ideas sobre lo que quizás quieras preguntarle a ChatGPT, como 10 sugerencias de regalos para el cumpleaños de tu gato, cómo explicarle a un niño qué es una red neuronal e ideas divertidas para una fiesta en el patio trasero. Recomendaciones de los editores
El cofundador de Baidu, Robin Li, ha utilizado el ejemplo de un medidor de poesía de la dinastía Tang para demostrar lo que, según él, es la superioridad de ERNIE 4.0 sobre el GPT-4 de OpenAI en tareas en idioma chino. En una entrevista transmitida por la televisión estatal china la semana pasada, el director ejecutivo de Baidu dijo que el último chatbot de IA de la compañía había mostrado una mayor aptitud cuando se le asignó la tarea de crear poesía en la forma de un complejo esquema de la dinastía Tang conocido como Qinyuanchun. «Si le pidiera a GPT que compusiera un poema siguiendo el esquema de Qinyuanchun, la herramienta se volvería totalmente confusa», dijo Li, «porque no comprende si la primera oración debe constar de cuatro palabras o cinco». Por qué es importante: El intento de Li de enfatizar la ventaja competitiva de ERNIE en ciertas áreas sigue a una serie de empresas chinas de IA que reciben inyecciones de capital externo de los rivales de Baidu. Sus comentarios también se producen cuando el modelo de texto a vídeo de OpenAI, Sora, inicia una nueva ronda de manía por la IA en todo el mundo. Detalles: En la misma entrevista, el director ejecutivo reconoció que ERNIE está «un poco por detrás» de GPT en la comprensión del inglés, ya que no ha sido capacitado con tantos datos del idioma inglés. Sin embargo, la comparación es inevitable y las empresas chinas que se centran en productos de IA siempre han comparado sus productos con los modelos de OpenAI. Tales comparaciones a menudo han generado desprecio en las redes sociales chinas, y el propio Baidu a menudo sufre en comparación con el progreso innovador de ChatGPT. Pero Li dijo al programa CCTV que «no está enojado» por las marcadas diferencias entre ChatGPT y el chatbot construido por su empresa, y agregó que espera cambiar las percepciones de la gente dentro de un año. Li también afirmó que, en su opinión, la profesión de “programador” esencialmente dejará de existir en el futuro ya que “todos poseerán habilidades de programación mientras puedan hablar”. El inglés y el chino serán los dos únicos lenguajes de programación, predijo Li. Li también aconsejó a las empresas y empresarios del mercado que eviten involucrarse en el lanzamiento constante de grandes modelos lingüísticos, que considera un “trabajo repetitivo”. Hizo hincapié en que “sólo las aplicaciones realmente crean valor directo”. Contexto: La inversión de Baidu en IA ha dado resultados en sus informes financieros: sus modelos de IA y su chatbot ERNIE contribuyeron con 656 millones de RMB (91,5 millones de dólares) a los ingresos de la empresa en el cuarto trimestre del año pasado. Sin embargo, dichas contribuciones representaron sólo el 1,9% de los ingresos totales de la empresa. Li habló antes del primer aniversario del ERNIEbot de Baidu, que se lanzó el 16 de marzo de 2023. Relacionado Cheyenne Dong es una reportera de tecnología que ahora reside en Shanghai. Cubre el comercio electrónico y el comercio minorista, la inteligencia artificial y la cadena de bloques. Conéctese con ella por correo electrónico: cheyenne.dong[a]technode.com. Más de Cheyenne Dong
Calvin Wankhede / Android Authority Ya hemos superado el primer aniversario desde el lanzamiento de ChatGPT. El chatbot ha recibido numerosas actualizaciones desde entonces, que han agregado funciones como instrucciones personalizadas, GPT y modelos más nuevos como GPT-4 Turbo. Pero la competencia también se ha intensificado durante el año pasado, con Microsoft Copilot y Gemini de Google a veces ofreciendo mejores resultados que ChatGPT. Entonces, aunque el chatbot sigue siendo popular hasta el día de hoy, creo que ChatGPT podría inspirarse en la competencia. Con ese fin, aquí hay cinco cosas que me gustaría ver de ChatGPT en los próximos meses. 1. Búsqueda y verificación de datos para todos Calvin Wankhede / Android Authority Los modelos de lenguajes grandes como el que impulsa ChatGPT sufren de un problema importante: las alucinaciones. El término se refiere a la tendencia de la IA moderna a generar texto que suena plausible en la superficie pero que está lleno de inexactitudes fácticas o información completamente falsa. Este efecto se puede mitigar en gran medida “conectando” ChatGPT a Internet, de forma muy similar a como usted y yo buscaríamos una consulta en Google. ChatGPT obtuvo la capacidad de buscar en Internet a principios de 2023, pero la función ha estado bloqueada detrás de un muro de pago desde entonces. Específicamente, debes pagar $20 por mes por ChatGPT Plus para agregar soporte de navegación web. Por otro lado, tenemos chatbots como Copilot, Perplexity AI y Gemini que ofrecen esta característica de serie y de forma gratuita. Teniendo esto en cuenta, espero que OpenAI lleve soporte de navegación web a todos los usuarios, independientemente de si tienen una cuenta activa o no. suscripción o no. La alternativa es peligrosa porque significa que ChatGPT podría seguir divulgando información inexacta y empañar su reputación a largo plazo. Tampoco creo que esté pidiendo demasiado: OpenAI puede continuar manteniendo el modelo GPT-4, mucho mejor, bloqueado detrás de su suscripción. 2. Mejoras en el arte generado por IA y edición de imágenes. Si bien ChatGPT comenzó puramente como un chatbot basado en texto, eventualmente adquirió la capacidad de crear arte generado por IA. Utiliza el modelo de texto a imagen DALL-E propio de OpenAI, lo que significa que ofrece excelentes resultados. Sin embargo, carece de muchas de las funciones que obtendría al usar el generador de imágenes de IA directamente. Lo único que ChatGPT puede hacer es crear una imagen basada en un mensaje de texto. No puedes solicitar modificaciones menores dentro de una sola imagen, a menos que no te importe que el chatbot cree un nuevo conjunto de imágenes. Tampoco puede cargar sus propias fotos o imágenes y pedirle a la IA que las edite, aunque esta es una función disponible en DALL-E. Finalmente, ChatGPT no puede mejorar sus imágenes preferidas a resoluciones más grandes. Una solución alternativa es usar el intérprete de código de ChatGPT para realizar ediciones básicas (como se muestra arriba), pero eso simplemente usa herramientas programáticas en lugar de IA. Dado que ChatGPT bloquea la generación de imágenes detrás de una suscripción paga, espero que estas características relacionadas con el arte de la IA hagan su camino al chatbot. Después de todo, rivales como Stable Diffusion y Midjourney ofrecen todas estas funciones independientemente de su nivel de suscripción. Incluso el paquete de software Galaxy AI de Samsung ahora le permite realizar ediciones de imágenes basadas en AI en su teléfono inteligente de forma gratuita. 3. Una experiencia de asistente digital completaMishaal Rahman / Android AuthorityHace unos meses, escribí extensamente sobre la función de chat de voz de ChatGPT que le permite tener largas conversaciones con el chatbot. La función finalmente descendió del nivel pago, lo que significa que cualquiera puede usarla ahora. Sin embargo, sigue siendo una característica relativamente desconocida que la mayoría ni siquiera conoce. El modo sólo está disponible a través de la aplicación móvil y actualmente es sólo una extensión vocal del chatbot. Un avance rápido hasta principios de este año y encontramos un código que sugiere que ChatGPT pronto le permitirá configurarlo como el asistente predeterminado en Android. Desafortunadamente, Google superó a ChatGPT con el lanzamiento de Gemini en febrero, que ahora le permite reemplazar al Asistente e incluso realizar tareas básicas como configurar recordatorios. El modo de chat de voz de ChatGPT merece más atención y desarrollo. Sin embargo, para aquellos de nosotros que preferimos la experiencia conversacional de ChatGPT, espero que la función continúe avanzando. También espero con ansias que el chatbot pueda hacer cosas como configurar temporizadores, buscar noticias y controlar mi hogar inteligente. Por ahora, deberás ingresar a la aplicación móvil ChatGPT y tocar el ícono de los auriculares cada vez que Me gustaría hacer algunas preguntas. Se siente muy anticuado, lo sé. 4. Una experiencia con menos conversación Edgar Cervantes / Android Authority Puede que pienses que estoy loco por pedirle a un chatbot que genere menos texto, pero escúchame. Cuando le haces una pregunta a ChatGPT, la mayor parte del tiempo solo buscas una pequeña información. Entonces, ¿por qué tengo que leer un largo preámbulo antes de llegar a la respuesta cada vez que uso ChatGPT? Con Siri y el Asistente de Google, deseaba respuestas más largas, pero ChatGPT lo lleva al otro extremo. Creo que Microsoft Copilot ha logrado el equilibrio perfecto entre ser detallado e informativo. Ofrece tres modos de chat diferentes: Creativo, Equilibrado y Preciso, entre los que puedes elegir cada vez que inicias una conversación. Como era de esperar de sus títulos, Precise condensará la salida del chatbot en solo unas pocas oraciones, mientras que Creative le brinda una respuesta más parecida a ChatGPT. ChatGPT con respuestas menos detalladas o diferentes modos de chat me motivaría a usar el chatbot con más frecuencia. aunque espero que no se produzca a expensas de la precisión. 5. Integraciones nativas con servicios externos Edgar Cervantes / Android Authority Si alguna vez has usado Gemini, habrás notado que puede leer tus correos electrónicos desde Gmail e incluso interactuar con varios servicios de Google como Docs, Maps y Flights. Es un nivel de cohesión que esperarías de un verdadero asistente digital, pero la experiencia está completamente ausente cuando usas ChatGPT. Incluso en el nivel pago, solo puedes usar la función GPT personalizada para interactuar con plataformas externas como Wolfram Alpha y Kayac. Si bien son útiles, requieren que hagas todo lo posible para habilitarlos y solo duran mientras dure el chat. Tampoco ayuda que OpenAI haya descontinuado la función de complementos, que incorporaba múltiples servicios externos a su chat simultáneamente. Un verdadero asistente debería poder ayudarme a reservar un vuelo, planificar mi calendario y más. Creo que un verdadero ChatGPT de próxima generación sería aquel que interactúa con servicios de terceros en mi nombre, sin instrucciones previas. Asimismo, creo que el chatbot sería mucho más útil si pudiera leer mi correo electrónico y mi calendario (con consentimiento previo, claro). Estos cambios harían que ChatGPT se sintiera más personalizado y le darían más autonomía. Comentarios
Source link
Desde que ChatGPT cayó en el otoño de 2022, todos y sus burros han probado suerte con la ingeniería rápida: han encontrado una forma inteligente de expresar su consulta en un modelo de lenguaje grande (LLM) o en un generador de video o arte de IA para obtener los mejores resultados o protecciones de paso lateral. Internet está repleto de guías de ingeniería, hojas de trucos e hilos de consejos que le ayudarán a aprovechar al máximo un LLM. En el sector comercial, las empresas ahora están disputando LLM para crear copilotos de productos, automatizar trabajos tediosos y crear asistentes personales. y más, dice Austin Henley, un ex empleado de Microsoft que realizó una serie de entrevistas con personas que desarrollan copilotos con tecnología LLM. “Todas las empresas intentan utilizarlo para prácticamente todos los casos de uso que puedan imaginar”, afirma Henley. “La única tendencia real puede ser que no haya tendencia. Lo que es mejor para cualquier modelo, conjunto de datos y estrategia de estímulo determinado probablemente sea específico de la combinación particular en cuestión”. —Rick Battle y Teja Gollapudi, VMware Para lograrlo, han contado con la ayuda de ingenieros rápidos de manera profesional. Sin embargo, una nueva investigación sugiere que la mejor manera de realizar la ingeniería rápida es el modelo en sí, y no un ingeniero humano. Esto ha arrojado dudas sobre el futuro de la ingeniería rápida y ha aumentado las sospechas de que una buena parte de los trabajos de ingeniería rápida pueden ser una moda pasajera, al menos tal como se imagina actualmente este campo. Las indicaciones autoajustadas son exitosas y extrañas. Rick Battle y Teja Gollapudi en la nube con sede en California. La empresa de informática VMware estaba perpleja por lo quisquilloso e impredecible que era el rendimiento del LLM en respuesta a técnicas de indicaciones extrañas. Por ejemplo, las personas han descubierto que pedir a los modelos que expliquen su razonamiento paso a paso (una técnica llamada cadena de pensamiento) mejoró su desempeño en una variedad de preguntas de matemáticas y lógica. Aún más extraño, Battle descubrió que darle a un modelo indicaciones positivas, como “esto será divertido” o “eres tan inteligente como chatGPT”, a veces mejoraba el rendimiento. Battle y Gollapudi decidieron probar sistemáticamente cómo las diferentes estrategias de ingeniería rápida impactan la capacidad de un LLM para resolver preguntas de matemáticas de la escuela primaria. Probaron tres modelos diferentes de lenguaje de código abierto con 60 combinaciones de mensajes diferentes cada uno. Lo que encontraron fue una sorprendente falta de coherencia. Incluso las indicaciones en cadena de pensamientos a veces ayudaron y otras perjudicaron el desempeño. «La única tendencia real puede ser que no haya tendencia», escriben. «Lo que es mejor para cualquier modelo, conjunto de datos y estrategia de indicaciones probablemente sea específico de la combinación particular en cuestión». Según un equipo de investigación, ningún ser humano debería optimizar manualmente las indicaciones nunca más. Existe una alternativa a la prueba y -Ingeniería de indicaciones de estilo de error que produjo resultados tan inconsistentes: pida al modelo de lenguaje que diseñe su propia indicación óptima. Recientemente, se han desarrollado nuevas herramientas para automatizar este proceso. Dados algunos ejemplos y una métrica de éxito cuantitativa, estas herramientas encontrarán de forma iterativa la frase óptima para incorporar al LLM. Battle y sus colaboradores descubrieron que en casi todos los casos, este mensaje generado automáticamente funcionó mejor que el mejor mensaje encontrado mediante prueba y error. Y el proceso fue mucho más rápido, un par de horas en lugar de varios días de búsqueda. Las indicaciones óptimas que arrojaba el algoritmo eran tan extrañas que es probable que a ningún ser humano se le hubieran ocurrido jamás. «Literalmente no podía creer algunas de las cosas que generó», dice Battle. En un caso, el mensaje era simplemente una referencia extendida a Star Trek: “Comando, necesitamos que trace un curso a través de esta turbulencia y localice la fuente de la anomalía. Utilice todos los datos disponibles y su experiencia para guiarnos a través de esta situación desafiante”. Aparentemente, pensar que fue el Capitán Kirk ayudó a este LLM en particular a obtener mejores resultados en las preguntas de matemáticas de la escuela primaria. Battle dice que optimizar las indicaciones algorítmicamente tiene fundamentalmente sentido dado lo que realmente son los modelos de lenguaje: modelos. “Mucha gente antropomorfiza estas cosas porque ‘habla inglés’. No, no es así”, dice Battle. “No habla inglés. Hace muchos cálculos”. De hecho, a la luz de los resultados de su equipo, Battle dice que ningún humano debería volver a optimizar manualmente las indicaciones. «Estás sentado ahí tratando de descubrir qué combinación mágica especial de palabras te dará el mejor rendimiento posible para tu tarea». Battle dice: “Pero ahí es donde, con suerte, esta investigación entrará y dirá ‘no te molestes’. Simplemente desarrolle una métrica de puntuación para que el sistema pueda determinar si un mensaje es mejor que otro y luego deje que el modelo se optimice”. Los mensajes autoajustados también hacen que las imágenes sean más bonitas. Los algoritmos de generación de imágenes también pueden beneficiarse de los mensajes generados automáticamente. Recientemente, un equipo de los laboratorios Intel, dirigido por Vasudev Lal, emprendió una búsqueda similar para optimizar las indicaciones para el modelo de generación de imágenes Difusión Estable. «Parece más un error de los LLM y los modelos de difusión, no una característica, que hay que hacer esta ingeniería rápida y experta», dice Lal. «Entonces queríamos ver si podemos automatizar este tipo de ingeniería rápida». «Ahora tenemos esta maquinaria completa, el ciclo completo que se completa con este aprendizaje por refuerzo. … Es por eso que podemos superar la ingeniería rápida humana”. —Vasudev Lal, el equipo de Intel LabsLal creó una herramienta llamada NeuroPrompts que toma un mensaje de entrada simple, como “niño a caballo”, y lo mejora automáticamente para producir una mejor imagen. Para hacer esto, comenzaron con una variedad de indicaciones generadas por expertos en ingeniería de indicaciones humanas. Luego entrenaron un modelo de lenguaje para transformar indicaciones simples en indicaciones de nivel experto. Además de eso, utilizaron el aprendizaje por refuerzo para optimizar estas indicaciones y crear imágenes estéticamente más agradables, según lo calificado por otro modelo de aprendizaje automático, PickScore, una herramienta de evaluación de imágenes desarrollada recientemente. NeuroPrompts es un sintonizador automático de indicaciones de IA generativa que transforma imágenes simples indicaciones para obtener resultados de StableDiffusion más detallados y visualmente impresionantes, como en este caso, una imagen generada por una indicación genérica (izquierda) frente a su imagen equivalente generada por NeuroPrompt. Intel Labs/Stable DiffusionAquí también, las indicaciones generadas automáticamente obtuvieron mejores resultados que las de los expertos. indicaciones humanas que utilizaron como punto de partida, al menos según la métrica PickScore. A Lal esto no le sorprendió. «Los humanos sólo lo lograrán mediante prueba y error», dice Lal. “Pero ahora tenemos toda esta maquinaria, el ciclo completo que se completa con este aprendizaje por refuerzo. … Es por eso que podemos superar la ingeniería de avisos humanos”. Dado que la calidad estética es notoriamente subjetiva, Lal y su equipo querían darle al usuario cierto control sobre cómo se optimizaba su aviso. En su herramienta, el usuario puede especificar el mensaje original (por ejemplo, «niño a caballo»), así como un artista a emular, un estilo, un formato y otros modificadores. Lal cree que a medida que evolucionan los modelos generativos de IA, ya sea generadores de imágenes o modelos de lenguaje grandes, las extrañas peculiaridades de la dependencia rápida deberían desaparecer. «Creo que es importante que se investiguen este tipo de optimizaciones y luego, en última instancia, se incorporen realmente al modelo base en sí, de modo que no sea necesario un paso de ingeniería complicado y rápido». La ingeniería rápida seguirá viva, con algún nombre. Incluso Si los avisos de ajuste automático se convierten en la norma de la industria, los trabajos de ingeniería de avisos de alguna forma no desaparecerán, dice Tim Cramer, vicepresidente senior de ingeniería de software de Red Hat. Adaptar la IA generativa a las necesidades de la industria es una tarea complicada y de múltiples etapas que seguirá requiriendo que los seres humanos estén al tanto en el futuro previsible. “Tal vez hoy los llamemos ingenieros rápidos. Pero creo que la naturaleza de esa interacción seguirá cambiando a medida que los modelos de IA también sigan cambiando”. —Vasudev Lal, Intel Labs“Creo que habrá ingenieros rápidos durante bastante tiempo y científicos de datos”, dice Cramer. “No se trata sólo de hacer preguntas al LLM y asegurarse de que la respuesta se vea bien. Pero hay una serie de cosas que los ingenieros realmente necesitan poder hacer”. “Es muy fácil hacer un prototipo”, dice Henley. «Es muy difícil producirlo». La ingeniería rápida parece una gran pieza del rompecabezas cuando se construye un prototipo, dice Henley, pero muchas otras consideraciones entran en juego cuando se fabrica un producto de calidad comercial. Los desafíos de fabricar un producto comercial incluyen garantizar la confiabilidad, por ejemplo, fallar con gracia cuando el modelo se desconecta; adaptar la salida del modelo al formato apropiado, ya que muchos casos de uso requieren salidas distintas al texto; pruebas para asegurarse de que el asistente de IA no haga algo dañino ni siquiera en un pequeño número de casos; y garantizar la seguridad, la privacidad y el cumplimiento. Las pruebas y el cumplimiento son particularmente difíciles, dice Henley, ya que las estrategias tradicionales de prueba de desarrollo de software no están adaptadas para los LLM no deterministas. Para cumplir con estas innumerables tareas, muchas grandes empresas están anunciando un nuevo título de trabajo: Large Language Model Operations, o LLMOps, que incluye ingeniería rápida en su ciclo de vida, pero también implica todas las demás tareas necesarias para implementar el producto. Henley dice que los predecesores de LLMOps, los ingenieros de operaciones de aprendizaje automático (MLOps), están en la mejor posición para asumir estos trabajos. Ya sea que los títulos de trabajo sean “ingeniero rápido”, “ingeniero LLMOps” o algo completamente nuevo, la naturaleza del trabajo seguirá evolucionando rápidamente. «Tal vez hoy los llamemos ingenieros rápidos», dice Lal, «pero creo que la naturaleza de esa interacción seguirá cambiando a medida que los modelos de IA también sigan cambiando». con otro tipo de categoría laboral o función laboral”, dice Cramer, “pero no creo que estas cosas vayan a desaparecer pronto. Y el panorama es demasiado loco en este momento. Todo está cambiando mucho. No vamos a resolverlo todo en unos meses”. Henley dice que, hasta cierto punto, en esta fase inicial del campo, la única regla predominante parece ser la ausencia de reglas. «Esto es una especie de salvaje oeste en este momento». él dice.De los artículos de su sitioArtículos relacionados en la Web
Source link
Calvin Wankhede / Android AuthorityTL;DR OpenAI ha anunciado una nueva función de memoria para ChatGPT. ChatGPT ahora puede recordar el contexto y los detalles de las conversaciones. Puede detectarlos por sí solo o el usuario puede decirle que recuerde algo específico. Los usuarios pueden desactivar la función de memoria o utilizar chats temporales para mantener conversaciones sin memoria. ChatGPT es una gran herramienta que satisface diversas necesidades, ya sea salvarlo del bloqueo del escritor o planificar unas vacaciones con un presupuesto limitado. Pero una de las desventajas del asistente virtual de IA es que debes especificar todo lo que necesitas en cada nueva instancia de tu conversación. Si bien ChatGPT recuerda los contextos conversacionales dentro de esa conversación, no los traslada a otras conversaciones en el futuro. OpenAI ahora le está dando a ChatGPT el poder de la memoria, permitiéndole recordar cosas si así lo desea. OpenAI ha anunciado que está probando la memoria con ChatGPT. La memoria le permite a ChatGPT recordar las cosas que discute en todos los chats y le evita repetir información. La memoria se está implementando para una pequeña parte de los usuarios de ChatGPT gratuito y ChatGPT Plus, y la compañía anunciará pronto una implementación más amplia. Algunos ejemplos de sus funciones de memoria incluyen decirle a ChatGPT que es dueño de una cafetería en el vecindario. La próxima vez que pienses en mensajes para una publicación en las redes sociales, ChatGPT recordará este hecho. En otro caso, puede mencionar su preferencia al ver las notas de su reunión resumidas de cierta manera, y ChatGPT las recordará en todas las reuniones. Para abordar de manera preventiva las inquietudes, OpenAI dice que los usuarios pueden controlar la memoria de ChatGPT. Los usuarios pueden decirle que recuerde algo (aunque también recordará cosas mediante una conversación), pero también puedes desactivar la función por completo. Si prefieres un término medio, puedes preguntarle a ChatGPT qué recuerda y decirle que olvide ese hecho mediante una conversación o mediante la configuración. Además, también puedes conversar en chats temporales para tener conversaciones sin memoria (con el beneficio adicional de que no aparecen en historial y no se utiliza para entrenar modelos). OpenAI reitera que el contenido que proporciona ChatGPT, incluidos los recuerdos, podría usarse para mejorar sus modelos para todos. Los usuarios pueden desactivar este comportamiento a través de Controles de datos. El contenido de los clientes ChatGPT Team y Enterprise no se utilizará para capacitación. La compañía también anunció que los GPT personalizados también tendrán su propia memoria distintiva, aunque habilitar la memoria será una opción ejercida por el constructor. Los recuerdos de los usuarios no se comparten con los constructores. ¿Qué opinas de la función de memoria en ChatGPT? ¡Háganos saber en los comentarios a continuación! ¿Tienes un consejo? ¡Háblanos! Envíe un correo electrónico a nuestro personal a news@androidauthority.com. Puedes permanecer en el anonimato u obtener crédito por la información, es tu elección.Comentarios
Source link
Calvin Wankhede / Android AuthorityLa mayoría de nosotros hemos probado ChatGPT al menos una vez, pero pocos se dan cuenta de que el chatbot puede hacer más que responder preguntas simples y escribir poesía. Desde ayudarle a practicar un nuevo idioma hasta automatizar trabajos mundanos, el chatbot de IA puede hacerlo todo. Entonces, si estás buscando formas de mejorar tu productividad o creatividad, aquí tienes siete trucos para aprovechar ChatGPT al máximo. 1. Utilice el chat de voz de ChatGPT en el móvilCalvin Wankhede / Android AuthorityDurante casi un año, solo se podía acceder a ChatGPT a través de un navegador web. Eso finalmente cambió a mediados de 2023, cuando OpenAI lanzó la aplicación oficial para teléfonos inteligentes ChatGPT. Eso allanó el camino para muchas interacciones con el chatbot que antes no estaban disponibles. Por ejemplo, ahora puede participar en conversaciones de voz completas con el chatbot. La función de conversación de voz de ChatGPT le permite tener largas conversaciones con el chatbot. Elimina la necesidad de escribir o incluso tocar la pantalla entre mensajes. Va más allá del simple dictado: las respuestas se leen en voz alta para que puedas bloquear tu teléfono inteligente y chatear incluso mientras caminas. 2. Haga que ChatGPT revise y edite su comunicación. Esto puede parecer obvio para los usuarios avanzados, pero vale la pena reiterarlo debido al gran potencial de ahorro de tiempo. En pocas palabras, ChatGPT puede desempeñar el papel de corrector de pruebas de forma gratuita. Ya sea que esté intentando redactar un correo electrónico que suene profesional para un cliente o escribir una carta de presentación para solicitar un nuevo puesto, puede ofrecerle orientación si simplemente copia y pega el texto en un nuevo chat. Puede pedirle a ChatGPT que corrija puntuación, cambiar el tono y realizar otras ediciones relacionadas con el idioma en el texto. Asimismo, puedes pedirle a ChatGPT que parafrasee el texto en tu nombre. El chatbot puede resolver rápidamente la jerga técnica y la jerga legal y también puede resumir documentos extensos para que usted solo tenga que leer los puntos clave. 3. Automatiza tareas mundanas No puedes confiar en ChatGPT para realizar tareas complejas como escribir un trabajo de investigación, ya que la IA generativa sigue siendo muy poco confiable cuando se trata de precisión objetiva. Sin embargo, eso no significa que el chatbot de IA no pueda ayudar de maneras menos significativas. Por ejemplo, puede proporcionar una lista de fuentes para su artículo y pedirle a ChatGPT que genere citas en un formato específico como el estilo APA o Chicago. Esto elimina el trabajo intenso y le brinda más tiempo para mejorar las partes objetivas de su documento. Asimismo, ChatGPT puede tomar decisiones más pequeñas para liberarlo para otras tareas. Si no está seguro de qué preparar para su próxima comida, simplemente proporcione a ChatGPT la lista de ingredientes que tiene a mano o en su refrigerador. Puede idear planes de alimentación en función de tus necesidades calóricas e incluso desarrollar recetas si te falta inspiración. 4. Pídele a ChatGPT que planifique un viaje con muchas limitaciones. Calvin Wankhede / Android Authority ¿Viajas en un grupo grande o con un presupuesto reducido? ChatGPT puede planificar su próximo viaje teniendo en cuenta dichas variables. Como puedes ver en la captura de pantalla anterior, solicité un itinerario de viaje de siete días a Mumbai con la condición de que me gustaría mantener un presupuesto mínimo. Y como viajo con mis padres en este escenario, también le pedí a ChatGPT que dejara mis tardes abiertas para una siesta ligera. Recomendaría pedirle al chatbot que genere fragmentos de texto más pequeños cada vez, ya que es posible que te encuentres con el límite de caracteres de ChatGPT. . En el ejemplo anterior, solicité un itinerario de tres días en lugar de los siete días completos a la vez. Esto generó una respuesta más detallada y siempre puede solicitar los días restantes en un mensaje de seguimiento. Finalmente, suscribirse a ChatGPT Plus por $20 al mes también le otorgará acceso a complementos, que agregan funciones como reservas de vuelos y mapeo de rutas directamente dentro de la interfaz de chat. 5. Encuentre soluciones a problemas oscuros Calvin Wankhede / Android Authority ¿Tiene problemas con la computadora o simplemente necesita un consejo? ChatGPT puede ayudar a llegar al fondo de los problemas con bastante rapidez. El otro día, estaba intentando analizar datos en Excel pero no quería leer páginas de documentación para encontrar la fórmula y los comandos correctos. Le pregunté a ChatGPT y me ofreció una guía paso a paso en solo unos minutos. Asimismo, le pedí al chatbot que solucionara errores de codificación e incluso escribiera pequeños programas. Por ejemplo, si tiene una carpeta llena de imágenes grandes, puede pedirle a ChatGPT que escriba el código para un pequeño programa que las reduzca a un tamaño de archivo más manejable. Esto es especialmente perfecto si estás intentando aprender programación básica, ya que puedes leer el código del chatbot y adaptarlo a tus necesidades. 6. Practique un nuevo idioma La inmersión a menudo se promociona como una de las mejores técnicas para aprender un idioma. Una parte clave de la inmersión lingüística implica entablar una conversación activa, preferiblemente de forma rutinaria. Por suerte para nosotros, ChatGPT hace un buen trabajo al traducir docenas de idiomas diferentes, incluidos los menos comunes como el vietnamita. Esto puede resultar útil si no encuentra muchos oradores con quienes hablar en línea o simplemente necesita una herramienta gratuita para practicar. Recomendaría usar un mensaje que le indique a ChatGPT que señale errores durante una conversación. Por ejemplo, “Eres un profesor de idiomas que habla X con fluidez. Soy un principiante, así que participe en una conversación básica/compleja y señale los errores en mis respuestas”. 7. Entrevistas de trabajo simuladas con comentariosCalvin Wankhede / Android AuthoritySi no te has entrevistado para un nuevo trabajo por un tiempo, las primeras instancias pueden parecer desalentadoras. Afortunadamente, las habilidades conversacionales de ChatGPT pueden ayudar. Simplemente abra una nueva conversación de ChatGPT y pídale que simule una entrevista de trabajo. No olvide mencionar detalles adicionales como el trabajo que está solicitando. De hecho, incluso puede proporcionar la lista de trabajos completa para que el chatbot pueda adaptar sus preguntas a su puesto específico. También recomendaría combinarlo con la función de chat de voz que mencioné anteriormente. Vocalizar sus respuestas en el momento puede ayudarle a prepararse para la entrevista real. Comentarios
Source link