Todo lo que necesitas saber sobre tecnología

Etiqueta: chatbot

Los usuarios comparten opiniones encontradas sobre el plan avanzado pago de Google Gemini

Google ha cambiado el nombre de su asistente de inteligencia artificial a Gemini de Bard. Con este cambio de nombre, el gigante de las búsquedas también introdujo un plan pago para los usuarios. Al igual que Copilot Pro de Microsoft y ChatGPT Plus de OpenAI, el plan pago Google Gemini Advanced desbloquea funciones que no están disponibles en la versión gratuita. Sin embargo, parece que no todos los usuarios pagos están contentos con lo que trae el plan Google Gemini Advanced. Por supuesto, esto es muy natural para un producto recién lanzado. ¿Qué dicen los usuarios sobre el plan avanzado pago de Google Gemini? El subreddit de Google Bard está recibiendo muchos hilos nuevos después del cambio de nombre y la introducción del plan Gemini Advanced. En uno de ellos, un usuario comparte cómo se ha encontrado con alucinaciones y errores lógicos en el plan pago. El usuario entró en detalles y compartió que la versión gratuita ofrece más valor. Consulte el comentario de Reddit adjunto a continuación para leer la opinión completa. Una vez más, el debate que gira en torno al plan pago Google Gemini Advanced no es unilateral. Muchos usuarios del plan pago compartieron sus opiniones en el mismo hilo. Señalaron que encontraron que el nivel superior era cercano, si no mejor, que el plan pago de otros asistentes de IA. Lea más sobre una de las opiniones positivas del usuario en la imagen adjunta a continuación. En la etapa actual, parece que Google Gemini Advanced no funciona como se esperaba en problemas lógicos. El rendimiento de generación de imágenes no es excelente actualmente. Pero le va bien cuando se le aborda como asistente de investigación o chatbot. Pero estas primeras revisiones del plan pago Gemini Advanced eran muy necesarias, ya que Google ahora sabrá en qué concentrarse. Además, Google actualiza el asistente de IA con bastante frecuencia. Por lo tanto, espere que algunos de los cambios entren en vigor muy pronto. Acerca del plan pago de Google AI Assistant ¿Quiere obtener más información sobre el plan avanzado y gratuito de Google Gemini? Bueno, comprender sus matices va más allá de una simple comparación de costos. Aquí hay un desglose detallado para que la diferencia parezca mucho más clara: Noticias de la semana de Gizchina Acceso gratuito a Gemini: abierto a todos, perfectamente integrado en Gmail y la aplicación de Google. Puntos fuertes: Ideal para tareas cotidianas como traducciones, resúmenes y breves indicaciones de escritura creativa. Fácil de usar, no requiere registro ni conocimientos técnicos. Limitaciones: se basa principalmente en texto y tiene una capacidad limitada para manejar razonamientos complejos, situaciones matizadas o procesamiento de imágenes. En este plan, el asistente de IA podría tener dificultades con tareas que requieran una comprensión más profunda o florituras creativas. Acceso al plan avanzado de Google Gemini: actualmente requiere una suscripción premium a Google One. Pero la buena noticia es que existe una opción de prueba gratuita disponible. Fortalezas: Libera todo el potencial de Gemini Ultra, el modelo de IA más avanzado de Google. Como dice Google, destaca en tareas complejas como generación de código y escritura creativa avanzada. También pretende abordar indicaciones matizadas. Además, el plan pago Google Gemini Advanced puede manejar el procesamiento de imágenes y las interacciones multimodales. Esto abre las puertas a experiencias más ricas. Limitaciones: Carece de integración actual con aplicaciones existentes como Gmail y Docs. Pero Google planea introducirlos en futuras versiones. Además, requiere una suscripción paga, lo que puede no ser factible para todos. ¿Cuál es el adecuado para usted? Considere su uso principal al hacer su elección: Para necesidades básicas e interacciones casuales: la versión gratuita ofrece un punto de entrada conveniente y accesible a la asistencia de IA. Para usuarios avanzados, investigadores o profesionales creativos: el Plan Avanzado desbloquea todo el potencial de Gemini, abordando tareas complejas y superando los límites de las capacidades de IA. Recuerde, la prueba gratuita del Plan Avanzado brinda una valiosa oportunidad para probar sus funciones y ver si se alinea con su flujo de trabajo. En última instancia, la mejor opción depende de sus necesidades y presupuesto específicos. Descargo de responsabilidad: Es posible que algunas de las empresas de cuyos productos hablamos nos compensen, pero nuestros artículos y reseñas son siempre nuestras opiniones honestas. Para obtener más detalles, puede consultar nuestras pautas editoriales y conocer cómo utilizamos los enlaces de afiliados.

Source link

Google AI: ¡Bard ahora es Géminis!

El lanzamiento de Google de su IA basada en LLM (Large Language Model) no ha sido fácil al principio, lo cual es cierto incluso con sus primeras convenciones de nomenclatura. Anteriormente, Google llamaba a su nuevo asistente de chatbot en sus dispositivos Pixel principalmente Bard o Assistant con Bard, mientras que aquellos con soluciones más capaces como parte de Gemini. Pero esto ahora está empezando a cambiar y a volverse más coherente a medida que implementa plenamente su arsenal de IA en una sola bandera bajo Gemini. Aplicación Gemini y Gemini Advanced Según lo confirmado por Google, está anunciando la disponibilidad de una nueva aplicación de IA y Gemini Advanced en sus plataformas, y junto con estas está el uso más evidente de las etiquetas Gemini. Por ejemplo, se cambió el nombre de la dirección de su página web a gemini.google.com en lugar de bard.google.com, algo que notamos hace apenas unos días, aunque aún puede escribir este último y luego redirigirse a la nueva URL. Si bien Gemini ya está integrado en Pixel 8 (revisión) y Pixel 8 Pro (revisión), Google también llama oficialmente a su aplicación independiente de Android como aplicación Gemini. Esto también se aplica a la versión iOS de la aplicación, que ahora se puede descargar desde Play Store en países seleccionados, incluido EE. UU., y es compatible con los idiomas inglés, japonés y coreano. Del mismo modo, en los nuevos planes Google One de Google, también hay menciones a Gemini y Gemini Advanced. Al igual que en los EE. UU., el plan Google One AI Premium que cuesta $ 9,99 al mes ahora agrega Gemini Advanced basado en el modelo Ultra 1.0. El gigante de las búsquedas en Internet planea incluir Gemini en sus servicios como Gmail, Maps y Docs pronto también en este nivel. Si aún no has descargado ni probado Gemini, es más inteligente y más capaz con el uso del modelo Ultra 1.0 en comparación con el antiguo Bard. Entre esas funciones que puede hacer con la aplicación se encuentran la generación de texto a imagen y la búsqueda de fotos. Aunque todavía se encuentra en fase experimental, también puedes configurar Gemini como tu asistente y realizar tareas complejas y habituales, como redactar correos electrónicos. Con la decisión de Google de utilizar Gemini, después de todo tiene sentido que unifiquen su marca. Esto probablemente evitará más confusión y hará que Gemini sea más notable para muchos usuarios. ¿Cómo preferirías que se llamara la nueva IA de Google? ¿Es Gemini una mejor opción de marca que Bard? Nos gustaría escuchar sus respuestas.

Source link

Hiltzik: La revolución del chat con IA está revolucionando la ley de derechos de autor

Acabo de descubrir que soy parte de la revolución del chat con IA. Por favor, no me odien. Mi papel es el de autor de tres de los casi 200.000 libros que se introducen en el cerebro electrónico de LLaMa, el chatbot desarrollado y distribuido por Meta Platforms (anteriormente Facebook), en competencia con el más conocido ChatGPT. bots comercializados por OpenAI. Alex Reisner del Atlántico compiló una práctica herramienta de búsqueda para la base de datos, conocida como Books3, que brinda a los autores de todo el mundo la oportunidad de buscar sus nombres y decidir cómo pensar en los resultados. ¿Prohibiría la enseñanza (si esa es la palabra) de mis cuentos a las computadoras? Ni siquiera si pudiera. — Stephen King No lo he decidido por mí mismo; por un lado, estoy un poco molesto porque supuestamente sólo tres de mis siete libros se han utilizado para “entrenar” a LLaMa; por el otro, me dedico a reflexionar sobre cuánto debería valer mi contribución y ¿por qué no debería recibir un pago por ella? Las reacciones de otros autores, destacados y no tan destacados, han estado por todas partes. Algunos han expresado una indignación convincente. Incluyen a los novelistas John Grisham, George RR Martin, Scott Turow y otros que son miembros del Authors Guild y se encuentran entre los demandantes en una demanda por infracción de derechos de autor presentada contra OpenAI, y Sarah Silverman, demandante en una demanda similar contra Meta Platforms. Boletín Obtenga lo último de Michael Hiltzik Comentarios sobre economía y más de un ganador del Premio Pulitzer. Ingrese la dirección de correo electrónico Regístrate Es posible que ocasionalmente recibas contenido promocional de Los Angeles Times. Algunos han recurrido a las redes sociales para expresar su irritación o su absoluta furia, entre ellos Margaret Atwood y la novelista Lauren Groff. Luego está el grupo que pregunta: ¿cuál es el problema? Por ejemplo, Ian Bogost, autor o coautor de 10 libros, la mayoría sobre juegos, escribió un artículo reciente para Atlantic titulado “Mis libros se utilizaron para entrenar la IA generativa de Meta. Bien, también puede tener el próximo”. Finalmente, está Stephen King, cuya reacción ante una base de datos que enumera 87 de sus obras parece ser algo parecido a la resignación. “¿Prohibiría la enseñanza (si esa es la palabra) de mis historias a las computadoras?” el escribe. “Ni siquiera si pudiera. Bien podría ser el Rey Canuto, prohibiendo que suba la marea”. Antes de profundizar más en las cuestiones legales, desviémonos hacia lo que significa la base de datos y su uso en el contexto de la “IA generativa”, la categoría de tecnología a la que estos chatbots pertenecen. Como he escrito antes, para estos productos el término «inteligencia artificial» es un nombre inapropiado. No son inteligentes en el sentido en que los humanos y los animales lo son; simplemente están diseñados para parecer inteligentes ante un extraño que desconoce los procesos electrónicos que ocurren en su interior. De hecho, utilizar el mismo término distorsiona nuestra percepción de lo que están haciendo. No están aprendiendo en ningún sentido real, como por ejemplo creando percepciones del mundo que los rodea basándose en la información que ya tienen en sus circuitos. No son creativos en ningún sentido remotamente humano: «La creatividad no puede ocurrir sin sensibilidad», observa King, aunque cubre su apuesta respondiendo su propia pregunta sobre si los sistemas son creativos con las palabras: «Todavía no». los desarrolladores “entrenan” sus sistemas infundiéndoles billones de palabras y frases presentes en Internet o en bases de datos especializadas; Cuando un chatbot responde a su pregunta, convoca una serie probabilística de esas entradas para producir algo que se parezca (a menudo sorprendentemente) a lo que un humano podría producir. Pero es más que nada un simulacro del pensamiento humano, no el producto de la meditación. Lo gratificante de la revelación de que Books3 se ha utilizado para “entrenar” a LLaMa es que subraya cómo todo lo que arrojan los chatbots proviene, en esencia, de fuentes humanas. Aunque OpenAI se niega a revelar qué utiliza para “entrenar” ChatGPT, es casi seguro que esté haciendo algo similar. (Meta no ha reconocido formalmente el uso de Books3, pero la función de la base de datos fue revelada en un documento técnico por los desarrolladores de LLaMa en la empresa. Otro punto importante a tener en cuenta es que ninguna de esta capacitación ha permitido a los desarrolladores resolver los problemas más importantes y Un problema persistente con los chatbots: hacen las cosas mal, a menudo de manera espectacular. Cuando no pueden encontrar material factual para responder una pregunta, tienden a inventarla o citar irrelevancias; la semejanza de las respuestas con el pensamiento y el habla humanos induce a error a los usuarios. tomarlos al pie de la letra, lo que lleva a no pocas consecuencias embarazosas y costosas. Esto es endémico en el campo de la IA en general. Tan recientemente como el 20 de septiembre, la prestigiosa revista Nature se retractó de un artículo de investigadores de Google que había informado que un sistema de IA sólo necesitaba «Me tomó unas pocas horas diseñar chips de computadora que requirieron meses de trabajo por parte de diseñadores humanos. El autor del artículo supuestamente concluyó que era todo lo contrario. En mi caso, la triste verdad es que, por muy riguroso que fuera «entrenado» a LLaMa con mis libros, no Parece que no he aprendido mucho. De hecho, sus respuestas a mis preguntas demostraron que es tan idiota como sus primos de la familia de la IA generativa. Cuando le pregunté qué sabían sobre mí, su respuesta fue una mezcla de un biobox publicado en latimes.com, junto con la mención de tres libros, ninguno de los cuales figura en la base de datos Books3: uno que no es mío (aunque Me citan en sus notas finales) y dos que, por lo que puedo decir, no existen en absoluto. Sin embargo, sí me etiquetó como “un periodista consumado y muy respetado que ha hecho importantes contribuciones al campo del periodismo”, lo que sugiere que no carece del todo de sagacidad y buen juicio. Cuando le pedí a LLaMa que describiera los tres libros que están en la base de datos de Books3, sus respuestas se recopilaron a partir de textos repetitivos que podrían haber provenido de anuncios publicitarios en las portadas de los libros y de errores directos, incluso extraños. Eso nos lleva de nuevo a las preocupaciones planteadas en el mundo literario. Si las reacciones de los escritores establecidos parecen confusas, es principalmente porque la ley de derechos de autor es confusa. Esto es especialmente cierto cuando el tema es el “uso legítimo”, una exclusión de los derechos de autor que permite que partes de obras protegidas por derechos de autor se utilicen sin permiso. El uso legítimo es lo que permite citar fragmentos de obras publicadas en reseñas, resúmenes e informes de noticias. o trabajos de investigación, o para ser parodiados o reutilizados de una manera “transformadora”. ¿Qué es “transformador”? Como lo expresa un resumen de las bibliotecas de Stanford, “se han gastado millones de dólares en honorarios legales tratando de definir lo que califica… No existen reglas estrictas, sólo pautas generales y decisiones judiciales variadas”. Esto es así cuando surge una nueva tecnología, como la reproducción digital o, ahora, la formación de chatbots. La demanda presentada contra OpenAI por los novelistas y el Authors Guild afirma que OpenAI copió sus obras “al por mayor, sin permiso ni contraprestación”. [that is, payment]”, lo que equivale a un “robo sistemático a gran escala”. Los autores observan que la Oficina de Patentes de EE. UU. ha descubierto que la IA “el ‘entrenamiento’… casi por definición implica[s] la reproducción de obras enteras o de partes sustanciales de las mismas”. Dicen que «entrenar» es simplemente «un eufemismo que suena técnico para ‘copiar e ingerir'». Los autores dicen que los chatbots OpenAI «ponen en peligro la capacidad de los escritores de ficción para ganarse la vida», porque «permiten que cualquiera genere… … textos que de otro modo pagarían a los escritores para que los crearan”. Los robots “pueden escupir obras derivadas: material que se basa en, imita, resume o parafrasea las obras de los demandantes y daña el mercado de ellas”. Esas son afirmaciones cruciales, porque la interferencia con la comerciabilidad de una obra protegida por derechos de autor es un factor clave. factor que pesa en contra de una defensa de uso legítimo en los tribunales. Vale la pena mencionar que la invasión de la IA en el mercado de habilidades profesionales fue un factor clave en la reciente huelga de escritores de Hollywood, y lo sigue siendo para los actores que aún están en huelga. Las limitaciones al uso de la IA son una disposición importante del contrato que resolvió la huelga de escritores, y seguramente serán parte de cualquier acuerdo con los actores. La demanda presentada por Silverman y sus compañeros demandantes contra Meta sigue de cerca el caso del Authors Guild. Puede que no ayude a la defensa de Meta que Books3 sea en sí mismo un presunto producto de piratería; al menos algunas de las obras que contiene provienen de versiones ilícitas que circulan en la web. De hecho, un servidor de la base de datos la desconectó tras una denuncia de una organización danesa antipiratería. Meta, en su respuesta a la demanda de Silverman, sostiene que su uso de Books3 es «transformador por naturaleza y uso justo por excelencia». (Su moción para desestimar el caso está programada para ser escuchada por un juez federal en San Francisco el 16 de noviembre). La compañía dice que los demandantes no pueden señalar «ningún ejemplo» de la producción de LLaMa que reproduzca alguna parte de su trabajo. . Eso puede ser cierto, pero dependerá del juez Vincent Chhabria decidir si es relevante. Meta también implica que le está haciendo un favor al mundo al desarrollar las capacidades de LLaMa, que según dice se encuentran entre «los casos más claros de los beneficios potenciales sustanciales». La IA puede ofrecer servicios a escala a miles de millones de personas”. Si esto suena un poco a las defensas de Meta contra las acusaciones de que ha infringido la privacidad de sus usuarios con fines de lucro (que sólo proporciona información a otros que harán del mundo un lugar mejor) probablemente no sea un accidente. Bogost argumentó en el Atlántico que entrenar robots con material publicado y protegido por derechos de autor no debería requerir el permiso de sus creadores, y no es fundamentalmente diferente de lo que sucede cuando un lector recomienda un libro a un amigo o familiar. “Uno de los hechos (y placeres) de la autoría es que el trabajo de uno se utilizará de maneras impredecibles”, escribe. Pero en este contexto, eso es absurdo. Recomendar un libro no implica copiarlo. Incluso prestar o regalar un libro a otra persona es perfectamente lícito, ya que en algún momento del proceso se compró el libro y una parte del precio de compra acabó en el bolsillo del autor. Ese no es el caso en este caso. OpenAI y Meta son empresas comerciales que esperan ganar dinero con sus chatbots. En la medida en que utilicen material protegido por derechos de autor para desarrollar su funcionalidad, les deben algo a los creadores. Quizás ahora sé qué pensar sobre el uso de mis libros para “entrenar” estas máquinas, especialmente si nadie en la cadena Books3/Meta u OpenAI pagó por ellos. Puede ser difícil descubrir qué papel desempeñaron en la “capacitación”, pero sea cual fuere, no debería ser gratuito.

Source link

Los robots y los humanos que los fabrican


Cuando los editores de IEEE Spectrum elaboran un número de la revista, una historia en el sitio web o un episodio de un podcast, intentamos facilitar el diálogo sobre las tecnologías, su desarrollo y sus implicaciones para la sociedad y el planeta. Contamos con voces expertas para articular desafíos técnicos y describir las soluciones de ingeniería que han ideado para enfrentarlos. Entonces, cuando el editor senior Evan Ackerman ideó un concepto para un podcast de robótica, se inclinó mucho por esa idea. Ackerman, el principal periodista de robótica del mundo, habla con expertos en robótica todos los días y grabar esas conversaciones para convertir esas entrevistas en un podcast suele ser un proceso relativamente sencillo. Pero Ackerman quería probar algo un poco diferente: reunir a dos expertos en robótica y simplemente apartarse del camino. “La forma en que funciona el podcast Chatbot es que invitamos a un par de expertos en robótica a hablar entre sí sobre un tema que tienen en mente. común”, explica Ackerman. «Ellos plantean las preguntas, no nosotros, lo que da como resultado el tipo de conversaciones sobre robótica que no escuchará en ningún otro lugar: excepcionalmente informativas pero también sorprendentes y divertidas». Cada episodio se centra en un tema general que los robóticos tienen en común, pero Una vez que empiezan a charlar, los invitados son libres de preguntarse entre sí sobre lo que les interese. Ackerman está allí para asegurarse de que no se adentre demasiado en la maleza, porque queremos que todos puedan disfrutar de estas conversaciones. «Pero por lo demás, me limitaré a escuchar», dice Ackerman, «porque estaré tan emocionado como tú de ver cómo se desarrolla cada episodio». Creemos que este formato único le brinda al oyente información privilegiada sobre aspectos de la robótica. que sólo los propios expertos en robótica podían conseguir que los demás revelaran. Nuestros primeros episodios ya están en vivo. Entre ellos se encuentran el director ejecutivo de Skydio, Adam Bry, y el profesor de la Universidad de Zurich, Davide Scaramuzza, hablando sobre drones autónomos, el director ejecutivo de Labrador Systems, Mike Dooley, y el director de tecnología de iRobot, Chris Jones, sobre los desafíos que enfrentan los robots domésticos en viviendas impredecibles, y la coreógrafa Monica Thomas y Amy LaViers del Laboratorio de Robótica, Automatización y Danza (RAD) que analiza cómo hacer que el robot de Boston Dynamics baile. Tenemos muchos más episodios de Chatbot en proceso, así que suscríbase al servicio de podcast que desee, escuche y lea la transcripción en nuestro sitio web o mire las versiones en video en el canal de YouTube de Spectrum. Mientras lo hace, suscríbase a nuestro otro podcast quincenal, Fixing the Future, donde hablamos con expertos y editores de Spectrum sobre soluciones sostenibles al cambio climático y otros temas de interés. Y nos encantaría saber qué piensa sobre nuestros podcasts: qué le gusta, qué no le gusta y, especialmente, a quién le gustaría escuchar en futuros episodios. Artículos de su sitio Artículos relacionados en la Web

Source link

Funciona con WordPress & Tema de Anders Norén