WhatsApp tiene opciones de formato de texto que permiten a los usuarios hacer cosas como negrita, cursiva o crear texto tachado. Esto es útil si hay ciertas palabras que desea enfatizar en un mensaje. Pero si crees que debería haber más opciones, estás de suerte. Un informe de WABetaInfo ha revelado que en la última actualización de WhatsApp, la compañía introduce nuevas opciones de formato de texto para los usuarios. Además de lo que está disponible actualmente, los usuarios podrán agregar bloques de código, bloques de citas y crear listas numeradas o con viñetas. Los bloques de código serán útiles para los programadores que puedan usar WhatsApp para compartir sus códigos con colegas u otros desarrolladores. Esto crea un bloque de texto que es más fácil de leer en comparación con un mensaje normal. El resto de las herramientas de formato de texto deberían explicarse por sí mismas. Si terminas usándolos o no es una historia diferente, pero al menos tendrás opciones. Estas nuevas opciones de formato de texto actualmente solo están disponibles en la última versión beta de WhatsApp. No se menciona cuándo se lanzarán al público en general estas nuevas herramientas de formato de texto. Los usuarios que estén interesados en probar esta función con anticipación, pueden registrarse para ser parte de la versión beta de WhatsApp aquí.
Etiqueta: meta
Esta es una publicación invitada. Las opiniones expresadas aquí son únicamente las del autor y no representan posiciones de IEEE Spectrum o IEEE. Cuando la gente piensa en aplicaciones de IA en estos días, probablemente piense en aplicaciones de IA de “código cerrado” como ChatGPT de OpenAI, donde el software del sistema está en manos seguras de su creador y de un conjunto limitado de socios examinados. Los usuarios cotidianos interactúan con estos sistemas a través de una interfaz web como un chatbot, y los usuarios empresariales pueden acceder a una interfaz de programación de aplicaciones (API) que les permite integrar el sistema de IA en sus propias aplicaciones o flujos de trabajo. Fundamentalmente, estos usos permiten a la empresa propietaria del modelo proporcionar acceso a él como un servicio, manteniendo al mismo tiempo seguro el software subyacente. El público no comprende tan bien la liberación rápida e incontrolada de potentes sistemas de IA no seguros (a veces llamados de código abierto). Un buen primer paso para comprender las amenazas que plantea la IA no segura es preguntar a los sistemas de IA seguros como ChatGPT, Bard o Claude. comportarse mal. La marca OpenAI aumenta la confusión. Si bien la compañía se fundó originalmente para producir sistemas de inteligencia artificial de código abierto, sus líderes determinaron en 2019 que era demasiado peligroso continuar publicando el código fuente y los pesos de los modelos de sus sistemas GPT (las representaciones numéricas de las relaciones entre los nodos en su red neuronal artificial). ) para el publico. OpenAI está preocupado porque estos sistemas de IA que generan texto pueden usarse para generar cantidades masivas de contenido bien escrito pero engañoso o tóxico. Empresas como Meta (mi antiguo empleador) han actuado en la dirección opuesta y han optado por lanzar potentes sistemas de IA no seguros en el mercado. nombre de democratizar el acceso a la IA. Otros ejemplos de empresas que lanzan sistemas de inteligencia artificial no seguros incluyen Stability AI, Hugging Face, Mistral, EleutherAI y el Technology Innovation Institute. Estas empresas y grupos de defensa de ideas afines han logrado avances limitados en la obtención de exenciones para algunos modelos no seguros en la Ley de IA de la Unión Europea, que está diseñada para reducir los riesgos de los potentes sistemas de IA. Es posible que presionen para obtener exenciones similares en Estados Unidos a través del período de comentarios públicos establecido recientemente en la Orden Ejecutiva sobre IA de la Casa Blanca. Creo que el movimiento de código abierto tiene un papel importante en la IA. Con una tecnología que aporta tantas capacidades nuevas, es importante que ninguna entidad actúe como guardián del uso de la tecnología. Sin embargo, tal como están las cosas hoy, la IA no segura representa un riesgo enorme que aún no podemos contener. Comprender la amenaza de la AIA no segura Un buen primer paso para comprender las amenazas que plantea la IA no segura es preguntar a los sistemas de IA seguros como ChatGPT, Bard, o Claude por portarse mal. Podrías pedirles que diseñen un coronavirus más mortal, que den instrucciones para fabricar una bomba, que hagan fotografías desnuda de tu actor favorito o que escriban una serie de mensajes de texto incendiarios diseñados para enojar más a los votantes de los estados indecisos por la inmigración. Es probable que reciba rechazos corteses a todas estas solicitudes porque violan las políticas de uso de estos sistemas de inteligencia artificial. Sí, es posible hacer jailbreak a estos sistemas de inteligencia artificial y hacer que se comporten mal, pero a medida que se descubren estas vulnerabilidades, se pueden solucionar. Ingrese a los modelos no seguros. El más famoso es Meta’s Llama 2. Fue lanzado por Meta con una “Guía de uso responsable” de 27 páginas, que fue rápidamente ignorada por los creadores de “Llama 2 Uncensored”, un modelo derivado sin características de seguridad y alojado de forma gratuita. descárguelo en el repositorio de Hugging Face AI. Una vez que alguien lanza una versión “sin censura” de un sistema de IA no seguro, el creador original del sistema se ve en gran medida impotente para hacer algo al respecto. Tal como están las cosas hoy, la IA no segura plantea un riesgo enorme que aún no podemos contener. La amenaza que plantean los sistemas de IA no seguros radica en la facilidad de uso indebido. Son particularmente peligrosos en manos de actores de amenazas sofisticados, que podrían descargar fácilmente las versiones originales de estos sistemas de IA y desactivar sus funciones de seguridad, luego crear sus propias versiones personalizadas y abusar de ellas para una amplia variedad de tareas. Algunos de los abusos de los sistemas de IA no seguros también implican el aprovechamiento de canales de distribución vulnerables, como las redes sociales y las plataformas de mensajería. Estas plataformas aún no pueden detectar con precisión el contenido generado por IA a escala y pueden usarse para distribuir cantidades masivas de información errónea personalizada y, por supuesto, estafas. Esto podría tener efectos catastróficos en el ecosistema de la información y, en particular, en las elecciones. La pornografía deepfake no consensuada y altamente dañina es otro ámbito en el que la IA no protegida puede tener profundas consecuencias negativas. La IA no protegida también tiene el potencial de facilitar la producción de materiales peligrosos, como armas biológicas y químicas. La Orden Ejecutiva de la Casa Blanca hace referencia a los riesgos químicos, biológicos, radiológicos y nucleares (QBRN), y el Congreso de los EE. UU. está considerando varios proyectos de ley para abordar estas amenazas. Recomendaciones para las regulaciones de IA No necesitamos regular específicamente la IA no segura, casi Todas las regulaciones que se han discutido públicamente también se aplican a los sistemas de IA seguros. La única diferencia es que es mucho más fácil para los desarrolladores de sistemas de IA seguros cumplir con estas regulaciones debido a las propiedades inherentes de la IA segura y no segura. Las entidades que operan sistemas de IA seguros pueden monitorear activamente los abusos o fallas de sus sistemas (incluidos los prejuicios y la producción de contenido peligroso u ofensivo) y publicar actualizaciones periódicas que hagan que sus sistemas sean más justos y seguros. fuente La IA es EL problema sin resolver más importante en el plazo inmediato”.—Gary Marcus, Universidad de Nueva York Como tal, casi todas las regulaciones recomendadas a continuación se generalizan a todos los sistemas de IA. La implementación de estas regulaciones haría que las empresas se lo pensaran dos veces antes de lanzar sistemas de IA no seguros que estén listos para ser objeto de abuso. Acción regulatoria para los sistemas de IA Pausar todos los nuevos lanzamientos de sistemas de IA no seguros hasta que los desarrolladores hayan cumplido con los requisitos a continuación, y de manera que garanticen que las características de seguridad no puedan ser fácilmente eliminadas. eliminado por malos actores. Establecer el registro y la concesión de licencias (tanto retroactivas como continuas) de todos los sistemas de IA por encima de un cierto umbral de capacidad. Crear responsabilidad por “uso indebido razonablemente previsible” y negligencia: los desarrolladores de sistemas de IA deben ser legalmente responsables de los daños causados a ambas personas. y para la sociedad. Establecer procedimientos de evaluación, mitigación y auditoría independiente de riesgos para los sistemas de IA que crucen el umbral mencionado anteriormente. Exigir mejores prácticas de marcas de agua y procedencia para que el contenido generado por IA esté claramente etiquetado y el contenido auténtico tenga metadatos que permitan a los usuarios comprender su procedencia. Exigir transparencia de los datos de capacitación y prohibir los sistemas de capacitación sobre información de identificación personal, contenido diseñado para generar contenido que incite al odio y contenido relacionado con armas biológicas y químicas. Exigir y financiar el acceso de investigadores independientes, brindando a los investigadores examinados y a las organizaciones de la sociedad civil acceso previo al despliegue a sistemas generativos de IA. para investigación y pruebas. Exigir procedimientos de “conozca a su cliente”, similares a los utilizados por las instituciones financieras, para las ventas de hardware potente y servicios en la nube diseñados para el uso de IA; restringir las ventas de la misma manera que se restringirían las ventas de armas. Divulgación obligatoria de incidentes: cuando los desarrolladores se enteran de vulnerabilidades o fallas en sus sistemas de inteligencia artificial, deben estar legalmente obligados a informar esto a una autoridad gubernamental designada. Acción regulatoria para canales de distribución y ataques SurfacesRequiere la implementación de credenciales de contenido para las redes sociales, lo que otorga a las empresas una fecha límite para implementar el estándar de etiquetado de credenciales de contenido de C2PA.Automatiza las firmas digitales para que las personas puedan verificar rápidamente su contenido generado por humanos.Limita el alcance del contenido generado por IA: cuentas que no Se ha verificado que los distribuidores de contenido generado por humanos podrían tener ciertas características desactivadas, incluida la distribución viral de su contenido. Reducir los riesgos químicos, biológicos, radiológicos y nucleares educando a todos los proveedores de ácidos nucleicos personalizados u otras sustancias potencialmente peligrosas sobre las mejores prácticas. Gobierno AcciónEstablecer un organismo regulador ágil que pueda actuar y hacer cumplir rápidamente y actualizar ciertos criterios de cumplimiento. Esta entidad tendría el poder de aprobar o rechazar evaluaciones de riesgos, mitigaciones y resultados de auditorías y tendría la autoridad para bloquear el despliegue del modelo. Apoyar a las organizaciones de verificación de datos y a los grupos de la sociedad civil (incluidos los “indicadores confiables” definidos por los Servicios Digitales de la UE). Act) y exigir que las empresas de IA generativa trabajen directamente con estos grupos. Cooperar internacionalmente con el objetivo de crear eventualmente un tratado internacional o una nueva agencia internacional para evitar que las empresas eludan estas regulaciones. La reciente Declaración de Bletchley fue firmada por 28 países, incluidos los países de origen de todas las principales empresas de IA del mundo (Estados Unidos, China, Reino Unido, Emiratos Árabes Unidos, Francia y Alemania); esta declaración estableció valores compartidos y abrió un camino para reuniones adicionales. democratizar el acceso a la IA con infraestructura pública: una preocupación común sobre la regulación de la IA es que limitará el número de empresas que pueden producir sistemas de IA complicados a un pequeño puñado y tenderá hacia el monopolio. prácticas de negocios. Sin embargo, existen muchas oportunidades para democratizar el acceso a la IA sin depender de sistemas de IA no seguros. Una es mediante la creación de una infraestructura pública de IA con potentes modelos de IA seguros. “Creo que cómo regulamos la IA de código abierto es EL problema sin resolver más importante en el plazo inmediato”, dijo Gary Marcus, científico cognitivo, empresario y profesor emérito de Me lo dijo la Universidad de Nueva York en un reciente intercambio de correos electrónicos. Estoy de acuerdo y estas recomendaciones son sólo un comienzo. Inicialmente serían costosas de implementar y requerirían que los reguladores hicieran descontentos a ciertos lobistas y desarrolladores poderosos. Desafortunadamente, dados los incentivos desalineados en los actuales ecosistemas de inteligencia artificial y de información, es poco probable que la industria tome estas acciones a menos que se vea obligada a hacerlo. Si no se toman medidas como estas, las empresas que producen IA no segura pueden generar miles de millones de dólares en ganancias y, al mismo tiempo, trasladar los riesgos que plantean sus productos a todos nosotros.De los artículos de su sitioArtículos relacionados en la Web
Source link
Ante un mayor escrutinio sobre los efectos de sus redes sociales en los usuarios adolescentes, Meta anunció el martes que los adolescentes en Facebook e Instagram verán menos contenido relacionado con autolesiones y trastornos alimentarios. Meta ya filtra dicho contenido de los feeds que recomienda a los usuarios, como como Reels y Explore de Instagram. Pero bajo una serie de cambios que se implementarán en los próximos meses, las publicaciones e historias dañinas no se mostrarán a los adolescentes «incluso si [they’re] compartido por alguien a quien siguen”, dijo la compañía en un comunicado. Los temas dañinos incluyen el suicidio, las autolesiones, los trastornos alimentarios, los productos restringidos (incluidas armas de fuego, drogas y juguetes sexuales) y la desnudez. Otro cambio configurará automáticamente a los usuarios menores de 18 años para las configuraciones de recomendación de contenido más restrictivas, con el objetivo de hacer menos probable que los algoritmos de Meta les recomienden contenido dañino. Sin embargo, no está claro si los adolescentes podrían simplemente cambiar su configuración para eliminar las restricciones. La compañía dice que la funcionalidad de búsqueda de las aplicaciones estará limitada en consultas relacionadas con temas dañinos. En lugar de proporcionar el contenido solicitado, las aplicaciones dirigirán a los usuarios a obtener ayuda cuando busquen contenido relacionado con el suicidio, las autolesiones y los trastornos alimentarios. A los usuarios adolescentes también se les pedirá que actualicen su configuración de privacidad, según el comunicado. Los cambios son necesario para ayudar a que las “plataformas de redes sociales [into] espacios donde los adolescentes pueden conectarse y ser creativos de manera apropiada para su edad”, dijo Rachel Rodgers, profesora asociada en el Departamento de Psicología Aplicada de la Universidad Northeastern. Facebook e Instagram han sido tremendamente populares entre los adolescentes durante años. Las plataformas han despertado la preocupación de padres, expertos y funcionarios electos por los efectos en los usuarios más jóvenes, en parte por lo que ven estos usuarios y en parte por la cantidad de tiempo que pasan en las redes. El cirujano general estadounidense Vivek Murphy advirtió en mayo que debido a que los efectos de las redes sociales en niños y adolescentes eran en gran medida desconocidos, las compañías necesitaban tomar “medidas inmediatas para proteger a los niños ahora”. En octubre, California se unió a docenas de otros estados en una demanda contra Meta alegando que la compañía usaba “psicológicamente características manipuladoras del producto” para atraer a usuarios jóvenes y mantenerlos en las plataformas el mayor tiempo posible. “Meta ha aprovechado su extraordinaria innovación y tecnología para atraer a jóvenes y adolescentes a maximizar el uso de sus productos”, afirma Atty. dijo el general Rob Bonta en una conferencia de prensa en la que anunció la demanda. En noviembre, una versión no redactada de la demanda reveló una acusación de que Mark Zuckerberg vetó una propuesta para prohibir los filtros de cámara de las aplicaciones que simulan los efectos de la cirugía plástica, a pesar de las preocupaciones de que el Los filtros podrían ser perjudiciales para la salud mental de los usuarios. Después de que se publicara la denuncia no redactada, Bonta fue más enfático: «Meta sabe que lo que está haciendo es malo para los niños, punto», dijo en un comunicado, diciendo que la evidencia «está ahí». en blanco y negro, y es condenatorio”. Associated Press contribuyó a este informe.
Source link
El año pasado, la IA generativa realmente despegó con empresas como OpenAI, Google, X y otras que introdujeron sus propias herramientas de IA. En ese sentido, la empresa matriz de Facebook, Meta, se ha lanzado al ruedo y ha introducido un nuevo generador de imágenes de IA llamado Imagine. Como puedes imaginar, es un competidor directo de plataformas establecidas como DALL-E y Midjourney. ¿Pero qué tan bien funciona? En esta publicación, echemos un vistazo más de cerca a las tecnologías que impulsan Meta’s Imagine y cómo se comportan sus resultados en comparación con la competencia. ¿Qué es Imagine con Meta AI? ¿Como funciona? Imagine with Meta AI es un generador de imágenes de IA que convierte cualquier mensaje descriptivo basado en texto en arte. Imagine de Meta puede generar un grupo de cuatro imágenes en segundos, lo que tiene el potencial de acelerar drásticamente ciertos flujos de trabajo creativos. De manera controvertida, el modelo que impulsa Imagine AI fue entrenado utilizando 1.100 millones de imágenes de Facebook e Instagram. Meta ha enfatizado que solo usó imágenes públicas para entrenar su modelo de IA, lo que significa que no se utilizaron medios de conversaciones privadas durante el proceso de entrenamiento. Sin embargo, dejando de lado las preocupaciones sobre la privacidad, el uso que hace Meta de millones de imágenes de la vida real significa que Imagine AI hace un excelente trabajo al recrear arte realista y realista. ¿Imagine AI de Meta es gratuito? Sí, Imagine AI de Meta es de uso completamente gratuito. Sin embargo, todavía está en su versión beta por ahora, por lo que no está claro si la herramienta costará dinero en el futuro. La desventaja es que las imágenes generadas por IA de Meta contienen una marca de agua pequeña pero prominente en la esquina inferior izquierda. No puedes eliminar esta marca de agua en este momento y es poco probable que eso cambie ya que la IA puede producir algunas imágenes de apariencia muy auténtica. Imagine vs DALL-E y Midjourney: ¿Cómo se comparan? Midjourney e Imagine with Meta AI son herramientas muy similares. Si bien ambos brindan esencialmente el mismo servicio, existen algunas diferencias entre ellos. La mayor diferencia está en su accesibilidad y precio. Si bien Imagine es actualmente gratuito para todos los usuarios, la suscripción de Midjourney le costará al menos $96 por año ($8 mensuales). DALL-E 3 es otra herramienta popular de generación de imágenes, pero también sigue un modelo de suscripción. Dicho esto, puedes usar DALL-E 3 de forma gratuita a través de Bing Image Creator. Meta’s Imagine todavía está en versión beta y solo está disponible en algunos países. Otra diferencia importante entre las dos herramientas es que Midjourney está mucho más disponible; Midjourney está disponible para su uso en la mayor parte del mundo, excepto en algunos casos atípicos como los Emiratos Árabes Unidos y China. Sin embargo, Imagine es mucho más limitado y actualmente solo está disponible en los Estados Unidos. Dicho esto, Meta ha insinuado una mayor disponibilidad en el futuro cercano, por lo que es solo cuestión de tiempo antes de que ambas plataformas alcancen la paridad. Entonces, ¿cómo se comparan las imágenes de Imagine AI de Meta con las de la competencia? Aquí hay una comparación lado a lado entre Meta Imagine y DALL-E 3 en una variedad de indicaciones y estilos artísticos. Pregunta 1: Un paisaje urbano futurista lleno de autos voladores y rascacielos iluminados con luces de neón, Imagine AIDALL-E 3 hiperrealista a través de Mensaje 2 de Bing: un anciano que vende sus productos recién capturados en un bullicioso mercado de pescado en el Sudeste Asiático, realista. Imagine AIDALL-E 3 a través del Mensaje 3 de Bing: un jardín caprichoso, parecido a un cuento de hadas, lleno de animales que hablan y una flora encantadora. mágico Imagine AIDALL-E 3 a través de Bing Mensaje 4: una hermosa mujer parada en una playa frente al océano, realista Imagine AIDALL-E 3 a través de Bing Al observar las imágenes de arriba, Imagine AI de Meta es ciertamente impresionante en todos los aspectos y brinda resultados establecidos. plataformas como DALL-E y Midjourney corren por su dinero. Sin embargo, adolece de los mismos problemas que los generadores de imágenes en términos de detalle fino y precisión rápida. Tomemos como ejemplo el segundo mensaje, donde la IA de Meta tuvo dificultades para representar los dedos del humano con precisión. Del mismo modo, DALL-E 3 siguió más de cerca el tercer mensaje, mientras que Imagine no prestó mucha atención a la parte «lleno de animales que hablan». Imagine AI de Meta puede recrear características humanas excepcionalmente bien. Dicho esto, Imagine AI de Meta realmente brilla en escenarios en los que necesita recrear rasgos humanos como rostros, tonos de piel y mechones de cabello. Como puede ver en el cuarto mensaje, deja atrás a su rival más cercano y produce una imagen de aspecto bastante realista. Imagine with Meta AI: Disponibilidad Imagine with Meta AI actualmente solo está disponible para usuarios que se encuentran en los Estados Unidos, aunque esto puede cambiar más adelante en el futuro. Meta dice que Imagine todavía está en versión beta, por lo que puede estar más disponible a medida que la herramienta se desarrolle y mejore. Vale la pena señalar que existe una solución alternativa para quienes viven fuera de los Estados Unidos. Podrías falsificar tu ubicación utilizando un servicio VPN (red privada virtual), que esencialmente cambia tu dirección IP para que aparezca desde una ubicación diferente. Aunque las VPN son fácilmente accesibles y legales en muchas partes del mundo, usar una podría violar los términos de servicio de Meta y resultar en la suspensión de la cuenta. Recomendamos no utilizar una VPN, especialmente junto con su cuenta principal de Facebook. Cómo usar Imagine con Meta AI Usar Imagine con Meta AI es bastante sencillo, especialmente si ya tienes una cuenta de Facebook. Así es como puede comenzar: navegue hasta imagine.meta.com y haga clic en el botón Iniciar sesión para generar. A continuación, continúa con tu cuenta de Facebook o Instagram. También puedes utilizar tu correo electrónico. Una vez registrado, estará listo para comenzar a generar imágenes. Imagine AI genera imágenes a través de mensajes de texto. Esto significa que simplemente tiene que describir la imagen deseada en el campo de texto y luego hacer clic en el botón Generar. Una vez completado, puede descargar una de las cuatro imágenes diferentes generadas por IA o elegir enviar un nuevo mensaje. Como mencioné anteriormente, Meta’s Imagine agrega una pequeña marca de agua en la esquina de todas y cada una de las imágenes generadas por IA. Tampoco puede mejorar sus imágenes generadas por IA más allá de la resolución predeterminada de 1024 × 1024. Finalmente, Imagine AI solo puede generar imágenes en una relación de aspecto cuadrada por ahora. También puede pedirle a Imagine AI de Meta que genere imágenes en los chats de Messenger e Instagram sin un navegador web. Simplemente escriba @Meta AI /imagine seguido de su mensaje y presione enviar. El chatbot debería responder con una imagen generada por IA como se muestra arriba. Comentarios
Source link
Groucho Marx dijo que no quería pertenecer a ningún club que lo tuviera como socio. Me pregunto cómo se sentiría si fuera uno de los autores cuyos libros han sido pirateados por, entre otros, Meta, que ha introducido una enorme base de datos de libros en LLaMMa, su entrada en la carrera armamentista de inteligencia artificial. Después de todo, Groucho es un miembro, reclutado desde más allá de la tumba, con dos de sus libros entre las decenas de miles de la lista. A los demás autores tampoco nadie les preguntó si querían pertenecer al club de los escritores explotados, suponiendo sin duda que la respuesta sería no. Puedo escuchar el tono: Hola. Has pasado tu vida contando historias. Ahora nos gustaría tomar todo ese trabajo duro y dárselo a nuestros sistemas de IA, a pesar de sus protecciones de derechos de autor, para que pueda alimentar programas que, sí, amenazan con sacarlo del negocio y hacer que la IA gane mucho dinero. mientras no ganes ni un centavo. Suena genial, ¿verdad? ¿No? OK no importa. Simplemente lo registraremos de todos modos y no se lo diremos. Se han presentado demandas, lo que lamentablemente recuerda el cliché de cerrar la puerta del granero después de que el caballo se haya escapado. En este caso estamos hablando de una estampida: Books3, un conjunto de datos que alimenta a LLaMMa así como a algunos de sus competidores, sugiere de manera obvia y precisa la existencia de Books1 y Books2, y no son los únicos programas que están devorando libros. en nombre de empresas de IA. Supongo que los autores que demanden podrían obtener un acuerdo financiero en el futuro, y tal vez incluso eliminar sus trabajos del conjunto de datos, pero en realidad, quién sabe si es posible desenseñar la IA, hacer que olvide las lecciones aprendidas de los trabajos. de Sarah Silverman, o Zadie Smith, o Jonathan Franzen, por mencionar algunos de los demandantes. Peor aún, o al menos tremendamente irónico, Books3 es una creación de un programador independiente que reclama la ventaja de los pequeños y espera ampliar el acceso a los datos que ha reunido más allá de los usuarios grandes como OpenAI y Meta. Robar al escritor comparativamente pobre y dárselo al aspirante a empresario tecnológico rico: un interesante giro inverso a Robin Hood. Al igual que Groucho, soy un miembro involuntario del club Books3. Un periodista del Atlantic ha creado una herramienta de búsqueda que combina el conjunto de datos y se han apropiado de tres de mis libros (una obra de no ficción, una novela y un libro de cocina). Cuando lo descubrí, solo por un instante retro, sentí la pequeña emoción patética aunque familiar que conlleva estar en una lista: una lista de libros más vendidos, una lista de lectura obligada, una lista de 10 libros para septiembre, una lista de regalos navideños. Érase una vez, estar en la lista significaba que alguien había leído su libro y lo apreciaba. Por lo que sé, Books3 «eligió» el libro de cocina que escribí simplemente porque incluía las palabras «cucharadita», «pimiento de pájaro» y «merluza». No es que alguien se haya enamorado de la receta del pollo al carrito. En el nuevo mundo, ya no soy un narrador de cuentos. Me veo reducido a una fuente de datos para palabras, frases y construcción de oraciones. AI está cenando fuera de los seis meses no remunerados que pasé en una propuesta y permisos, en los debates sobre palabras que me hacen mantener una libreta y un lápiz junto a la cama para inspirarme durante el insomnio, en el largo proyecto de prueba y error que es la estructura de un libro. Y esa lamentable historia se repite para todos los autores de la lista. No es que quiera romantizar la escritura. Estamos hablando de explotación igualitaria de oportunidades. Toma lo que sea que hagas para ganarte la vida, imagina que alguien te robó los frutos de tu trabajo y observa lo mal que te sientes. Y no asuma que no vendrán por usted: durante el último mes, he escuchado a personas de todas las edades, en una variedad de campos, predecir que sus trabajos no serán los mismos en cinco años, si tienen puestos de trabajo una vez que la IA realmente se ponga en marcha. Ingresé nombre tras nombre en la herramienta de búsqueda del Atlántico. AI ha consumido Philip Roth en inglés y español, así como 33 obras de Margaret Atwood. No puedo esperar a ver cómo se desarrolla esa colisión en la mente de la colmena de IA. Los premios Nobel Toni Morrison y Kazuo Ishiguro también están allí. Piensa en un autor y échale un vistazo; probablemente estará en la lista. De alguna manera, nunca esperé tener ninguna superposición con Groucho, pero aquí estamos, sin querer pertenecer al club Book3 pero sin poder encontrar la salida. No podemos simplemente enviar una carta de renuncia y echarnos atrás, como hizo con el Friars Club. Me gusta pensar que existe un universo en el que la IA podría funcionar a nuestro favor y no en nuestra contra, pero si esta configuración es una indicación, me aboco a la decepción. Los directivos del club parecen ver a sus miembros como nada más que un flujo de datos con pulso. Nos inscribieron a escondidas, saquearon el contenido de los casilleros de nuestra casa club y ahora están listos para ganar dinero pretendiendo que pueden replicar lo que hacemos. El libro más reciente de Karen Stabiner es “Generation Chef”, que forma parte del conjunto de datos de Books3.
Source link
El modelo de lenguaje grande Samsung Gauss puede ayudar con la escritura de código y el análisis de documentos. Samsung Research ha revelado un asistente de IA generativa llamado Samsung Gauss que el grupo de investigación utiliza internamente pero que eventualmente puede aparecer en los teléfonos de consumo de Samsung. Samsung Gauss tiene como objetivo mejorar la eficiencia del trabajo al hacer que redactar correos electrónicos, escribir código y generar imágenes sea más fácil y rápido. Samsung Research presentó detalles sobre Gauss en el segundo día del Samsung AI Forum 2023 el 8 de noviembre de 2023 en Gyeonggi-do, Corea. La IA en los dispositivos se ha convertido rápidamente en una herramienta imprescindible para los principales fabricantes de tecnología. Gauss de Samsung competirá con Google Assistant, que se ejecuta en dispositivos Pixel y Llama 2 de Meta, que estará integrado en ciertos teléfonos inteligentes y PC con tecnología Qualcomm a partir de 2024. Saltar a: ¿Qué es Samsung Gauss? Samsung Gauss es un modelo de lenguaje grande asociado con varias tecnologías de inteligencia artificial integradas para dispositivos móviles Samsung. Samsung Gauss se incluirá en «… una variedad de aplicaciones de productos Samsung…» en un futuro próximo, dijo Samsung Research en una publicación de blog. El Korea Times dijo que Gauss podría aparecer por primera vez en el Samsung Galaxy S24 a principios de 2024. Por ahora, el grupo de investigación de Samsung está utilizando Gauss para «… la productividad de los empleados». VER: ¿Cambiar de un iPhone de Apple a un teléfono Samsung Galaxy? Samsung crea una herramienta de transferencia sencilla. (TechRepublic) Samsung Gauss lleva el nombre de Carl Friedrich Gauss, el matemático que desarrolló la teoría de la distribución normal, que es una parte clave del aprendizaje automático y la inteligencia artificial. «El nombre refleja la visión fundamental de Samsung para los modelos, que consiste en aprovechar todos los fenómenos y conocimientos del mundo para aprovechar el poder de la IA para mejorar las vidas de los consumidores en todo el mundo», afirmó Samsung Research en la publicación del blog. ¿Cuáles son las diversas capacidades de los tres modelos Samsung Gauss? Samsung Gauss tiene tres modelos con diferentes capacidades: Samsung Gauss Language es un modelo de lenguaje generativo que puede redactar correos electrónicos, resumir documentos y traducir contenido. Se puede integrar en el control del dispositivo. (Samsung actualmente cuenta con Bixby para el control por voz de dispositivos móviles). Samsung Gauss Code es una herramienta de desarrollo de software que puede realizar funciones como descripción de código y generación de casos de prueba. Samsung Gauss Code habilita code.i, un asistente de codificación. Samsung Gauss Image crea o mejora imágenes. Samsung ofrece garantías con respecto a la seguridad Samsung, que prohibió temporalmente a sus empleados el uso de productos de IA generativa, incluidos ChatGPT de OpenAI y Bard de Google a principios de este año después de una filtración de datos interna, enfatizó en el comunicado de prensa que su Equipo Rojo de IA está trabajando arduamente en seguridad. El equipo de seguridad monitorea la IA en busca de cuestiones éticas y de privacidad que incluyen «… recopilación de datos para el desarrollo de modelos de IA, implementación de servicios y resultados generados por IA…», escribió Samsung Research en su publicación de blog. Nota: TechRepublic se comunicó con Samsung Research para obtener más información sobre Samsung Gauss.
En julio y septiembre, 15 de las mayores empresas de IA firmaron los compromisos voluntarios de la Casa Blanca para gestionar los riesgos que plantea la IA. Entre esos compromisos estaba la promesa de ser más transparentes: compartir información “en toda la industria y con los gobiernos, la sociedad civil y el mundo académico” e informar públicamente sobre las capacidades y limitaciones de sus sistemas de IA. Todo lo cual suena muy bien en teoría, pero ¿qué significa en la práctica? ¿Qué es exactamente la transparencia cuando se trata de los modelos masivos y poderosos de estas empresas de IA? Gracias a un informe encabezado por el Centro de Investigación sobre Modelos de Cimientos (CRFM) de Stanford, ahora tenemos respuestas a esas preguntas. Los modelos básicos que les interesan son creaciones de propósito general como GPT-4 de OpenAI y PaLM 2 de Google, que se entrenan con una enorme cantidad de datos y pueden adaptarse para muchas aplicaciones diferentes. El Índice de Transparencia de Modelos de la Fundación calificó 10 de los modelos más importantes en 100 métricas diferentes de transparencia. La puntuación total más alta es para Meta’s Llama 2, con 54 sobre 100. No les fue tan bien. La puntuación total más alta es para Meta’s Llama 2, con 54 sobre 100. En la escuela, eso se consideraría una calificación reprobatoria. «Ningún desarrollador importante de modelos básicos está cerca de proporcionar una transparencia adecuada», escribieron los investigadores en una publicación de blog, «lo que revela una falta fundamental de transparencia en la industria de la IA». Rishi Bommasani, candidato a doctorado en el CRFM de Stanford y uno de los líderes del proyecto , afirma que el índice es un esfuerzo por combatir una tendencia preocupante de los últimos años. «A medida que aumenta el impacto, la transparencia de estos modelos y empresas disminuye», afirma. En particular, cuando OpenAI actualizó de GPT-3 a GPT-4, la compañía escribió que había tomado la decisión de retener toda la información sobre «arquitectura (incluido el tamaño del modelo), hardware, computación de entrenamiento, construcción de conjuntos de datos, [and] método de entrenamiento”. Las 100 métricas de transparencia (enumeradas en su totalidad en la publicación del blog) incluyen factores ascendentes relacionados con el entrenamiento, información sobre las propiedades y la función del modelo, y factores descendentes relacionados con la distribución y el uso del modelo. «No es suficiente, como han pedido muchos gobiernos, que una organización sea transparente cuando publica el modelo», dice Kevin Klyman, asistente de investigación en el CRFM de Stanford y coautor del informe. «También tiene que ser transparente sobre los recursos que se destinan a ese modelo, las evaluaciones de las capacidades de ese modelo y lo que sucede después del lanzamiento». Para calificar los modelos según los 100 indicadores, los investigadores buscaron en los datos disponibles públicamente. , dando a los modelos un 1 o 0 en cada indicador según umbrales predeterminados. Luego hicieron un seguimiento con las 10 empresas para ver si querían impugnar alguna de las puntuaciones. “En algunos casos, se nos pasó por alto alguna información”, dice Bommasani. Spectrum se puso en contacto con representantes de una variedad de empresas que aparecen en este índice; Ninguno de ellos había respondido a las solicitudes de comentarios al cierre de nuestra fecha límite. “El trabajo en IA es un tema habitualmente opaco. Y aquí es muy opaco, incluso más allá de las normas que hemos visto en otras áreas”.—Rishi Bommasani, Stanford La procedencia de los datos de entrenamiento para los modelos básicos se ha convertido en un tema candente, con varias demandas que alegan que las empresas de IA incluyeron ilegalmente material protegido por derechos de autor de los autores. en sus conjuntos de datos de entrenamiento. Y tal vez no sea sorprendente que el índice de transparencia mostrara que la mayoría de las empresas no han sido comunicativas con respecto a sus datos. El modelo Bloomz del desarrollador Hugging Face obtuvo la puntuación más alta en esta categoría, con un 60 por ciento; Ninguno de los otros modelos obtuvo una puntuación superior al 40 por ciento y varios obtuvieron un cero. Un mapa de calor muestra cómo les fue a los 10 modelos en categorías que van desde datos hasta impacto. Centro Stanford para la Investigación sobre Modelos de Fundación Las empresas también guardaron silencio sobre el tema del trabajo, lo cual es relevante porque los modelos requieren trabajadores humanos para perfeccionar sus modelos. Por ejemplo, OpenAI utiliza un proceso llamado aprendizaje reforzado con retroalimentación humana para enseñar a modelos como GPT-4 qué respuestas son más apropiadas y aceptables para los humanos. Pero la mayoría de los desarrolladores no hacen pública la información sobre quiénes son esos trabajadores humanos y qué salarios les pagan, y existe la preocupación de que esta mano de obra se esté subcontratando a trabajadores con salarios bajos en lugares como Kenia. «El trabajo en IA es un tema habitualmente opaco», dice Bommasani, «y aquí es muy opaco, incluso más allá de las normas que hemos visto en otras áreas». Hugging Face es uno de los tres desarrolladores del índice que los investigadores de Stanford consideraron » open”, lo que significa que los pesos de los modelos se pueden descargar ampliamente. Los tres modelos abiertos (Llama 2 de Meta, Hugging Face’s Bloomz y Stable Diffusion de Stability AI) lideran actualmente el camino en transparencia, con una puntuación mayor o igual que el mejor modelo cerrado. Si bien esos modelos abiertos obtuvieron puntos de transparencia, no todos creen que sean los actores más responsables en el campo. Actualmente existe una gran controversia sobre si modelos tan poderosos deberían ser de código abierto y, por lo tanto, potencialmente disponibles para los malos actores; Hace apenas unas semanas, los manifestantes llegaron a la oficina de Meta en San Francisco para denunciar la “proliferación irreversible” de tecnología potencialmente insegura. Bommasani y Klyman dicen que el grupo de Stanford está comprometido a mantenerse al día con el índice y planean actualizarlo al menos una vez al año. El equipo espera que los responsables políticos de todo el mundo recurran al índice a la hora de elaborar legislación sobre la IA, ya que en muchos países se están realizando esfuerzos regulatorios. Si las empresas obtienen mejores resultados en materia de transparencia en las 100 áreas diferentes destacadas por el índice, dicen, los legisladores tendrán una mejor idea de qué áreas requieren intervención. «Si hay una opacidad generalizada en los impactos laborales y posteriores», dice Bommasani, «esto les da a los legisladores cierta claridad de que tal vez deberían considerar estas cosas». Es importante recordar que incluso si un modelo hubiera obtenido una puntuación alta de transparencia en el índice actual, Eso no significaría necesariamente que fuera un modelo de virtud de la IA. Si una empresa revelara que un modelo fue entrenado con material protegido por derechos de autor y refinado por trabajadores a los que se les paga menos del salario mínimo, aún ganaría puntos por la transparencia sobre los datos y la mano de obra. «Estamos tratando de sacar a la luz los hechos» como primer paso, dice Bommasani. «Una vez que haya transparencia, habrá mucho más trabajo por hacer».
Source link
Descargo de responsabilidad: las opiniones expresadas en esta historia pertenecen únicamente al autor. En 2007, Amazon lanzó Amazon Pay, una pasarela de pagos en línea que permite a los titulares de cuentas realizar pagos en miles de sitios web. En los años posteriores, el resto de las grandes empresas tecnológicas han seguido su ejemplo: Google Pay se lanzó en 2011, Apple Pay en 2014, Microsoft Pay en 2016 y Facebook (ahora Meta) Pay en 2019. Tras esta entrada inicial en las finanzas, Estas empresas solo han ampliado sus horizontes en la década de 2020. Google se ha asociado con bancos de todo el mundo (DBS y OCBC en Singapur) para ampliar sus servicios Google Pay, Apple ha lanzado una cuenta de ahorros de alto rendimiento en asociación con Goldman Sachs, y la historia continúa. Todo esto plantea la pregunta: ¿por qué? ¿Por qué todas las grandes tecnologías se están trasladando a los servicios financieros y por qué lo están haciendo ahora? La respuesta corta: datos. La respuesta larga es la siguiente. Crecimiento de la recopilación de datos Desde la llegada de Internet, ha habido un crecimiento exponencial en la cantidad de datos producidos cada año. Para dos de las cinco grandes empresas tecnológicas (Alphabet y Meta), aprovechar estos datos ha sido la clave para su modelo de negocio principal. En 2022, al igual que en años anteriores, los servicios publicitarios de Google representaron el 80 por ciento de los ingresos de Alphabet. Como motor de búsqueda más grande del mundo, la plataforma tiene acceso a una gran cantidad de datos de los usuarios, como edad, sexo, ubicación e historial de búsqueda. Utilizando estos datos, Google permite a los anunciantes orientar sus anuncios a aquellos que encajan en un determinado grupo demográfico. Esto incluye la segmentación basada en intereses, pasatiempos e incluso nivel de ingresos. Un ejemplo de las opciones de orientación demográfica que ofrecen Google Ads/Créditos de imagen: KlientBoost Meta utiliza un modelo similar utilizando los datos recopilados de sus plataformas de redes sociales, Facebook e Instagram. A continuación, consideremos a Amazon, Microsoft y Apple, que no dependen de la recopilación de datos para su negocio principal, sino que obtienen beneficios de ella como un flujo terciario o por medios indirectos. La principal fuente de ingresos de Amazon es su negocio minorista con más de 300 millones de usuarios. Con todos los datos que la empresa recopila sobre los hábitos de compra de sus usuarios, tiene la oportunidad perfecta para ofrecer servicios de publicidad dirigida a casi 10 millones de vendedores que utilizan su mercado. El negocio de publicidad de Amazon ha experimentado un rápido crecimiento desde 2021 (cuando la compañía lo informó por primera vez en sus ganancias), generando más de 30 mil millones de dólares en ingresos anuales. Los ingresos por publicidad en búsquedas de Microsoft, derivados del motor de búsqueda Bing, representaron el seis por ciento, o 11.600 millones de dólares, de los ingresos totales de la compañía en 2022. Si bien es una proporción relativamente pequeña, generó un 36 por ciento más que el año anterior. lo que la convierte en la de más rápido crecimiento entre todas las fuentes de ingresos de Microsoft. Finalmente, si bien Apple no ofrece servicios de publicidad, sí cobra a Google por el derecho a ser el motor de búsqueda predeterminado en los dispositivos Apple. En 2014, esto costó mil millones de dólares y hoy, según se informa, cuesta más de 18 mil millones de dólares. Google es el primero en recopilar datos de los usuarios de productos Apple y Apple, consciente del valor creciente de estos datos, cobra una tarifa más alta a medida que pasa el tiempo. La próxima frontera de la recopilación de datos En 2006, el matemático Clive Humby dijo que “los datos son el nuevo petróleo”, y sus observaciones ciertamente han envejecido bien. Entonces, según esa analogía, recopilar más datos sería una forma segura de ganar más dinero. Como han demostrado Meta y Google con sus respectivas plataformas, una forma eficaz de recopilar datos es a cambio del acceso a algo de valor. Por ejemplo, Instagram permite a los usuarios conectarse con amigos y consumir contenido a cambio de datos como lo que les gusta y lo que no, sus intereses y detalles personales. Estas métricas de datos básicos están disponibles para todas las grandes empresas de tecnología en la actualidad. Para obtener una ventaja en el futuro, deben buscar formas de obtener una visión más profunda de la vida de sus consumidores. Aquí es donde entran las finanzas. Los hábitos de gasto pueden resaltar tendencias y ofrecer una imagen clara de métricas como el ingreso disponible, los medios de gasto preferidos y la frecuencia de las compras. Amazon podría introducir anuncios dirigidos más sofisticados al recopilar datos sobre los hábitos de gasto de sus consumidores / Créditos de imagen: Amazon Ads Por ejemplo, si reserva unas vacaciones usando Amazon Pay, el mercado de Amazon podría usar estos datos para seleccionar sus anuncios en consecuencia, dirigiéndose a usted con lo esencial. que puedas necesitar para tu viaje. De manera similar, Google y Meta podrían refinar su segmentación de clientes y ofrecer más valor a los clientes que se anuncian con ellos. Un hotelero podría dirigirse no sólo a los usuarios que tienen «viajar» como uno de sus intereses, sino también a aquellos que han gastado más de 1.000 dólares estadounidenses en viajes en los últimos seis meses. Aprovechar las fortalezas existentes Las finanzas ofrecen una oportunidad ideal para las grandes empresas de tecnología, en la que pueden aumentar los puntos de recopilación de datos mientras aprovechan sus fortalezas existentes y satisfacen una necesidad del consumidor. Las pasarelas de pago son una solución que encaja perfectamente en esta intersección. Los pagos en línea se han vuelto cada vez más populares en los últimos años y, por eso, los consumidores necesitan formas más seguras de realizar transacciones. Es inconveniente y arriesgado almacenar datos de pago en varios comerciantes y terceros. Como tal, las pasarelas de pago actúan como intermediarios confiables, facilitando las transacciones y manteniendo seguros los datos financieros. Los consumidores no necesitan compartir la información de su tarjeta de crédito con cada sitio web desde el que realizan pedidos, solo con la pasarela de pago. Las ofertas de pagos digitales de Apple, Google y Amazon estuvieron entre las mejores en los EE. UU. cuando se clasificaron según el conocimiento de la marca / Créditos de imagen: Enterprise Apps Today Naturalmente, al elegir una pasarela de pago, los consumidores elegirían una que sea confiable y de buena reputación. Las grandes empresas tecnológicas disfrutan aquí de una ventaja competitiva, dada su relación preestablecida con una gran base de consumidores. Millones de usuarios del mercado de Amazon, que ya han compartido los datos de su tarjeta de crédito con la empresa, probablemente recurrirían a Amazon Pay antes de considerar una pasarela de pago lanzada por una empresa con la que no están familiarizados. Por lo tanto, las grandes empresas tecnológicas pueden ingresar al ámbito de las finanzas con una ventaja sobre otros actores y, al hacerlo, mejorar significativamente sus esfuerzos de recopilación de datos. El futuro de la recopilación de datos El papel que desempeñan los datos en el marketing y la publicidad no hará más que crecer a medida que pase el tiempo. Para empresas como Google y Meta, una mejor recopilación de datos será clave para salvaguardar su negocio principal. Para Microsoft, Amazon y Apple, podría representar una oportunidad atractiva para diversificar aún más sus fuentes de ingresos. Junto con la recopilación de datos, el análisis desempeña un papel igualmente importante. Después de todo, los datos son de poca utilidad hasta que se filtran en tendencias e información útil. Lea la siguiente entrevista con el director de ingresos de Crayon Data para conocer el creciente uso de la inteligencia artificial (IA) para maximizar el valor de los datos recopilados. Crédito de la imagen destacada: Amazon / Google / Apple / Meta Lea también: Privacidad de datos en peligro: ¿Debería el mundo tener cuidado con las superaplicaciones?
Cuando el novelista Douglas Preston comenzó a jugar con ChatGPT, le planteó un desafío al software de inteligencia artificial: ¿podría escribir un poema original basado en un personaje de algunos de sus libros? “Salió con este fantástico poema escrito en pentámetro yámbico”, Preston recordado. El resultado fue impresionante y preocupante. “Lo que realmente me sorprendió fue lo mucho que sabían sobre este personaje; mucho más de lo que podría haber obtenido de Internet”, dijo Preston. El escritor de aventuras sospechaba que el chatbot había absorbido de alguna manera su trabajo, presumiblemente como parte del proceso de entrenamiento mediante el cual un modelo de inteligencia artificial ingiere una gran cantidad de datos que luego sintetiza. en contenido aparentemente original. «Ese fue un sentimiento muy inquietante», dijo Preston, «no muy diferente a llegar a casa y descubrir que alguien ha estado en su casa y se ha llevado cosas». Esas preocupaciones llevaron a Preston a firmar una propuesta de demanda colectiva acusando a OpenAI , el desarrollador detrás de ChatGPT y un actor importante en la creciente industria de la inteligencia artificial, de infracción de derechos de autor. (OpenAI buscó recientemente una valoración de entre 80.000 y 90.000 millones de dólares). A Preston se le unen en la demanda una serie de otros autores de renombre, entre ellos John Grisham, Jonathan Franzen, Jodi Picoult y George RR Martin, el notoriamente lento para publicar al autor de “Juego de Tronos” quien, dice Preston, se unió a la demanda por frustración porque los fanáticos estaban usando ChatGPT para generar de manera preventiva el último libro de su serie. OpenAI, por su parte, ha sostenido que entrenar un sistema de IA se considera uso legítimo. protecciones, especialmente teniendo en cuenta el grado en que la IA transforma los datos de entrenamiento subyacentes en algo nuevo. En una declaración enviada por correo electrónico, un portavoz de OpenAI dijo a The Times que la empresa respeta los derechos de los autores y cree que deberían «beneficiarse de la tecnología de IA». «Estamos teniendo conversaciones productivas con muchos creadores de todo el mundo, incluido el Authors Guild, y hemos estado trabajando cooperativamente para comprender y discutir sus preocupaciones sobre la IA”, dijo el portavoz. «Somos optimistas y continuaremos encontrando formas mutuamente beneficiosas de trabajar juntos para ayudar a las personas a utilizar nuevas tecnologías en un rico ecosistema de contenido». Sin embargo, la industria editorial está retrocediendo al enfrentar un auge del software que le ha dado a cualquiera con WiFi la poder generar automáticamente grandes cantidades de texto. Además de la demanda de Preston, varios otros grupos de autores están llevando a cabo sus propias demandas colectivas contra OpenAI. «Todos se están dando cuenta de hasta qué punto sus datos, su información y su creatividad han sido absorbidos», dijo Ed Nawotka, editor de Publishers. Semanalmente. En la industria existe cierto grado de “pánico abyecto”. En un par de demandas recientes, Sarah Silverman acusó a OpenAI y a Meta (la empresa matriz de Facebook y un importante desarrollador de IA) de infracción de derechos de autor. Desde entonces, las dos compañías han presionado para que se desestime la mayoría de los casos de Silverman. Recientemente, en una demanda diferente, Paul Tremblay (“La cabaña del fin del mundo”) y Mona Awad (“Bunny”) demandaron a OpenAI por violaciones de derechos de autor; tratando de que también se desestime en su mayor parte, mientras que Michael Chabon (“El Sindicato de Policías Yiddish”) es un demandante en dos acciones legales adicionales que tienen como objetivo OpenAI y Meta, respectivamente. Y en julio pasado, el Authors Guild, un grupo comercial profesional , no un sindicato, envió a varias empresas de tecnología una carta abierta pidiendo consentimiento, crédito y una compensación justa cuando las obras de los escritores se utilicen para entrenar modelos de IA. Entre los firmantes se encontraban Margaret Atwood, Dan Brown, James Patterson, Suzanne Collins, Roxane Gay y Celeste Ng. Todo esto se suma a la huelga de casi cinco meses que emprendieron recientemente los guionistas de Hollywood y que condujo, entre otras cosas, a nuevas regulaciones. sobre el uso de IA para la generación de guiones. (Una huelga separada, aún en curso, ha encontrado a los actores de la pantalla reuniéndose en torno a sus propias preocupaciones sobre la IA). La demanda en la que está involucrado Preston, que presenta a otros 17 demandantes nombrados, incluido el Authors Guild, afirma que OpenAI copió las obras de los autores «sin permiso o consideración” para entrenar programas de inteligencia artificial que ahora compiten con esos autores por el tiempo y el dinero de los lectores. La demanda también cuestiona la generación de trabajos derivados de ChatGPT, o “material que se basa en, imita, resume o parafrasea [the] Los demandantes buscan daños y perjuicios por la pérdida de oportunidades de licencia y la “usurpación del mercado”, así como una orden judicial contra futuras prácticas de este tipo, en nombre de los autores de ficción estadounidenses cuyas obras protegidas por derechos de autor se utilizaron para entrenar el software OpenAI. “No nos pidieron permiso y no nos están compensando”, dijo Preston sobre OpenAI. “Lo que han hecho es crear un producto comercial muy valioso que puede reproducir nuestras voces. … Es básicamente un robo de nuestro trabajo creativo a gran escala”. Dado que los libros de los demandantes no están disponibles gratuitamente en la web abierta, añadió, OpenAI “casi con seguridad” accedió a ellos a través de supuestos sitios de piratería, como la plataforma de intercambio de archivos. LibGen. (La demanda reitera esta sospecha, atribuyéndola a «investigadores independientes de IA»). OpenAI se niega a responder una pregunta sobre si los libros de los demandantes formaban parte de los datos de entrenamiento de ChatGPT o si se accedía a ellos a través de sitios para compartir archivos como LibGen. En una declaración a la Oficina de Patentes y Marcas de EE. UU. citada en la demanda del Authors Guild, OpenAI afirmó que los sistemas modernos de IA a veces se entrenan con conjuntos de datos disponibles públicamente que incluyen obras protegidas por derechos de autor. The Atlantic ha informado que Meta, mientras tanto, entrenó a su competidor ChatGPT, LLaMA. en un corpus de libros electrónicos pirateados conocido como «Books3». Una versión de búsqueda de ese conjunto de datos indica que LLaMA se alimentó de libros escritos por casi todos los individuos nombrados como demandantes en las diversas demandas antes mencionadas. También se incluyeron los trabajos de los empleados del LA Times. Meta no respondió a una solicitud de comentarios de The Times sobre cómo se entrenó LLaMA. Dejando a un lado las fuentes específicas de los datos de entrenamiento, muchos autores están preocupados por dónde está liderando esta tecnología en su industria. Michael Connelly, autor de la serie de Harry Bosch de novelas policiales y otro demandante en la demanda del Authors Guild, enmarcó esas preocupaciones como una cuestión de control: “control de tu propio trabajo, de tu propia propiedad”. Connelly nunca llegó a decidir si sus libros se usarían para entrenar una IA, dijo. dijo, pero si le hubieran preguntado, incluso si hubiera dinero sobre la mesa, probablemente habría optado por no participar. La idea de que ChatGPT escriba una secuela no oficial de Bosch le parece una violación; Incluso cuando Amazon adaptó la serie a un programa de televisión, dice, tenía cierto control sobre los guiones y el reparto. “Estos personajes nos pertenecen”, dijo Connelly. “Salen de nuestra cabeza. Incluso puse cosas en mi testamento sobre [how] Ningún otro autor podrá llevar la antorcha de Harry Bosch después de que yo me haya ido. Él es mío y no quiero que nadie más cuente su historia. Ciertamente no quiero que una máquina lo diga”. Pero si la ley permitirá que las máquinas lo hagan es una cuestión diferente. Las diversas demandas contra OpenAI alegan violaciones de derechos de autor. Pero la ley de derechos de autor (y especialmente el uso legítimo, el área de la ley que rige cuándo el trabajo protegido por derechos de autor puede incorporarse a otros esfuerzos, como por ejemplo con fines educativos o críticos) todavía no ofrece una respuesta clara sobre cómo estos Las demandas se sacudirán. «Tenemos una especie de tira y afloja en este momento en la jurisprudencia», dijo el abogado de propiedad intelectual Lance Koonce, socio de la firma de abogados Klaris, señalando dos casos recientes de la Corte Suprema que ofrecen modelos competitivos. de uso legítimo. En uno, Authors Guild vs. Google, el tribunal sostuvo que a Google se le permitió digitalizar millones de libros protegidos por derechos de autor para que se pudieran buscar. En el otro, Andy Warhol Foundation for the Visual Arts Inc. vs. Goldsmith, el tribunal determinó que la incorporación por parte del artista pop titular de la obra de un fotógrafo a su propio arte no se consideraba uso legítimo porque el arte de Warhol era comercial y tenía el mismo propósito básico como la fotografía original. “Estos casos de IA, y especialmente el caso del Authors Guild [against OpenAI] — caer en esa tensión”, dijo Koonce. En su declaración de la oficina de patentes, OpenAI argumentó que entrenar software de inteligencia artificial en obras protegidas por derechos de autor “no debería, por sí solo, dañar el mercado o el valor de las obras protegidas por derechos de autor” porque las obras están siendo consumidas por software en lugar de personas reales. Fuera de las vías legales, las partes interesadas ya están proponiendo soluciones a esta tensión. Suman Kanuganti, director ejecutivo de la plataforma de mensajería de inteligencia artificial Personal.ai, dijo que la industria tecnológica probablemente adoptará algún tipo de estándar de atribución que permita a las personas que contribuir a que los datos de entrenamiento de una IA sean identificados y compensados. “Una vez que se construyen los modelos con unidades de datos conocidas y autenticadas, tecnológicamente no es un desafío”, dijo Kanuganti. “Y una vez que se resuelve ese problema… la asociación económica se vuelve más fácil”. Preston, el novelista de aventuras, estuvo de acuerdo en que todavía puede haber un camino a seguir. Otorgar licencias de libros a desarrolladores de software a través de una cámara de compensación centralizada podría proporcionar a los autores una nueva fuente de ingresos. Al mismo tiempo que garantiza datos de capacitación de alta calidad para las empresas de inteligencia artificial, dijo, y agregó que el Authors Guild intentó establecer un acuerdo de este tipo con OpenAI en un momento, pero que las dos partes no pudieron llegar a un acuerdo. (OpenAI se negó a discutir tales conversaciones). “Estábamos tratando de que se sentaran con nosotros de buena fe; No nos oponemos en absoluto a la IA”, afirmó Preston. «No es un juego de suma cero».
Source link
Página 3 de 3