Todo lo que necesitas saber sobre tecnología

Etiqueta: abierto Página 2 de 3

Microsoft abre Copilot para Microsoft 365 para pequeñas y medianas empresas

El asistente de IA generativa Copilot de Microsoft para Microsoft 365 ahora está disponible para las empresas interesadas en ofrecer el producto a menos de 299 puestos. La suscripción a Copilot para Microsoft 365 para uso empresarial permite a los empleados utilizar datos de todos los productos Microsoft de su empresa para proporcionar más datos a la IA generativa, permitiéndole utilizar más información en contexto. Microsoft asegura a los clientes que la seguridad y el cumplimiento de nivel empresarial de Microsoft también se aplican a los datos utilizados por la IA generativa. Además, Microsoft anunció ayer que Copilot Pro, un plan para usuarios avanzados individuales, ya está disponible. Las personas interesadas en usar Copilot mientras viajan ahora pueden acceder a él a través de una aplicación Copilot o la aplicación móvil Microsoft 365. Copilot se ejecuta en el servicio Microsoft Azure OpenAI, que solo está disponible en Norteamérica y Europa. Puede encontrar más información sobre cómo optar por estas regiones para utilizar el servicio en otros lugares a través de Microsoft. Se creó un nuevo plan Copilot para Microsoft 365 para PYMES. Las suscripciones a Copilot para Microsoft 365 solían estar disponibles solo para los clientes interesados ​​en comprar 300 puestos; ahora, las pequeñas y medianas empresas pueden adquirir entre una y 299 plazas. Copilot para Microsoft 365 estará disponible para su compra además de las suscripciones existentes a Microsoft 365 Business Premium y Business Standard. Los clientes de Office 365 E3 y E5 ahora pueden usar Copilot para Microsoft 365 sin una licencia de Microsoft 365. VER: La IA generativa fue un tema candente en CES 2024 este año, y algunas empresas como Rabbit propusieron que la IA podría cambiar la forma en que las personas acceden a los servicios en línea (TechRepublic) Una diferencia importante entre Copilot Pro y Copilot para Microsoft 365 para empresas es que este último viene con integración de Copilot en Microsoft Teams. Copilot para Microsoft 365 se desarrolló en parte utilizando los comentarios de un programa de las primeras PYMES, dijo Brenna Robinson, gerente general de Microsoft 365 para PYMES en Microsoft en un correo electrónico a TechRepublic. «Los clientes nos dicen que Copilot les ayuda a eliminar el ruido y despejar su ajetreado trabajo, para que puedan concentrarse en el trabajo que realmente importa, y que es hacer crecer sus negocios», dijo Robinson. El plan Copilot Pro ofrece los últimos modelos de IA generativa para usuarios avanzados. Los suscriptores de Microsoft 365 Personal y Family ahora pueden usar las funciones de IA generativa de Copilot con el plan Copilot Pro. El plan de $ 20 por persona por mes está destinado a superusuarios que desean modelos de IA generativos más rápidos (comenzando con GPT-4 Turbo de OpenAI durante las horas pico) y poder sincronizar el trabajo de Copilot en Word, Excel, PowerPoint, Outlook y OneNote en la PC. , Mac y iPad; la versión de Excel está en vista previa. Microsoft se dirige a los creadores de imágenes con IA con este plan, ofreciendo Image Creator de Designer (anteriormente Bing Image Creator) con una calidad de imagen más detallada en comparación con la versión gratuita y con formato de imagen horizontal. Los suscriptores de Copilot Pro tendrán acceso a Copilot GPT Builder cuando esté disponible; la compañía dijo que estará disponible pronto. Copilot GPT Builder, al igual que GPT Builder de OpenAI, permite a las personas crear chatbots personalizados utilizando indicaciones en lenguaje natural. Copilot disponible en dispositivos móviles y en la aplicación Microsoft 365. Los usuarios de Android e iOS ahora pueden acceder a la aplicación Copilot (Figura A); podrán sincronizar chats y consultas desde su teléfono con su PC con Windows. La aplicación Copilot conecta a los usuarios con GPT-4 y Dall-E 3. Figura A Ejemplos de conversaciones con Copilot en la aplicación Copilot. Imagen: Microsoft Los titulares de cuentas individuales de Microsoft en teléfonos móviles Android e iOS podrán acceder a Copilot en la aplicación móvil Microsoft 365 más adelante en 2024. Microsoft dijo el 15 de enero de 2024 que Copilot en la aplicación móvil Microsoft 365 se está implementando «más allá de el próximo mes.» La aplicación Copilot y la aplicación Microsoft 365 se pueden encontrar en Google Play Store o Apple App Store. Más cobertura de IA de lectura obligada Microsoft ofrece GPT personalizados Al igual que OpenAI, Microsoft está apostando por los GPT para mostrar a la gente qué usos específicos tiene la IA generativa, desde organizar viajes y presentaciones hasta ofrecer recetas. Los GPT de Copilot ahora están disponibles según temas seleccionados. Microsoft dice que los primeros GPT ofrecerán conversaciones en lenguaje natural sobre «fitness, viajes, cocina y más». Es probable que haya más GPT disponibles a medida que los suscriptores de Copilot Pro creen GPT en Copilot GPT Builder. Competidores de Copilot Pro y Copilot para Microsoft 365 para empresas Los principales competidores de estas ofertas de Copilot son OpenAI y Google. OpenAI tiene su propia suscripción de usuario avanzado, ChatGPT Plus, y una versión con servicios y privacidad de nivel empresarial llamada ChatGPT Enterprise. Las extensiones Bard de Google añaden IA generativa a Gmail, Docs, Drive y otros servicios de Google.

Source link

La IA de código abierto es excepcionalmente peligrosa


Esta es una publicación invitada. Las opiniones expresadas aquí son únicamente las del autor y no representan posiciones de IEEE Spectrum o IEEE. Cuando la gente piensa en aplicaciones de IA en estos días, probablemente piense en aplicaciones de IA de “código cerrado” como ChatGPT de OpenAI, donde el software del sistema está en manos seguras de su creador y de un conjunto limitado de socios examinados. Los usuarios cotidianos interactúan con estos sistemas a través de una interfaz web como un chatbot, y los usuarios empresariales pueden acceder a una interfaz de programación de aplicaciones (API) que les permite integrar el sistema de IA en sus propias aplicaciones o flujos de trabajo. Fundamentalmente, estos usos permiten a la empresa propietaria del modelo proporcionar acceso a él como un servicio, manteniendo al mismo tiempo seguro el software subyacente. El público no comprende tan bien la liberación rápida e incontrolada de potentes sistemas de IA no seguros (a veces llamados de código abierto). Un buen primer paso para comprender las amenazas que plantea la IA no segura es preguntar a los sistemas de IA seguros como ChatGPT, Bard o Claude. comportarse mal. La marca OpenAI aumenta la confusión. Si bien la compañía se fundó originalmente para producir sistemas de inteligencia artificial de código abierto, sus líderes determinaron en 2019 que era demasiado peligroso continuar publicando el código fuente y los pesos de los modelos de sus sistemas GPT (las representaciones numéricas de las relaciones entre los nodos en su red neuronal artificial). ) para el publico. OpenAI está preocupado porque estos sistemas de IA que generan texto pueden usarse para generar cantidades masivas de contenido bien escrito pero engañoso o tóxico. Empresas como Meta (mi antiguo empleador) han actuado en la dirección opuesta y han optado por lanzar potentes sistemas de IA no seguros en el mercado. nombre de democratizar el acceso a la IA. Otros ejemplos de empresas que lanzan sistemas de inteligencia artificial no seguros incluyen Stability AI, Hugging Face, Mistral, EleutherAI y el Technology Innovation Institute. Estas empresas y grupos de defensa de ideas afines han logrado avances limitados en la obtención de exenciones para algunos modelos no seguros en la Ley de IA de la Unión Europea, que está diseñada para reducir los riesgos de los potentes sistemas de IA. Es posible que presionen para obtener exenciones similares en Estados Unidos a través del período de comentarios públicos establecido recientemente en la Orden Ejecutiva sobre IA de la Casa Blanca. Creo que el movimiento de código abierto tiene un papel importante en la IA. Con una tecnología que aporta tantas capacidades nuevas, es importante que ninguna entidad actúe como guardián del uso de la tecnología. Sin embargo, tal como están las cosas hoy, la IA no segura representa un riesgo enorme que aún no podemos contener. Comprender la amenaza de la AIA no segura Un buen primer paso para comprender las amenazas que plantea la IA no segura es preguntar a los sistemas de IA seguros como ChatGPT, Bard, o Claude por portarse mal. Podrías pedirles que diseñen un coronavirus más mortal, que den instrucciones para fabricar una bomba, que hagan fotografías desnuda de tu actor favorito o que escriban una serie de mensajes de texto incendiarios diseñados para enojar más a los votantes de los estados indecisos por la inmigración. Es probable que reciba rechazos corteses a todas estas solicitudes porque violan las políticas de uso de estos sistemas de inteligencia artificial. Sí, es posible hacer jailbreak a estos sistemas de inteligencia artificial y hacer que se comporten mal, pero a medida que se descubren estas vulnerabilidades, se pueden solucionar. Ingrese a los modelos no seguros. El más famoso es Meta’s Llama 2. Fue lanzado por Meta con una “Guía de uso responsable” de 27 páginas, que fue rápidamente ignorada por los creadores de “Llama 2 Uncensored”, un modelo derivado sin características de seguridad y alojado de forma gratuita. descárguelo en el repositorio de Hugging Face AI. Una vez que alguien lanza una versión “sin censura” de un sistema de IA no seguro, el creador original del sistema se ve en gran medida impotente para hacer algo al respecto. Tal como están las cosas hoy, la IA no segura plantea un riesgo enorme que aún no podemos contener. La amenaza que plantean los sistemas de IA no seguros radica en la facilidad de uso indebido. Son particularmente peligrosos en manos de actores de amenazas sofisticados, que podrían descargar fácilmente las versiones originales de estos sistemas de IA y desactivar sus funciones de seguridad, luego crear sus propias versiones personalizadas y abusar de ellas para una amplia variedad de tareas. Algunos de los abusos de los sistemas de IA no seguros también implican el aprovechamiento de canales de distribución vulnerables, como las redes sociales y las plataformas de mensajería. Estas plataformas aún no pueden detectar con precisión el contenido generado por IA a escala y pueden usarse para distribuir cantidades masivas de información errónea personalizada y, por supuesto, estafas. Esto podría tener efectos catastróficos en el ecosistema de la información y, en particular, en las elecciones. La pornografía deepfake no consensuada y altamente dañina es otro ámbito en el que la IA no protegida puede tener profundas consecuencias negativas. La IA no protegida también tiene el potencial de facilitar la producción de materiales peligrosos, como armas biológicas y químicas. La Orden Ejecutiva de la Casa Blanca hace referencia a los riesgos químicos, biológicos, radiológicos y nucleares (QBRN), y el Congreso de los EE. UU. está considerando varios proyectos de ley para abordar estas amenazas. Recomendaciones para las regulaciones de IA No necesitamos regular específicamente la IA no segura, casi Todas las regulaciones que se han discutido públicamente también se aplican a los sistemas de IA seguros. La única diferencia es que es mucho más fácil para los desarrolladores de sistemas de IA seguros cumplir con estas regulaciones debido a las propiedades inherentes de la IA segura y no segura. Las entidades que operan sistemas de IA seguros pueden monitorear activamente los abusos o fallas de sus sistemas (incluidos los prejuicios y la producción de contenido peligroso u ofensivo) y publicar actualizaciones periódicas que hagan que sus sistemas sean más justos y seguros. fuente La IA es EL problema sin resolver más importante en el plazo inmediato”.—Gary Marcus, Universidad de Nueva York Como tal, casi todas las regulaciones recomendadas a continuación se generalizan a todos los sistemas de IA. La implementación de estas regulaciones haría que las empresas se lo pensaran dos veces antes de lanzar sistemas de IA no seguros que estén listos para ser objeto de abuso. Acción regulatoria para los sistemas de IA Pausar todos los nuevos lanzamientos de sistemas de IA no seguros hasta que los desarrolladores hayan cumplido con los requisitos a continuación, y de manera que garanticen que las características de seguridad no puedan ser fácilmente eliminadas. eliminado por malos actores. Establecer el registro y la concesión de licencias (tanto retroactivas como continuas) de todos los sistemas de IA por encima de un cierto umbral de capacidad. Crear responsabilidad por “uso indebido razonablemente previsible” y negligencia: los desarrolladores de sistemas de IA deben ser legalmente responsables de los daños causados ​​a ambas personas. y para la sociedad. Establecer procedimientos de evaluación, mitigación y auditoría independiente de riesgos para los sistemas de IA que crucen el umbral mencionado anteriormente. Exigir mejores prácticas de marcas de agua y procedencia para que el contenido generado por IA esté claramente etiquetado y el contenido auténtico tenga metadatos que permitan a los usuarios comprender su procedencia. Exigir transparencia de los datos de capacitación y prohibir los sistemas de capacitación sobre información de identificación personal, contenido diseñado para generar contenido que incite al odio y contenido relacionado con armas biológicas y químicas. Exigir y financiar el acceso de investigadores independientes, brindando a los investigadores examinados y a las organizaciones de la sociedad civil acceso previo al despliegue a sistemas generativos de IA. para investigación y pruebas. Exigir procedimientos de “conozca a su cliente”, similares a los utilizados por las instituciones financieras, para las ventas de hardware potente y servicios en la nube diseñados para el uso de IA; restringir las ventas de la misma manera que se restringirían las ventas de armas. Divulgación obligatoria de incidentes: cuando los desarrolladores se enteran de vulnerabilidades o fallas en sus sistemas de inteligencia artificial, deben estar legalmente obligados a informar esto a una autoridad gubernamental designada. Acción regulatoria para canales de distribución y ataques SurfacesRequiere la implementación de credenciales de contenido para las redes sociales, lo que otorga a las empresas una fecha límite para implementar el estándar de etiquetado de credenciales de contenido de C2PA.Automatiza las firmas digitales para que las personas puedan verificar rápidamente su contenido generado por humanos.Limita el alcance del contenido generado por IA: cuentas que no Se ha verificado que los distribuidores de contenido generado por humanos podrían tener ciertas características desactivadas, incluida la distribución viral de su contenido. Reducir los riesgos químicos, biológicos, radiológicos y nucleares educando a todos los proveedores de ácidos nucleicos personalizados u otras sustancias potencialmente peligrosas sobre las mejores prácticas. Gobierno AcciónEstablecer un organismo regulador ágil que pueda actuar y hacer cumplir rápidamente y actualizar ciertos criterios de cumplimiento. Esta entidad tendría el poder de aprobar o rechazar evaluaciones de riesgos, mitigaciones y resultados de auditorías y tendría la autoridad para bloquear el despliegue del modelo. Apoyar a las organizaciones de verificación de datos y a los grupos de la sociedad civil (incluidos los “indicadores confiables” definidos por los Servicios Digitales de la UE). Act) y exigir que las empresas de IA generativa trabajen directamente con estos grupos. Cooperar internacionalmente con el objetivo de crear eventualmente un tratado internacional o una nueva agencia internacional para evitar que las empresas eludan estas regulaciones. La reciente Declaración de Bletchley fue firmada por 28 países, incluidos los países de origen de todas las principales empresas de IA del mundo (Estados Unidos, China, Reino Unido, Emiratos Árabes Unidos, Francia y Alemania); esta declaración estableció valores compartidos y abrió un camino para reuniones adicionales. democratizar el acceso a la IA con infraestructura pública: una preocupación común sobre la regulación de la IA es que limitará el número de empresas que pueden producir sistemas de IA complicados a un pequeño puñado y tenderá hacia el monopolio. prácticas de negocios. Sin embargo, existen muchas oportunidades para democratizar el acceso a la IA sin depender de sistemas de IA no seguros. Una es mediante la creación de una infraestructura pública de IA con potentes modelos de IA seguros. “Creo que cómo regulamos la IA de código abierto es EL problema sin resolver más importante en el plazo inmediato”, dijo Gary Marcus, científico cognitivo, empresario y profesor emérito de Me lo dijo la Universidad de Nueva York en un reciente intercambio de correos electrónicos. Estoy de acuerdo y estas recomendaciones son sólo un comienzo. Inicialmente serían costosas de implementar y requerirían que los reguladores hicieran descontentos a ciertos lobistas y desarrolladores poderosos. Desafortunadamente, dados los incentivos desalineados en los actuales ecosistemas de inteligencia artificial y de información, es poco probable que la industria tome estas acciones a menos que se vea obligada a hacerlo. Si no se toman medidas como estas, las empresas que producen IA no segura pueden generar miles de millones de dólares en ganancias y, al mismo tiempo, trasladar los riesgos que plantean sus productos a todos nosotros.De los artículos de su sitioArtículos relacionados en la Web

Source link

Comerciante: el plan de la industria de la IA para resolver su problema de derechos de autor

Esta vez, en 2023, el mundo estaba cautivado por el auge del deslumbrante chatbot de OpenAI. ChatGPT estaba haciendo metástasis como una infección por hongos, acumulando decenas de millones de usuarios al mes. Se materializaron asociaciones multimillonarias y las inversiones llegaron a raudales. Las grandes empresas tecnológicas se unieron a la fiesta. Los generadores de imágenes de IA como Midjourney tomaron vuelo. Sólo un año después, el ambiente se ha ensombrecido. El sorpresivo despido y la rápida reinstalación del director ejecutivo de OpenAI, Sam Altman, le dio a la empresa un momento embarazoso en el que el emperador estaba desnudo. Las ganancias son escasas en todo el sector y los costos de computación están por las nubes. Pero hay un tema que cobra importancia por encima de todos y amenaza con devolver a la incipiente industria a la tierra: los derechos de autor. Las quejas legales que surgieron a lo largo del año pasado se han convertido en un coro atronador, y las empresas de tecnología dicen que ahora presentan una amenaza existencial para la IA generativa. (del tipo que puede producir escritura, imágenes, música, etc.). Si 2023 fue el año en el que el mundo se maravilló de los generadores de contenido de IA, 2024 puede ser el año en que los humanos que crearon las materias primas que hicieron posible ese contenido se venguen y tal vez incluso recuperen parte del valor generado por su trabajo. A finales de diciembre, el New York Times presentó una demanda explosiva contra Microsoft y OpenAI, alegando que “millones de sus artículos se utilizaron para entrenar chatbots automatizados que ahora compiten con el medio de comunicación como fuente de información confiable”. La demanda del Times se suma a muchas otras (demanda colectiva presentada por ilustradores, por el servicio fotográfico Getty Images, por George RR Martin y el Author’s Guild, por usuarios anónimos de redes sociales, por nombrar algunos), todas ellas alegando que las empresas que Las empresas que pueden beneficiarse de la IA generativa utilizaron el trabajo de escritores, reporteros, artistas y otras personas sin consentimiento ni compensación, infringiendo sus derechos de autor en el proceso. Nuestros experimentos hacen que sea casi seguro que estos sistemas en realidad están entrenando con material protegido por derechos de autor. — El científico cognitivo Gary Marcus Cada una de estas demandas tiene sus méritos, pero la entrada de la Dama Gris en la arena cambia el juego. Por un lado, el Times influye en la configuración de las narrativas nacionales. Por otro lado, la demanda del Times es singularmente condenatoria; está repleto de ejemplo tras ejemplo de cómo ChatGPT replica artículos de noticias casi palabra por palabra y ofrece respuestas a sus clientes de pago, sin atribución. No se trata solo de las demandas: el Congreso, los investigadores y los expertos en inteligencia artificial también están aumentando la presión. El miércoles, en una audiencia en el Congreso, senadores y representantes de la industria de los medios acordaron que las empresas de inteligencia artificial deberían pagar tarifas de licencia por el material que utilizan para entrenar sus modelos. «No sólo es moralmente correcto», dijo el senador Richard Blumenthal (demócrata por Connecticut), quien preside el subcomité que celebró la audiencia, según Wired. «Es un requisito legal». Mientras tanto, un apasionante estudio publicado recientemente en IEEE Spectrum, coescrito por el científico cognitivo y experto en IA Gary Marcus y el veterano de la industria cinematográfica Reid Southern, muestra que Midjourney y Dall-E, dos de los líderes en IA generadores de imágenes, fueron entrenados con material protegido por derechos de autor y pueden regurgitar ese material a voluntad, a menudo sin siquiera que se les solicite. “Nuestros experimentos hacen que sea casi seguro que estos sistemas en realidad están entrenando con material protegido por derechos de autor”, me dijo Marcus, algo que las empresas se han mostrado tímidas a la hora de aceptarlo explícitamente. «Las empresas no han sido nada claras en lo que utilizan, por lo que era importante establecer que están utilizando materiales protegidos por derechos de autor». También es importante: que las obras que infringen los derechos de autor salgan de los sistemas con poca insistencia. “No es necesario que le indiques que diga ‘crear C3P0’; simplemente puedes decir ‘dibujar un droide dorado’. O ‘fontanero italiano’: simplemente atraerá a Mario”. Esto tiene serias implicaciones para cualquiera que utilice los sistemas con fines comerciales. «Las empresas cuyas propiedades son infringidas (Mattel, Nintendo) se interesarán en esto», dice Marcus. “Pero el usuario también queda vulnerable: no hay nada en el resultado que diga cuáles son las fuentes. De hecho, el software no es capaz de hacerlo de forma fiable. Por lo tanto, los usuarios están en apuros y no tienen idea de si se está infringiendo o no”. También hay una sensación de impulso que está comenzando a generarse detrás de la simple noción de que los creadores deberían ser compensados ​​por el trabajo que utilizan las empresas de inteligencia artificial valoradas en miles de millones. o decenas de miles de millones, o cientos de miles de millones de dólares, como lo son Google y Microsoft. La noción de que los sistemas de IA generativa son, en el fondo, “máquinas de plagio” se ha vuelto cada vez más extendida entre sus críticos, y las redes sociales están llenas de oprobio contra la IA. Pero no es probable que esas empresas de IA cedan. Vimos un presagio de cómo las empresas de IA responderían a las preocupaciones de derechos de autor en general el año pasado, cuando la firma del famoso capitalista de riesgo y evangelista de la IA Marc Andreessen argumentó que las empresas de IA quebrarían si tuvieran que pagar regalías de derechos de autor o derechos de licencia. Esta misma semana, los medios de comunicación británicos informaron que OpenAI ha presentado el mismo caso, buscando una exención de las reglas de derechos de autor en Inglaterra, alegando que la compañía simplemente no podría operar sin ingerir materiales protegidos por derechos de autor. “Porque hoy en día los derechos de autor cubren prácticamente todo tipo de expresión humana. —incluidas publicaciones de blogs, fotografías, publicaciones en foros, fragmentos de código de software y documentos gubernamentales—sería imposible entrenar los principales modelos de IA actuales sin utilizar materiales protegidos por derechos de autor”, argumentó OpenAI en su presentación ante la Cámara de los Lores. Tenga en cuenta que las declaraciones de Andreessen y OpenAI subrayan el valor del trabajo protegido por derechos de autor al argumentar que las empresas de IA no deberían tener que pagar por él. ¿Qué pueden hacer al respecto? Primero, alegan pobreza. Simplemente hay demasiado material disponible para compensar a todos los que contribuyeron a que su sistema funcionara y a que su valoración se disparara. “Una pequeña y pobre empresa rica valorada en 100.000 millones de dólares no puede permitírselo”, afirma Marcus. «No sé qué tan bien funcionará, pero eso es lo que están argumentando». Las compañías de inteligencia artificial también argumentan que lo que están haciendo cae dentro de la doctrina legal del uso legítimo (probablemente el argumento más fuerte que tienen). porque es transformador. Este argumento ayudó a Google a ganar en los tribunales contra los grandes editores de libros cuando copiaba libros en su enorme base de datos Google Books, y a derrotar las afirmaciones de que YouTube se estaba beneficiando al permitir a los usuarios alojar y difundir material sin licencia. A continuación, las empresas de inteligencia artificial argumentan que los derechos de autor- La violación de resultados como los descubiertos por Marcus, Southern y el New York Times son raros o son errores que van a ser corregidos. “Dicen: ‘Bueno, esto no sucede mucho. Necesitas dar indicaciones especiales.’ Pero las cosas que le preguntamos fueron bastante neutrales y aun así recibimos material protegido por derechos de autor, dice Marcus. “Ésta no es una cuestión secundaria menor: así es como se construyen los sistemas. Es existencial que estas empresas puedan utilizar esta cantidad de datos”. Finalmente, además de simplemente presentar argumentos en los tribunales y en declaraciones, las empresas de inteligencia artificial van a utilizar sus amplios recursos para ejercer presión entre bastidores y ejercer su poder. para ayudar a defender su caso. Una vez más, la industria de la IA generativa no está ganando mucho dinero todavía: el año pasado fue esencialmente una demostración masiva de producto para promocionar la tecnología. Y funcionó: los dólares de inversión llegaron a raudales. Pero eso no significa que las empresas de IA hayan descubierto formas de construir un modelo de negocio sostenible. Ya están operando bajo el supuesto de que no pagarán por cosas como materiales de capacitación, licencias o trabajo de los artistas. Por supuesto, no es de ninguna manera cierto que empresas como Google, Microsoft o incluso OpenAI no puedan permitirse el lujo de pagar. utilizar obras protegidas por derechos de autor, pero Silicon Valley está acostumbrado en este momento a eliminar de la ecuación la mano de obra y el costo de las obras creativas, y tiene pocas razones para pensar que no podría volver a hacerlo. Desde Uber hasta Spotify, los modelos de negocio de muchas de las mayores empresas tecnológicas de este siglo se han construido sobre el supuesto de que los costos laborales podrían recortarse o minimizarse. Y cuando las industrias creativas argumentaron que YouTube permitía que proliferaran materiales pirateados y sin licencia a expensas de los trabajadores, y respaldaron la Ley para detener la piratería en línea (SOPA) para combatirla, Google jugó un papel decisivo a la hora de detener el proyecto de ley, organizando mítines y campañas en línea, y presionando. los legisladores abandonen el barco. William Fitzgerald, socio de Worker Agency y ex miembro del equipo de políticas públicas de Google, me dice que ve que está tomando forma una campaña de presión similar para luchar contra los casos de derechos de autor, una que sigue el modelo del manual que Google ha utilizado con éxito. en el pasado: reunir a grupos y órganos de terceros, como la Cámara del Progreso, para impulsar la idea de que el uso de obras protegidas por derechos de autor para la IA generativa no es sólo un uso legítimo, sino algo que está siendo adoptado por los propios artistas, no todos los cuales están tan colgados. se ponen al día con cosas como querer que les paguen por su trabajo. Señala una carta abierta progenerativa de la IA firmada por artistas de la IA que, según uno de los artistas involucrados, fue organizada por Derek Slater, ex director de políticas de Google cuya empresa trabaja con Google, la misma persona que se atribuyó el mérito de organizar los esfuerzos anti-SOPA. Fitzgerald también ve las huellas de Google en la adopción por parte de Creative Commons del argumento de que el arte con IA es un uso legítimo, ya que Google es uno de los principales financiadores de la organización. “Es preocupante ver a Google desplegar las mismas tácticas de lobby que ha desarrollado a lo largo de los años para garantizar a los trabajadores no se les paga justamente por su trabajo”, dijo Fitzgerald. Y OpenAI le sigue de cerca. No sólo está adoptando un enfoque similar al de Google para evitar las quejas de derechos de autor, sino que también está contratando a las mismas personas: contrató a Fred Von Lohmann, ex director de política de derechos de autor de Google, como su principal abogado de derechos de autor. «Parece que OpenAI está replicando el manual de lobby de Google», afirma. «Han contratado a antiguos defensores de Google para aplicar el mismo manual que ha tenido tanto éxito para Google durante décadas». Sin embargo, esta vez las cosas son diferentes. Había una verdadera animosidad popular contra SOPA, que en ese momento se consideraba diseñada por Hollywood y la industria musical; Silicon Valley todavía era muy querido como un inventor benevolente del futuro, y muchos no veían cómo tener el trabajo de un artista subido a una plataforma de vídeo propiedad de los buenos en Internet podría ser perjudicial para sus intereses económicos. (¡Aunque muchos lo hicieron!) Sin embargo, ahora los trabajadores en el mundo digital están mejor preparados. Todos, desde los guionistas de Hollywood hasta los ilustradores independientes, los redactores publicitarios a tiempo parcial y los codificadores a tiempo completo, pueden reconocer el efecto material potencial de un sistema de inteligencia artificial generativo que puede absorber su trabajo, replicarlo y ofrecerlo a los usuarios por una tarifa mensual, pagada a un La corporación de Silicon Valley, no ellos. “Está pidiendo un regalo enorme”, dice Marcus. “Es el equivalente a una gran apropiación de tierras”. Ahora bien, hay muchos en Silicon Valley que, por supuesto, están genuinamente entusiasmados con el potencial de la IA, y muchos otros que son genuinamente ajenos a las cuestiones de economía política; que quieren ver los avances conseguidos lo antes posible y no se dan cuenta de cómo se utilizarán en la práctica estos sistemas de automatización del trabajo. A otros puede que simplemente no les importe. Pero para aquellos que sí lo hacen, Marcus dice que hay un camino sencillo a seguir. “Aquí hay una alternativa obvia: OpenAI dice que necesitamos todo esto o no podemos construir IA, ¡pero podrían pagar por ello!” «Queremos un mundo con artistas y escritores, después de todo», añade, un mundo que recompense el trabajo artístico, no un mundo en el que todo el dinero vaya a parar a la cima porque un puñado de empresas tecnológicas ganaron la apropiación del territorio digital. «Depende de los trabajadores de todo el mundo Para ver esto tal como es, organícese, eduque a los legisladores y luche para que se les pague de manera justa por su trabajo”, dice Fitzgerald. «Porque si no lo hacen, Google y OpenAI seguirán beneficiándose del trabajo y el contenido de otras personas durante mucho tiempo».

Source link

La tienda GPT de OpenAI ya está abierta para los creadores de Chatbot

OpenAI ha estado mostrando su tienda para versiones personalizadas de ChatGPT durante dos meses, y las puertas ahora están abiertas a la Tienda GPT. La tienda, a la que pueden acceder los suscriptores de ChatGPT, ofrece una galería de GPT que son chatbots de IA generativos modificados específicamente para la generación de imágenes, escritura, educación, programación y más. Los creadores de chatbots podrán promocionar sus creaciones, mientras que los profesionales y consumidores pueden encontrar los chatbots más especializados y prácticos para sus necesidades que ChatGPT. ¿Cómo accedo a la tienda GPT? La Tienda GPT (Figura A) está disponible en chat.openai.com/gpts para personas con suscripciones a ChatGPT Plus, ChatGPT Enterprise y ChatGPT Team, una variante de ChatGPT Enterprise para casos de uso más pequeños. Figura A Una captura de pantalla de la Tienda GPT. Imagen: OpenAI Algunas organizaciones ya se han asociado con OpenAI para brindar servicios a través de la Tienda GPT. Por ejemplo, GPT de Canva permite a los profesionales diseñar publicaciones o presentaciones en redes sociales utilizando indicaciones en lenguaje natural. OpenAI planea establecer un sistema de ingresos en el que a los creadores de chatbots en los EE. UU. se les pueda pagar por sus GPT. Se espera que esté disponible más adelante en el primer trimestre de 2024. Los creadores que hayan creado GPT pueden ofrecer sus chatbots en la tienda marcándolos como para Todos (a diferencia de la opción Cualquiera con un enlace) y completando el Perfil del creador en Configuración. ¿Qué es el equipo ChatGPT? El 10 de enero, OpenAI también anunció ChatGPT Team (Figura B), que ofrece a los equipos un entorno colaborativo para compartir GPT e indicaciones. Figura B Una captura de pantalla del equipo ChatGPT. Imagen: OpenAI ChatGPT Team no es tan fuerte como ChatGPT Enterprise; ChatGPT Team brinda acceso a GPT-4 con una ventana de contexto de token de 32K, mientras que ChatGPT Enterprise ofrece una ventana de contexto de token de 128K. OpenAI señala que, dado que ChatGPT Team está diseñado para empresas, los datos que contiene no se compartirán con OpenAI ni se utilizarán para entrenar otra IA generativa. ChatGPT Team es una solución empresarial de $25 al mes por usuario al año o $30 al mes.

Source link

Intel anuncia una nueva empresa de IA generativa

El 3 de enero, Intel anunció su último y ambicioso plan para establecer una empresa independiente dedicada a la IA generativa. Quartz informa que la nueva empresa empresarial, llamada Articul8 AI, se formará en asociación con el administrador de activos centrado en lo digital DigitalBridge Group.

Source link

iPhone y iPad contarán con asistente de IA generativa a través de Microsoft Copilot

Si bien Apple aún tiene que introducir su propio asistente de IA generativa en su gama de dispositivos, empresas como Open AI y Google ya han encontrado formas de infundir su IA en los productos de Apple. El último en hacerlo es Microsoft, que ha lanzado su aplicación Copilot para iPhone y iPad. Si ha estado esperando la llegada de la aplicación Copilot de Microsoft, ahora está disponible para descargar en la tienda de aplicaciones de Apple. La aplicación es gratuita y también está disponible para computadoras portátiles y de escritorio MacBook que ejecutan macOS. Copilot es un asistente de chat generativo basado en la tecnología ChatGPT-4 de OpenAI, que es un modelo de lenguaje grande (LLM). Aunque OpenAI lanzó anteriormente su aplicación ChatGPT para el ecosistema de Apple, Copilot utiliza un modelo más nuevo para obtener respuestas mejores y más actualizadas. Algunas funciones que los usuarios pueden aprovechar con Copilot incluyen hacer preguntas al asistente y presentar respuestas de manera precisa, rápida y compleja. Al mismo tiempo, incluye DALL-E3 para la generación de texto a imagen, que es algo que hay que pagar en comparación con otros generadores de imágenes con IA en línea. Tenga en cuenta que debe iniciar sesión con su cuenta de Microsoft para utilizar el generador de imágenes. Asimismo, hay un botón de alternancia para habilitar ChatGPT-4. Microsoft Copilot para iPhone presenta generación de texto a imagen con tecnología DALL-E3. / © nextpit Si desea mejorar su uso con Copilot, puede asignarlo con el botón de acción en el iPhone 15 Pro (revisión) a través de la opción Atajos. De manera similar, se puede integrar con iPhones y iPads sin el nuevo botón programable a través de la aplicación Atajos. En cuanto a los dispositivos Android, Microsoft Copilot se lanzó a principios del año pasado. Además, también está disponible el navegador Bing de Microsoft con integración de IA y ChatGPT, que es una alternativa a Google Chrome y los navegadores predeterminados de los OEM. Más allá de las aplicaciones de inteligencia artificial de terceros, se rumorea que Apple presentará el iPhone 16 con un gran énfasis en la inteligencia artificial. El gigante tecnológico de Cupertino podría integrar IA generativa a través de su asistente Siri. Existe la posibilidad de que algunas funciones se anuncien con la próxima actualización de iOS 18. ¿Qué aplicación de IA estás usando en tu dispositivo? ¿Con qué frecuencia lo usas? Nos gustaría escuchar tu experiencia.

Source link

Opinión: La IA se apropió de mis libros. Alguien se beneficiará, pero no seré yo.

Groucho Marx dijo que no quería pertenecer a ningún club que lo tuviera como socio. Me pregunto cómo se sentiría si fuera uno de los autores cuyos libros han sido pirateados por, entre otros, Meta, que ha introducido una enorme base de datos de libros en LLaMMa, su entrada en la carrera armamentista de inteligencia artificial. Después de todo, Groucho es un miembro, reclutado desde más allá de la tumba, con dos de sus libros entre las decenas de miles de la lista. A los demás autores tampoco nadie les preguntó si querían pertenecer al club de los escritores explotados, suponiendo sin duda que la respuesta sería no. Puedo escuchar el tono: Hola. Has pasado tu vida contando historias. Ahora nos gustaría tomar todo ese trabajo duro y dárselo a nuestros sistemas de IA, a pesar de sus protecciones de derechos de autor, para que pueda alimentar programas que, sí, amenazan con sacarlo del negocio y hacer que la IA gane mucho dinero. mientras no ganes ni un centavo. Suena genial, ¿verdad? ¿No? OK no importa. Simplemente lo registraremos de todos modos y no se lo diremos. Se han presentado demandas, lo que lamentablemente recuerda el cliché de cerrar la puerta del granero después de que el caballo se haya escapado. En este caso estamos hablando de una estampida: Books3, un conjunto de datos que alimenta a LLaMMa así como a algunos de sus competidores, sugiere de manera obvia y precisa la existencia de Books1 y Books2, y no son los únicos programas que están devorando libros. en nombre de empresas de IA. Supongo que los autores que demanden podrían obtener un acuerdo financiero en el futuro, y tal vez incluso eliminar sus trabajos del conjunto de datos, pero en realidad, quién sabe si es posible desenseñar la IA, hacer que olvide las lecciones aprendidas de los trabajos. de Sarah Silverman, o Zadie Smith, o Jonathan Franzen, por mencionar algunos de los demandantes. Peor aún, o al menos tremendamente irónico, Books3 es una creación de un programador independiente que reclama la ventaja de los pequeños y espera ampliar el acceso a los datos que ha reunido más allá de los usuarios grandes como OpenAI y Meta. Robar al escritor comparativamente pobre y dárselo al aspirante a empresario tecnológico rico: un interesante giro inverso a Robin Hood. Al igual que Groucho, soy un miembro involuntario del club Books3. Un periodista del Atlantic ha creado una herramienta de búsqueda que combina el conjunto de datos y se han apropiado de tres de mis libros (una obra de no ficción, una novela y un libro de cocina). Cuando lo descubrí, solo por un instante retro, sentí la pequeña emoción patética aunque familiar que conlleva estar en una lista: una lista de libros más vendidos, una lista de lectura obligada, una lista de 10 libros para septiembre, una lista de regalos navideños. Érase una vez, estar en la lista significaba que alguien había leído su libro y lo apreciaba. Por lo que sé, Books3 «eligió» el libro de cocina que escribí simplemente porque incluía las palabras «cucharadita», «pimiento de pájaro» y «merluza». No es que alguien se haya enamorado de la receta del pollo al carrito. En el nuevo mundo, ya no soy un narrador de cuentos. Me veo reducido a una fuente de datos para palabras, frases y construcción de oraciones. AI está cenando fuera de los seis meses no remunerados que pasé en una propuesta y permisos, en los debates sobre palabras que me hacen mantener una libreta y un lápiz junto a la cama para inspirarme durante el insomnio, en el largo proyecto de prueba y error que es la estructura de un libro. Y esa lamentable historia se repite para todos los autores de la lista. No es que quiera romantizar la escritura. Estamos hablando de explotación igualitaria de oportunidades. Toma lo que sea que hagas para ganarte la vida, imagina que alguien te robó los frutos de tu trabajo y observa lo mal que te sientes. Y no asuma que no vendrán por usted: durante el último mes, he escuchado a personas de todas las edades, en una variedad de campos, predecir que sus trabajos no serán los mismos en cinco años, si tienen puestos de trabajo una vez que la IA realmente se ponga en marcha. Ingresé nombre tras nombre en la herramienta de búsqueda del Atlántico. AI ha consumido Philip Roth en inglés y español, así como 33 obras de Margaret Atwood. No puedo esperar a ver cómo se desarrolla esa colisión en la mente de la colmena de IA. Los premios Nobel Toni Morrison y Kazuo Ishiguro también están allí. Piensa en un autor y échale un vistazo; probablemente estará en la lista. De alguna manera, nunca esperé tener ninguna superposición con Groucho, pero aquí estamos, sin querer pertenecer al club Book3 pero sin poder encontrar la salida. No podemos simplemente enviar una carta de renuncia y echarnos atrás, como hizo con el Friars Club. Me gusta pensar que existe un universo en el que la IA podría funcionar a nuestro favor y no en nuestra contra, pero si esta configuración es una indicación, me aboco a la decepción. Los directivos del club parecen ver a sus miembros como nada más que un flujo de datos con pulso. Nos inscribieron a escondidas, saquearon el contenido de los casilleros de nuestra casa club y ahora están listos para ganar dinero pretendiendo que pueden replicar lo que hacemos. El libro más reciente de Karen Stabiner es “Generation Chef”, que forma parte del conjunto de datos de Books3.

Source link

Hiltzik: La revolución del chat con IA está revolucionando la ley de derechos de autor

Acabo de descubrir que soy parte de la revolución del chat con IA. Por favor, no me odien. Mi papel es el de autor de tres de los casi 200.000 libros que se introducen en el cerebro electrónico de LLaMa, el chatbot desarrollado y distribuido por Meta Platforms (anteriormente Facebook), en competencia con el más conocido ChatGPT. bots comercializados por OpenAI. Alex Reisner del Atlántico compiló una práctica herramienta de búsqueda para la base de datos, conocida como Books3, que brinda a los autores de todo el mundo la oportunidad de buscar sus nombres y decidir cómo pensar en los resultados. ¿Prohibiría la enseñanza (si esa es la palabra) de mis cuentos a las computadoras? Ni siquiera si pudiera. — Stephen King No lo he decidido por mí mismo; por un lado, estoy un poco molesto porque supuestamente sólo tres de mis siete libros se han utilizado para “entrenar” a LLaMa; por el otro, me dedico a reflexionar sobre cuánto debería valer mi contribución y ¿por qué no debería recibir un pago por ella? Las reacciones de otros autores, destacados y no tan destacados, han estado por todas partes. Algunos han expresado una indignación convincente. Incluyen a los novelistas John Grisham, George RR Martin, Scott Turow y otros que son miembros del Authors Guild y se encuentran entre los demandantes en una demanda por infracción de derechos de autor presentada contra OpenAI, y Sarah Silverman, demandante en una demanda similar contra Meta Platforms. Boletín Obtenga lo último de Michael Hiltzik Comentarios sobre economía y más de un ganador del Premio Pulitzer. Ingrese la dirección de correo electrónico Regístrate Es posible que ocasionalmente recibas contenido promocional de Los Angeles Times. Algunos han recurrido a las redes sociales para expresar su irritación o su absoluta furia, entre ellos Margaret Atwood y la novelista Lauren Groff. Luego está el grupo que pregunta: ¿cuál es el problema? Por ejemplo, Ian Bogost, autor o coautor de 10 libros, la mayoría sobre juegos, escribió un artículo reciente para Atlantic titulado “Mis libros se utilizaron para entrenar la IA generativa de Meta. Bien, también puede tener el próximo”. Finalmente, está Stephen King, cuya reacción ante una base de datos que enumera 87 de sus obras parece ser algo parecido a la resignación. “¿Prohibiría la enseñanza (si esa es la palabra) de mis historias a las computadoras?” el escribe. “Ni siquiera si pudiera. Bien podría ser el Rey Canuto, prohibiendo que suba la marea”. Antes de profundizar más en las cuestiones legales, desviémonos hacia lo que significa la base de datos y su uso en el contexto de la “IA generativa”, la categoría de tecnología a la que estos chatbots pertenecen. Como he escrito antes, para estos productos el término «inteligencia artificial» es un nombre inapropiado. No son inteligentes en el sentido en que los humanos y los animales lo son; simplemente están diseñados para parecer inteligentes ante un extraño que desconoce los procesos electrónicos que ocurren en su interior. De hecho, utilizar el mismo término distorsiona nuestra percepción de lo que están haciendo. No están aprendiendo en ningún sentido real, como por ejemplo creando percepciones del mundo que los rodea basándose en la información que ya tienen en sus circuitos. No son creativos en ningún sentido remotamente humano: «La creatividad no puede ocurrir sin sensibilidad», observa King, aunque cubre su apuesta respondiendo su propia pregunta sobre si los sistemas son creativos con las palabras: «Todavía no». los desarrolladores “entrenan” sus sistemas infundiéndoles billones de palabras y frases presentes en Internet o en bases de datos especializadas; Cuando un chatbot responde a su pregunta, convoca una serie probabilística de esas entradas para producir algo que se parezca (a menudo sorprendentemente) a lo que un humano podría producir. Pero es más que nada un simulacro del pensamiento humano, no el producto de la meditación. Lo gratificante de la revelación de que Books3 se ha utilizado para “entrenar” a LLaMa es que subraya cómo todo lo que arrojan los chatbots proviene, en esencia, de fuentes humanas. Aunque OpenAI se niega a revelar qué utiliza para “entrenar” ChatGPT, es casi seguro que esté haciendo algo similar. (Meta no ha reconocido formalmente el uso de Books3, pero la función de la base de datos fue revelada en un documento técnico por los desarrolladores de LLaMa en la empresa. Otro punto importante a tener en cuenta es que ninguna de esta capacitación ha permitido a los desarrolladores resolver los problemas más importantes y Un problema persistente con los chatbots: hacen las cosas mal, a menudo de manera espectacular. Cuando no pueden encontrar material factual para responder una pregunta, tienden a inventarla o citar irrelevancias; la semejanza de las respuestas con el pensamiento y el habla humanos induce a error a los usuarios. tomarlos al pie de la letra, lo que lleva a no pocas consecuencias embarazosas y costosas. Esto es endémico en el campo de la IA en general. Tan recientemente como el 20 de septiembre, la prestigiosa revista Nature se retractó de un artículo de investigadores de Google que había informado que un sistema de IA sólo necesitaba «Me tomó unas pocas horas diseñar chips de computadora que requirieron meses de trabajo por parte de diseñadores humanos. El autor del artículo supuestamente concluyó que era todo lo contrario. En mi caso, la triste verdad es que, por muy riguroso que fuera «entrenado» a LLaMa con mis libros, no Parece que no he aprendido mucho. De hecho, sus respuestas a mis preguntas demostraron que es tan idiota como sus primos de la familia de la IA generativa. Cuando le pregunté qué sabían sobre mí, su respuesta fue una mezcla de un biobox publicado en latimes.com, junto con la mención de tres libros, ninguno de los cuales figura en la base de datos Books3: uno que no es mío (aunque Me citan en sus notas finales) y dos que, por lo que puedo decir, no existen en absoluto. Sin embargo, sí me etiquetó como “un periodista consumado y muy respetado que ha hecho importantes contribuciones al campo del periodismo”, lo que sugiere que no carece del todo de sagacidad y buen juicio. Cuando le pedí a LLaMa que describiera los tres libros que están en la base de datos de Books3, sus respuestas se recopilaron a partir de textos repetitivos que podrían haber provenido de anuncios publicitarios en las portadas de los libros y de errores directos, incluso extraños. Eso nos lleva de nuevo a las preocupaciones planteadas en el mundo literario. Si las reacciones de los escritores establecidos parecen confusas, es principalmente porque la ley de derechos de autor es confusa. Esto es especialmente cierto cuando el tema es el “uso legítimo”, una exclusión de los derechos de autor que permite que partes de obras protegidas por derechos de autor se utilicen sin permiso. El uso legítimo es lo que permite citar fragmentos de obras publicadas en reseñas, resúmenes e informes de noticias. o trabajos de investigación, o para ser parodiados o reutilizados de una manera “transformadora”. ¿Qué es “transformador”? Como lo expresa un resumen de las bibliotecas de Stanford, “se han gastado millones de dólares en honorarios legales tratando de definir lo que califica… No existen reglas estrictas, sólo pautas generales y decisiones judiciales variadas”. Esto es así cuando surge una nueva tecnología, como la reproducción digital o, ahora, la formación de chatbots. La demanda presentada contra OpenAI por los novelistas y el Authors Guild afirma que OpenAI copió sus obras “al por mayor, sin permiso ni contraprestación”. [that is, payment]”, lo que equivale a un “robo sistemático a gran escala”. Los autores observan que la Oficina de Patentes de EE. UU. ha descubierto que la IA “el ‘entrenamiento’… casi por definición implica[s] la reproducción de obras enteras o de partes sustanciales de las mismas”. Dicen que «entrenar» es simplemente «un eufemismo que suena técnico para ‘copiar e ingerir'». Los autores dicen que los chatbots OpenAI «ponen en peligro la capacidad de los escritores de ficción para ganarse la vida», porque «permiten que cualquiera genere… … textos que de otro modo pagarían a los escritores para que los crearan”. Los robots “pueden escupir obras derivadas: material que se basa en, imita, resume o parafrasea las obras de los demandantes y daña el mercado de ellas”. Esas son afirmaciones cruciales, porque la interferencia con la comerciabilidad de una obra protegida por derechos de autor es un factor clave. factor que pesa en contra de una defensa de uso legítimo en los tribunales. Vale la pena mencionar que la invasión de la IA en el mercado de habilidades profesionales fue un factor clave en la reciente huelga de escritores de Hollywood, y lo sigue siendo para los actores que aún están en huelga. Las limitaciones al uso de la IA son una disposición importante del contrato que resolvió la huelga de escritores, y seguramente serán parte de cualquier acuerdo con los actores. La demanda presentada por Silverman y sus compañeros demandantes contra Meta sigue de cerca el caso del Authors Guild. Puede que no ayude a la defensa de Meta que Books3 sea en sí mismo un presunto producto de piratería; al menos algunas de las obras que contiene provienen de versiones ilícitas que circulan en la web. De hecho, un servidor de la base de datos la desconectó tras una denuncia de una organización danesa antipiratería. Meta, en su respuesta a la demanda de Silverman, sostiene que su uso de Books3 es «transformador por naturaleza y uso justo por excelencia». (Su moción para desestimar el caso está programada para ser escuchada por un juez federal en San Francisco el 16 de noviembre). La compañía dice que los demandantes no pueden señalar «ningún ejemplo» de la producción de LLaMa que reproduzca alguna parte de su trabajo. . Eso puede ser cierto, pero dependerá del juez Vincent Chhabria decidir si es relevante. Meta también implica que le está haciendo un favor al mundo al desarrollar las capacidades de LLaMa, que según dice se encuentran entre «los casos más claros de los beneficios potenciales sustanciales». La IA puede ofrecer servicios a escala a miles de millones de personas”. Si esto suena un poco a las defensas de Meta contra las acusaciones de que ha infringido la privacidad de sus usuarios con fines de lucro (que sólo proporciona información a otros que harán del mundo un lugar mejor) probablemente no sea un accidente. Bogost argumentó en el Atlántico que entrenar robots con material publicado y protegido por derechos de autor no debería requerir el permiso de sus creadores, y no es fundamentalmente diferente de lo que sucede cuando un lector recomienda un libro a un amigo o familiar. “Uno de los hechos (y placeres) de la autoría es que el trabajo de uno se utilizará de maneras impredecibles”, escribe. Pero en este contexto, eso es absurdo. Recomendar un libro no implica copiarlo. Incluso prestar o regalar un libro a otra persona es perfectamente lícito, ya que en algún momento del proceso se compró el libro y una parte del precio de compra acabó en el bolsillo del autor. Ese no es el caso en este caso. OpenAI y Meta son empresas comerciales que esperan ganar dinero con sus chatbots. En la medida en que utilicen material protegido por derechos de autor para desarrollar su funcionalidad, les deben algo a los creadores. Quizás ahora sé qué pensar sobre el uso de mis libros para “entrenar” estas máquinas, especialmente si nadie en la cadena Books3/Meta u OpenAI pagó por ellos. Puede ser difícil descubrir qué papel desempeñaron en la “capacitación”, pero sea cual fuere, no debería ser gratuito.

Source link

Investigación de Samsung revela IA generativa Samsung Gauss

El modelo de lenguaje grande Samsung Gauss puede ayudar con la escritura de código y el análisis de documentos. Samsung Research ha revelado un asistente de IA generativa llamado Samsung Gauss que el grupo de investigación utiliza internamente pero que eventualmente puede aparecer en los teléfonos de consumo de Samsung. Samsung Gauss tiene como objetivo mejorar la eficiencia del trabajo al hacer que redactar correos electrónicos, escribir código y generar imágenes sea más fácil y rápido. Samsung Research presentó detalles sobre Gauss en el segundo día del Samsung AI Forum 2023 el 8 de noviembre de 2023 en Gyeonggi-do, Corea. La IA en los dispositivos se ha convertido rápidamente en una herramienta imprescindible para los principales fabricantes de tecnología. Gauss de Samsung competirá con Google Assistant, que se ejecuta en dispositivos Pixel y Llama 2 de Meta, que estará integrado en ciertos teléfonos inteligentes y PC con tecnología Qualcomm a partir de 2024. Saltar a: ¿Qué es Samsung Gauss? Samsung Gauss es un modelo de lenguaje grande asociado con varias tecnologías de inteligencia artificial integradas para dispositivos móviles Samsung. Samsung Gauss se incluirá en «… una variedad de aplicaciones de productos Samsung…» en un futuro próximo, dijo Samsung Research en una publicación de blog. El Korea Times dijo que Gauss podría aparecer por primera vez en el Samsung Galaxy S24 a principios de 2024. Por ahora, el grupo de investigación de Samsung está utilizando Gauss para «… la productividad de los empleados». VER: ¿Cambiar de un iPhone de Apple a un teléfono Samsung Galaxy? Samsung crea una herramienta de transferencia sencilla. (TechRepublic) Samsung Gauss lleva el nombre de Carl Friedrich Gauss, el matemático que desarrolló la teoría de la distribución normal, que es una parte clave del aprendizaje automático y la inteligencia artificial. «El nombre refleja la visión fundamental de Samsung para los modelos, que consiste en aprovechar todos los fenómenos y conocimientos del mundo para aprovechar el poder de la IA para mejorar las vidas de los consumidores en todo el mundo», afirmó Samsung Research en la publicación del blog. ¿Cuáles son las diversas capacidades de los tres modelos Samsung Gauss? Samsung Gauss tiene tres modelos con diferentes capacidades: Samsung Gauss Language es un modelo de lenguaje generativo que puede redactar correos electrónicos, resumir documentos y traducir contenido. Se puede integrar en el control del dispositivo. (Samsung actualmente cuenta con Bixby para el control por voz de dispositivos móviles). Samsung Gauss Code es una herramienta de desarrollo de software que puede realizar funciones como descripción de código y generación de casos de prueba. Samsung Gauss Code habilita code.i, un asistente de codificación. Samsung Gauss Image crea o mejora imágenes. Samsung ofrece garantías con respecto a la seguridad Samsung, que prohibió temporalmente a sus empleados el uso de productos de IA generativa, incluidos ChatGPT de OpenAI y Bard de Google a principios de este año después de una filtración de datos interna, enfatizó en el comunicado de prensa que su Equipo Rojo de IA está trabajando arduamente en seguridad. El equipo de seguridad monitorea la IA en busca de cuestiones éticas y de privacidad que incluyen «… recopilación de datos para el desarrollo de modelos de IA, implementación de servicios y resultados generados por IA…», escribió Samsung Research en su publicación de blog. Nota: TechRepublic se comunicó con Samsung Research para obtener más información sobre Samsung Gauss.

Source link

OpenAI anuncia GPT-4 Turbo y GPT Tool Builder Store

GPT-4 Turbo, que está en versión preliminar para desarrolladores, puede solicitar información tan reciente como abril de 2023. Y OpenAI reveló una nueva forma para que los desarrolladores creen herramientas de inteligencia artificial. En la presentación principal de la primera conferencia DevDay de OpenAI, celebrada el 6 de noviembre de 2023 en San Francisco, OpenAI anunció una versión nueva y más potente de GPT-4, herramientas de IA generativa especializadas llamadas GPT y una API de asistentes para ayudar a los desarrolladores a crear aplicaciones de IA. Además, OpenAI anunció que ChatGPT con GPT4 Turbo podrá extraer información de eventos actuales tan recientes como abril de 2023. Saltar a: GPT-4 Turbo puede digerir más información que GPT-4 a un precio más bajo. GPT-4 Turbo agrega estos nuevos Capacidades para GPT-4: longitud de contexto de 128.000 tokens, o 300 páginas de un libro estándar. Más control para los desarrolladores, incluido un modo JSON, la capacidad de llamar a múltiples funciones a la vez, registrar probabilidades y resultados reproducibles. Conocimiento mundial hasta abril de 2023. Límites de tarifas más altos. GPT-4 Turbo costará un centavo por 1000 tokens de entrada y tres centavos por 1000 tokens de salida, más barato que GPT-4, dijo el director ejecutivo de OpenAI, Sam Altman (Figura A). Figura A El director ejecutivo de OpenAI, Sam Altman, resume los anuncios del DevDay de OpenAI el 6 de noviembre de 2023 en San Francisco. Imagen: TechRepublic «Decidimos priorizar los costos primero porque necesitamos hacer uno u otro, pero ahora estamos trabajando en la velocidad», dijo Altman durante la presentación principal. GPT-4 Turbo está disponible hoy en versión preliminar para desarrolladores con una suscripción a OpenAI. OpenAI espera que GPT-4 Turbo esté listo para producción en las próximas semanas. ChatGPT utilizará GPT-4 Turbo en una implementación gradual a partir de hoy. En el momento de escribir este artículo, GP-3.5 también mostró una actualización de conocimientos hasta enero de 2022. VER: OpenAI estuvo entre las organizaciones que firmaron una lista voluntaria de garantías de seguridad de IA con el gobierno de EE. UU. en septiembre. (TechRepublic) Otro cambio que los usuarios de ChatGPT verán hoy es que el selector de modelo ya no es un menú desplegable; en cambio, ChatGPT elige automáticamente qué modelo y modalidad, incluidas imágenes de DALL-E 3 y texto a voz, usar según la solicitud del usuario. Los desarrolladores podrán crear y vender herramientas de IA personalizadas conocidas como GPT. Además de mencionar el objetivo declarado de OpenAI de AGI (inteligencia artificial general hipotética, o IA, que es más inteligente que los humanos), Altman enfatizó que el objetivo para el futuro de la empresa es Permitir agentes de IA personalizados para combinar habilidades específicas. Con ese fin, OpenAI está lanzando GPT, que son versiones personalizadas de ChatGPT (Figura B). Figura B El director ejecutivo de OpenAI, Sam Altman, demostró la creación de un GPT el 6 de noviembre de 2023 durante el discurso de apertura de OpenAI DevDay en San Francisco. Imagen: Los GPT de TechRepublic se pueden diseñar, personalizar y vender en un mercado llamado GPT Store, que se abrirá a finales de este mes (Figura C). Figura C Una maqueta de la página principal de la Tienda GPT. Imagen: Los creadores de OpenAI pueden obtener ingresos de sus GPT en función de la popularidad de los GPT. Canva y Zapier recibieron acceso temprano al creador de GPT y lanzaron sus propios GPT. En ChatGPT Enterprise, los usuarios podrán crear GPT que solo se puedan compartir dentro de su organización. Los GPT estarán disponibles en ChatGPT Enterprise el miércoles 8 de noviembre. OpenAI enfatizó que las conversaciones en ChatGPT Enterprise no se utilizan para la capacitación de modelos. La IA de diseño generativo automatizará el 60% del esfuerzo de diseño de nuevos sitios web y aplicaciones móviles para 2026, predijo Gartner en su Market Databook 2023. La API de Asistentes ahora está disponible en versión beta. Más cobertura de IA de lectura obligada. OpenAI también anunció la API de Asistentes, una herramienta para crear aplicaciones generativas basadas en IA que reúne capacidades como el intérprete de código, la recuperación y la llamada de funciones de OpenAI. La API de Asistentes se basa en la misma base que los GPT, con herramientas adicionales. Con la API de Asistentes, los desarrolladores pueden agregar IA generativa a sus aplicaciones y servicios existentes. Por ejemplo, OpenAI Code Interpreter puede escribir y generar código y crear archivos. En la conferencia magistral, OpenAI demostró un asistente de voz que realiza cambios en las cuentas OpenAI de los usuarios en vivo. La API de Asistentes está en versión beta hoy; Los detalles de precios están disponibles en el sitio de OpenAI. El acceso a la API de OpenAI está disponible a nivel internacional. Los datos y archivos utilizados con la API de OpenAI no se utilizan para entrenar modelos de IA, dijo OpenAI. Altman dijo que ve esta API de Asistentes como un precursor de los agentes de IA, que cree que gradualmente podrán actuar por sí solos a medida que se vuelvan más capaces. Nota: TechRepublic vio virtualmente el discurso de apertura del DevDay de OpenAI.

Source link

Página 2 de 3

Funciona con WordPress & Tema de Anders Norén