El director ejecutivo de Nvidia, Jensen Huang, habla en la presentación principal de Supermicro durante la conferencia Computex en Taipei el 1 de junio de 2023. Walid Berrazeg | Imágenes de sopa | Cohete ligero | Getty Images Los inversores están tan enamorados de la historia de la inteligencia artificial de Nvidia que quieren una parte de todo lo que toca el fabricante de chips. El miércoles, Nvidia reveló en una presentación regulatoria que tiene participaciones en un puñado de empresas públicas: Arm, SoundHound AI, Recursion Pharmaceuticals, Nano-X Imaging y TuSimple. Con la excepción de Arm, que superó recientemente los 130.000 millones de dólares en capitalización de mercado, las acciones de las empresas respaldadas por Nvidia se dispararon el jueves tras la presentación del 13F, un formulario que deben presentar los gestores de inversiones institucionales que supervisan al menos 100 millones de dólares en activos. Pero ninguna de estas inversiones sorprendería a cualquiera que se tomara el tiempo de examinar informes y archivos de noticias antiguos. La manía de la IA se encuentra firmemente en una fase de exuberancia irracional, y los inversores se están abalanzando sobre cualquier cosa en el espacio. Ninguna acción está más de moda que Nvidia, que superó a Amazon en valor de mercado el martes y luego a Alphabet el miércoles para convertirse en la tercera más valiosa. empresa en EE.UU., sólo por detrás de Apple y Microsoft. Las acciones de Nvidia han subido más del 200% en los últimos 12 meses debido a la demanda aparentemente ilimitada de sus chips de IA, que sustentan potentes modelos de IA de Google, Amazon, OpenAI y otros. SoundHound, que utiliza IA para procesar el habla y el reconocimiento de voz, saltó 67% el jueves, después de que Nvidia revelara una participación que ascendía a 3,7 millones de dólares en el momento de la presentación. Nvidia invirtió en SoundHound en 2017 como parte de una ronda de riesgo de 75 millones de dólares. SoundHound salió a bolsa a través de una empresa de adquisición con fines especiales en 2022, y Nvidia fue nombrada en su presentación como inversor estratégico. Nano-X utiliza IA en imágenes médicas. La divulgación por parte de Nvidia de una inversión de 380.000 dólares en la empresa hizo que las acciones subieran un 49% el jueves. La participación de Nvidia se remonta a años atrás, con una inversión de riesgo en Zebra Medical, una startup israelí de imágenes médicas. Nano-X adquirió Zebra en 2021. TuSimple, una empresa de transporte autónomo, se disparó un 37% el jueves tras la divulgación de la participación de 3 millones de dólares de Nvidia. El repunte de las acciones se produce un mes después de que la compañía anunciara planes de salir de la lista del Nasdaq debido a un «cambio significativo en los mercados de capital» desde su OPI de 2021. TuSimple debutó a 40 dólares la acción y ahora cotiza a aproximadamente 50 centavos. «En consecuencia, el Comité Especial determinó que los beneficios de seguir siendo una empresa que cotiza en bolsa ya no justifican los costos», dijo TuSimple en un comunicado del 17 de enero. «La compañía está está experimentando una transformación que la compañía cree que puede navegar mejor como empresa privada que como empresa que cotiza en bolsa». Nvidia invirtió en TuSimple en 2017, cuatro años antes de la oferta pública inicial. Nvidia adquirió su participación en la empresa de biotecnología Recursion más recientemente. Al igual que TuSimple, Recursion salió a bolsa en 2021, pero Nvidia compró dos años después a través de lo que se llama una inversión privada en capital público, o PIPE. Nvidia compró acciones por valor de 50 millones de dólares en 2023 y ahora tiene una inversión por valor de 76 millones de dólares, según su presentación. Las acciones recursivas se dispararon un 14% el jueves. Las propias finanzas de Nvidia estarán a la vista la próxima semana, cuando la compañía informe sus ganancias trimestrales. Los analistas esperan un crecimiento interanual de los ingresos superior al 200 % hasta más de 20 mil millones de dólares. Es probable que las inversiones más recientes de la compañía sean mucho más significativas que sus apuestas anteriores, reveladas el miércoles por la noche, porque están en el corazón de la IA. auge. En los últimos años, Nvidia ha respaldado nuevas empresas de IA, incluidas Cohere, Hugging Face, CoreWeave y Perplexity. «La IA está transformando la forma en que los consumidores acceden a la información», dijo Jonathan Cohen, vicepresidente de investigación aplicada de Nvidia, en el anuncio de Perplexity de una financiación de 73,6 millones de dólares. ronda en enero. «El equipo de clase mundial de Perplexity está construyendo una plataforma de búsqueda confiable impulsada por IA que ayudará a impulsar esta transformación». MIRAR: Perplexity AI apunta a rivalizar con GoogleNo te pierdas estas historias de CNBC PRO:
Source link
Etiqueta: inteligencia artificial Página 8 de 17
OpenAI lanzó el 15 de febrero un nuevo e impresionante modelo de conversión de texto a video llamado Sora que puede crear imágenes en movimiento fotorrealistas o de dibujos animados a partir de indicaciones de texto en lenguaje natural. Sora aún no está disponible para el público; en cambio, OpenAI entregó a Sora a los equipos rojos (investigadores de seguridad que imitan las técnicas utilizadas por los actores de amenazas) para evaluar posibles daños o riesgos. OpenAI también ofreció Sora a diseñadores y artistas visuales y de audio seleccionados para obtener comentarios sobre cómo optimizar mejor Sora para el trabajo creativo. El énfasis de OpenAI en la seguridad en torno a Sora es estándar para la IA generativa hoy en día, pero también muestra la importancia de tomar precauciones cuando se trata de IA que podría usarse para crear imágenes falsas convincentes, que podrían, por ejemplo, dañar la reputación de una organización. ¿Qué es Sora? Sora es un modelo de difusión de IA generativa. Sora puede generar múltiples personajes, fondos complejos y movimientos de apariencia realista en videos de hasta un minuto de duración. Puede crear múltiples tomas dentro de un video, manteniendo consistentes los personajes y el estilo visual, lo que permite a Sora ser una herramienta narrativa eficaz. En el futuro, Sora podría usarse para generar videos que acompañen el contenido, para promocionar contenido o productos en las redes sociales, o para ilustrar puntos en presentaciones para empresas. Si bien no debería reemplazar las mentes creativas de los creadores de videos profesionales, Sora podría usarse para crear contenido de manera más rápida y sencilla. Si bien aún no hay información sobre los precios, es posible que OpenAI eventualmente tenga una opción para incorporar Sora en su suscripción ChatGPT Enterprise. Más cobertura de IA de lectura obligada «Los medios y el entretenimiento serán la industria vertical que puede ser la primera en adoptar modelos como estos», dijo a TechRepublic el analista y vicepresidente distinguido de Gartner, Arun Chandrasekaran Chandrasekaran, en un correo electrónico. «Las funciones comerciales como el marketing y el diseño dentro de las empresas y empresas de tecnología también podrían ser las primeras en adoptar». ¿Cómo accedo a Sora? A menos que ya haya recibido acceso de OpenAI como parte de su equipo rojo o prueba beta de trabajo creativo, no es posible acceder a Sora ahora. OpenAI lanzó Sora a artistas visuales, diseñadores y cineastas seleccionados para aprender cómo optimizar Sora para usos creativos específicamente. Además, OpenAI ha dado acceso a investigadores del equipo rojo especializados en desinformación, contenido de odio y prejuicios. El analista y vicepresidente distinguido de Gartner, Arun Chandrasekaran, dijo que el lanzamiento inicial de Sora por parte de OpenAI es «un buen enfoque y consistente con las prácticas de OpenAI sobre el lanzamiento seguro de modelos». «Por supuesto, esto por sí solo no será suficiente, y deben implementar prácticas para eliminar a los malos actores que obtienen acceso a estos modelos o sus usos nefastos», dijo Chandrasekaran. ¿Cómo funciona Sora? Sora es un modelo de difusión, lo que significa que refina gradualmente una imagen sin sentido hasta convertirla en una comprensible basándose en el mensaje y utiliza una arquitectura transformadora. La investigación que realizó OpenAI para crear sus modelos DALL-E y GPT, en particular la técnica de recaptura de DALL-E, fueron peldaños hacia la creación de Sora. VER: Hay demanda de ingenieros de inteligencia artificial en el Reino Unido (TechRepublic) Los videos de Sora no siempre parecen completamente realistas. Sora todavía tiene problemas para diferenciar la izquierda de la derecha o seguir descripciones complejas de eventos que suceden con el tiempo, como indicaciones sobre un movimiento específico de la cámara. . Los videos creados con Sora probablemente se detecten a través de errores de causa y efecto, dijo OpenAI, como cuando una persona muerde una galleta pero no deja una marca. Por ejemplo, las interacciones entre personajes pueden mostrar confusión (especialmente alrededor de las extremidades) o incertidumbre en términos de números (por ejemplo, ¿cuántos lobos hay en el video a continuación en un momento dado?). ¿Cuáles son las precauciones de seguridad de OpenAI en torno a Sora? Con las indicaciones y ajustes correctos, los videos que hace Sora pueden confundirse fácilmente con videos de acción en vivo. OpenAI es consciente de posibles problemas de difamación o desinformación derivados de esta tecnología. OpenAI planea aplicar los mismos filtros de contenido a Sora que la compañía aplica a DALL-E 3 que previenen “violencia extrema, contenido sexual, imágenes de odio, parecidos a celebridades o la propiedad intelectual de otros”, según OpenAI. Si Sora se lanza al público, OpenAI planea marcar el contenido creado con Sora con metadatos C2PA; Los metadatos se pueden ver seleccionando la imagen y eligiendo las opciones del menú Información del archivo o Propiedades. Las personas que crean imágenes generadas por IA aún pueden eliminar los metadatos a propósito o hacerlo accidentalmente. OpenAI actualmente no tiene nada implementado para evitar que los usuarios de su generador de imágenes, DALL-E 3, eliminen metadatos. «Ya es [difficult] y será cada vez más imposible detectar contenido generado por IA por parte de seres humanos”, dijo Chandrasekaran. “Los capitalistas de riesgo están invirtiendo en nuevas empresas que crean herramientas de detección de deepfake, y ellas (las herramientas de detección de deepfake) pueden ser parte de la armadura de una empresa. Sin embargo, en el futuro, será necesario que las asociaciones público-privadas identifiquen, a menudo en el momento de la creación, contenidos generados por máquinas”. ¿Cuáles son los competidores de Sora? Los vídeos fotorrealistas de Sora son bastante distintos, pero existen servicios similares. Runway proporciona generación de IA de texto a vídeo lista para uso empresarial. Fliki puede crear videos limitados con sincronización de voz para narraciones en redes sociales. La IA generativa ahora también puede agregar contenido o editar videos tomados de manera convencional de manera confiable. El 8 de febrero, investigadores de Apple revelaron un artículo sobre Keyframer, su modelo de lenguaje grande propuesto que puede crear imágenes animadas y estilizadas. TechRepublic se ha comunicado con OpenAI para obtener más información sobre Sora.
Considere tres mejores prácticas al utilizar tecnología emergente para lograr resultados comerciales
Es un gran momento para ser CIO. Las empresas nunca han estado tan centradas en utilizar la tecnología para impulsar el crecimiento. Y la tecnología nunca ha sido tan accesible. La variedad de opciones tecnológicas y métodos de entrega más rápidos (gracias, nube) han simplificado el proceso de identificación, compra e implementación de tecnología y servicios. La IA generativa es sólo un ejemplo (por supuesto, uno grande) de esto. Pero si bien el creciente interés de los socios comerciales en tecnologías nuevas y emergentes es emocionante, trae consigo cierto riesgo y podría cambiar la forma en que TI trabaja con sus socios comerciales. Comprender esos riesgos y guiar a los líderes empresariales sobre la mejor manera de abordarlos es fundamental para los CIO a la hora de dar forma a la asociación TI-empresa. Comprenda los riesgos de la tecnología emergente. ¿Alguna vez pensó que vería tanto interés en la IA? Lo que solía ser una tecnología compleja y misteriosa para el empleado promedio ahora aparece en las noticias de la noche y se menciona en casi todas las reuniones a las que asiste. La IA generativa ha hecho que la tecnología sea accesible y útil para una amplia variedad de roles empresariales, desde el director ejecutivo hasta toda la organización. Casi todas las funciones y roles pueden obtener algún beneficio de genAI. Según Forrester, el 89% de los tomadores de decisiones en IA dijeron que su organización se está expandiendo, experimentando o explorando el uso de genAI. Pero más allá de esos casos de uso aprobados, muchos trabajadores están usando ChatGPT u otras herramientas genAI no autorizadas en la oficina; de hecho, Forrester acuñó recientemente el término BYOAI para traer su propia IA y predice que el 60% de los trabajadores usarán su propia IA. propia IA para hacer su trabajo en 2024. Eso es mucha IA en la sombra, y genera preocupaciones tanto de privacidad como de marca (es decir, ¿qué están poniendo los empleados en esas herramientas genAI y qué propiedad intelectual podría estar perdiendo su empresa?). Desafortunadamente, la organización de TI no puede gestionar tecnología que desconoce. Y el aluvión de propuestas que todos recibimos de proveedores de tecnología y servicios puede provocar algo de esa IA en la sombra. Los proveedores suelen decir que tienen una solución tecnológica para un proceso específico, pero la realidad es que es posible que tengas que arreglar el proceso antes de poder aplicarle con éxito una solución tecnológica. Otro problema que puede surgir de esta tendencia es la superposición de funcionalidades, ya que cada una de las distintas plataformas de software proporciona su propia capacidad genAI. DESCARGAR: Esta política de TI paralela personalizable de TechRepublic Premium Al evaluar la tecnología emergente, debe haber un equilibrio. Quiere ser innovador y aprovechar al máximo las tecnologías adecuadas, pero evitar distraerse con el «síndrome del objeto brillante». Dado que aplicar la tecnología incorrecta a los procesos de negocios o casos de uso puede ser una desastrosa pérdida de tiempo y dinero, esto puede tener el efecto contrario al previsto: desacelerar la productividad, frustrar a los trabajadores y crear más deuda técnica. Y ahí es donde la organización de TI puede aportar valor real en el entorno actual. Utilice tres mejores prácticas cuando confíe en tecnología emergente para lograr resultados comerciales. A medida que se inicia más gasto en tecnología fuera de la organización de TI, está cambiando el papel tanto del CIO como de los equipos de TI. A medida que los CIO asumen el nuevo rol de asesores confiables de sus socios comerciales, los ayudan a comprender las tecnologías nuevas y emergentes y les brindan orientación sobre cómo pueden aprovechar mejor esas tecnologías para resolver desafíos comerciales reales. Esto culmina en tres mejores prácticas clave. 1. Vincular la tecnología a un caso de negocio Ya sea que se trate de un proyecto de tecnología iniciado fuera de TI o dentro de la organización de TI, la decisión debe comenzar con estas preguntas: ¿Qué problema de negocio estamos tratando de resolver? ¿Cuál es el caso de uso empresarial de esta tecnología? ¿Esta tecnología se alinea e impulsa nuestras iniciativas comerciales? Aquí es donde la alineación entre TI y el negocio es fundamental. Cuando la TI está alineada con el negocio en todos los niveles (comprendiendo sus objetivos y resultados deseados), el proceso de evaluación de la tecnología se vuelve más ágil y hay claridad sobre la elección correcta para cada caso de uso. Cuando la TI no está alineada con los objetivos comerciales o está menos comprometida con los socios comerciales, existe un mayor riesgo de implementar tecnología por la tecnología y acumular deuda técnica. 2. Alinear a los miembros de TI con funciones empresariales específicas ¿Cómo se puede pasar la “alineación empresarial y de TI” de una viñeta en una diapositiva a una acción en su organización? Para usar Forrester como ejemplo, alineamos a los miembros del equipo de TI con funciones comerciales específicas para que pudieran desarrollar experiencia en los objetivos de esa función y documentar procesos comerciales vitales. Cuando surge una discusión sobre evaluación de tecnología en esa función, es más probable que la empresa consulte con TI porque existe un mayor nivel de confianza y familiaridad entre las dos organizaciones. 3. Optimice el acceso a las estrategias con un enfoque de plan en una página El enfoque de plan en una página de Forrester es el mejor método de su clase para garantizar la alineación de la estrategia. Tener visibilidad directa de los objetivos más importantes para nuestros diversos socios comerciales nos permite alinear nuestro trabajo y presupuestos con esos objetivos. Sin ese nivel de visibilidad, existe el riesgo de que proyectos empresariales no priorizados absorban recursos y presupuestos de TI vitales. Conclusión En última instancia, si se llega a un punto en el que TI se convierte en un facilitador para que la empresa alcance sus objetivos más críticos, el riesgo de que la empresa se desvíe debido al síndrome del objeto brillante se vuelve mucho menor. Además, los líderes empresariales tendrán la confianza de consultar primero a TI y obtener sus comentarios antes de buscar soluciones tecnológicas emergentes. Mike Kasparian. Imagen: Forrester Este artículo fue escrito por Mike Kasparian, quien se desempeña como director de información en Forrester y lidera una organización de TI global que administra toda la tecnología empresarial interna. Es responsable de aprovechar la tecnología para impulsar la productividad y ofrecer valor empresarial, garantizar la seguridad de la red y los datos y optimizar las operaciones tecnológicas. Antes de ocupar este puesto, Mike ocupó varios puestos en la organización de Forrester durante los últimos 18 años, incluido el de vicepresidente de estrategia de tecnología empresarial y vicepresidente de productos para investigación y análisis. Mike también trabajó en operaciones y marketing de productos y formó parte del equipo que lanzó el negocio de consultoría de proyectos. Comenzó su carrera en Forrester en ventas trabajando con las cuentas globales más grandes de la empresa. Mike se graduó summa cum laude de la Universidad de Massachusetts, Amherst.
La IA generativa es la forma de inteligencia artificial más popular en la actualidad y es lo que impulsa a los chatbots como ChatGPT, Ernie, LLaMA, Claude y Cohere, así como a los generadores de imágenes como DALL-E 2, Stable Diffusion, Adobe Firefly y Midjourney. La IA generativa es la rama de la IA que permite a las máquinas aprender patrones a partir de vastos conjuntos de datos y luego producir de forma autónoma nuevos contenidos basados en esos patrones. Aunque la IA generativa es bastante nueva, ya existen muchos ejemplos de modelos que pueden producir texto, imágenes, vídeos y audio. Muchos de los llamados modelos básicos se han entrenado con datos suficientes para ser competentes en una amplia variedad de tareas. Por ejemplo, un modelo de lenguaje grande puede generar ensayos, códigos informáticos, recetas, estructuras de proteínas, chistes, consejos de diagnóstico médico y mucho más. En teoría, también puede generar instrucciones para construir una bomba o un arma biológica, aunque se supone que las salvaguardias previenen ese tipo de uso indebido. ¿Cuál es la diferencia entre IA, aprendizaje automático e IA generativa? La inteligencia artificial (IA) se refiere a una amplia variedad de enfoques computacionales para imitar la inteligencia humana. El aprendizaje automático (ML) es un subconjunto de la IA; se centra en algoritmos que permiten a los sistemas aprender de los datos y mejorar su rendimiento. Antes de que apareciera la IA generativa, la mayoría de los modelos de ML aprendían de conjuntos de datos para realizar tareas como clasificación o predicción. La IA generativa es un tipo especializado de ML que involucra modelos que realizan la tarea de generar contenido nuevo, aventurándose en el ámbito de la creatividad. ¿Qué arquitecturas utilizan los modelos de IA generativa? Los modelos generativos se construyen utilizando una variedad de arquitecturas de redes neuronales, esencialmente el diseño y la estructura que definen cómo se organiza el modelo y cómo fluye la información a través de él. Algunas de las arquitecturas más conocidas son los codificadores automáticos variacionales (VAE), las redes generativas adversarias (GAN) y los transformadores. Es la arquitectura transformadora, mostrada por primera vez en este artículo fundamental de Google de 2017, la que impulsa los grandes modelos de lenguaje actuales. Sin embargo, la arquitectura del transformador es menos adecuada para otros tipos de IA generativa, como la generación de imágenes y audio. Los codificadores automáticos aprenden representaciones eficientes de datos a través de un marco codificador-decodificador. El codificador comprime los datos de entrada en un espacio de dimensiones inferiores, conocido como espacio latente (o incrustado), que preserva los aspectos más esenciales de los datos. Luego, un decodificador puede utilizar esta representación comprimida para reconstruir los datos originales. Una vez que un codificador automático ha sido entrenado de esta manera, puede utilizar entradas novedosas para generar lo que considera las salidas apropiadas. Estos modelos a menudo se implementan en herramientas de generación de imágenes y también han encontrado uso en el descubrimiento de fármacos, donde pueden usarse para generar nuevas moléculas con las propiedades deseadas. Con las redes generativas adversarias (GAN), el entrenamiento involucra un generador y un discriminador que pueden ser considerados adversarios. El generador se esfuerza por crear datos realistas, mientras que el discriminador pretende distinguir entre los resultados generados y los resultados reales «verdaderos». Cada vez que el discriminador detecta una salida generada, el generador utiliza esa retroalimentación para intentar mejorar la calidad de sus salidas. Pero el discriminador también recibe retroalimentación sobre su desempeño. Esta interacción adversa da como resultado el refinamiento de ambos componentes, lo que lleva a la generación de contenido de apariencia cada vez más auténtica. Las GAN son más conocidas por crear deepfakes, pero también pueden usarse para formas más benignas de generación de imágenes y muchas otras aplicaciones. Se podría decir que el transformador es el campeón reinante de las arquitecturas de IA generativa por su ubicuidad en los poderosos modelos de lenguajes grandes (LLM) actuales. Su punto fuerte radica en su mecanismo de atención, que permite que el modelo se centre en diferentes partes de una secuencia de entrada mientras realiza predicciones. En el caso de los modelos de lenguaje, la entrada consta de cadenas de palabras que forman oraciones, y el transformador predice qué palabras vendrán a continuación (entraremos en detalles a continuación). Además, los transformadores pueden procesar todos los elementos de una secuencia en paralelo en lugar de recorrerla de principio a fin, como lo hacían los modelos anteriores; esta paralelización hace que el entrenamiento sea más rápido y eficiente. Cuando los desarrolladores agregaron vastos conjuntos de datos de texto para que los modelos de transformadores aprendieran, surgieron los notables chatbots de hoy. ¿Cómo funcionan los modelos de lenguaje grandes? Un LLM basado en transformadores se entrena proporcionándole un amplio conjunto de datos de texto del que aprender. El mecanismo de atención entra en juego cuando procesa oraciones y busca patrones. Al observar todas las palabras de una oración a la vez, gradualmente comienza a comprender qué palabras se encuentran más comúnmente juntas y qué palabras son más importantes para el significado de la oración. Aprende estas cosas tratando de predecir la siguiente palabra en una oración y comparando su suposición con la verdad básica. Sus errores actúan como señales de retroalimentación que hacen que el modelo ajuste los pesos que asigna a varias palabras antes de volver a intentarlo. Estos cinco LLM varían mucho en tamaño (dados en parámetros) y los modelos más grandes tienen un mejor rendimiento en una prueba comparativa de LLM estándar. IEEE Spectrum Para explicar el proceso de entrenamiento en términos un poco más técnicos, el texto en los datos de entrenamiento se divide en elementos llamados tokens, que son palabras o fragmentos de palabras, pero para simplificar, digamos que todos los tokens son palabras. A medida que el modelo revisa las oraciones en sus datos de entrenamiento y aprende las relaciones entre los tokens, crea una lista de números, llamada vector, para cada uno. Todos los números del vector representan varios aspectos de la palabra: sus significados semánticos, su relación con otras palabras, su frecuencia de uso, etc. Palabras similares, como elegante y elegante, tendrán vectores similares y también estarán cerca unas de otras en el espacio vectorial. Estos vectores se denominan incrustaciones de palabras. Los parámetros de un LLM incluyen los pesos asociados con todas las incrustaciones de palabras y el mecanismo de atención. Se rumorea que GPT-4, el modelo OpenAI que se considera el campeón actual, tiene más de 1 billón de parámetros. Con suficientes datos y tiempo de formación, el LLM comienza a comprender las sutilezas del lenguaje. Si bien gran parte de la capacitación implica mirar el texto oración por oración, el mecanismo de atención también captura las relaciones entre palabras a lo largo de una secuencia de texto más larga de muchos párrafos. Una vez que un LLM está capacitado y listo para su uso, el mecanismo de atención todavía está en juego. Cuando el modelo genera texto en respuesta a un mensaje, utiliza sus poderes de predicción para decidir cuál debería ser la siguiente palabra. Al generar fragmentos de texto más largos, predice la siguiente palabra en el contexto de todas las palabras que ha escrito hasta ahora; esta función aumenta la coherencia y continuidad de su escritura. ¿Por qué alucinan los modelos de lenguaje grandes? Es posible que haya escuchado que los LLM a veces «alucinan». Es una forma educada de decir que inventan cosas de manera muy convincente. A veces, un modelo genera texto que se ajusta al contexto y es gramaticalmente correcto, pero el material es erróneo o carece de sentido. Este mal hábito surge de la capacitación de los LLM sobre grandes cantidades de datos extraídos de Internet, muchos de los cuales no son objetivamente exactos. Dado que el modelo simplemente intenta predecir la siguiente palabra en una secuencia basándose en lo que ha visto, puede generar un texto que suene plausible y que no tiene base en la realidad. ¿Por qué es controvertida la IA generativa? Una fuente de controversia para la IA generativa es la procedencia de sus datos de entrenamiento. La mayoría de las empresas de inteligencia artificial que entrenan modelos grandes para generar texto, imágenes, videos y audio no han sido transparentes sobre el contenido de sus conjuntos de datos de entrenamiento. Varias filtraciones y experimentos han revelado que esos conjuntos de datos incluyen material protegido por derechos de autor, como libros, artículos de periódicos y películas. Se están llevando a cabo una serie de demandas para determinar si el uso de material protegido por derechos de autor para entrenar sistemas de IA constituye un uso legítimo o si las empresas de IA deben pagar a los titulares de los derechos de autor por el uso de su material. En una nota relacionada, a muchas personas les preocupa que el uso generalizado de la IA generativa quite puestos de trabajo a los humanos creativos que hacen arte, música, obras escritas, etc. Y también, posiblemente, de humanos que realizan una amplia gama de trabajos administrativos, incluidos traductores, asistentes legales, representantes de servicio al cliente y periodistas. Ya ha habido algunos despidos preocupantes, pero aún es difícil decir si la IA generativa será lo suficientemente confiable para aplicaciones empresariales a gran escala. (Ver más arriba sobre las alucinaciones). Finalmente, existe el peligro de que la IA generativa se utilice para crear cosas malas. Y, por supuesto, hay muchas categorías de cosas malas para las que teóricamente podrían usarse. La IA generativa se puede utilizar para estafas personalizadas y ataques de phishing: por ejemplo, mediante la “clonación de voz”, los estafadores pueden copiar la voz de una persona específica y llamar a la familia de esa persona para pedir ayuda (y dinero). Todos los formatos de IA generativa (texto, audio, imagen y video) pueden usarse para generar información errónea mediante la creación de representaciones aparentemente plausibles de cosas que nunca sucedieron, lo cual es una posibilidad particularmente preocupante cuando se trata de elecciones. (Mientras tanto, como informó Spectrum esta semana, la Comisión Federal de Comunicaciones de EE. UU. respondió prohibiendo las llamadas automáticas generadas por IA). Las herramientas de generación de imágenes y videos pueden usarse para producir pornografía no consensuada, aunque las herramientas fabricadas por las principales empresas no permiten ese uso. Y, en teoría, los chatbots pueden guiar a un posible terrorista a través de los pasos necesarios para fabricar una bomba, gas nervioso y una serie de otros horrores. Aunque los grandes LLM tienen salvaguardas para evitar ese uso indebido, algunos piratas informáticos disfrutan eludiendo esas salvaguardas. Es más, existen versiones «sin censura» de LLM de código abierto. A pesar de estos problemas potenciales, mucha gente piensa que la IA generativa también puede hacer que las personas sean más productivas y podría usarse como una herramienta para permitir formas de creatividad completamente nuevas. Probablemente veremos tanto desastres como florecimientos creativos y muchas otras cosas que no esperamos. Pero hoy en día, conocer los conceptos básicos de cómo funcionan estos modelos es cada vez más crucial para las personas conocedoras de la tecnología. Porque no importa cuán sofisticados crezcan estos sistemas, es trabajo de los humanos mantenerlos en funcionamiento, mejorar los siguientes y, con un poco de suerte, ayudar a las personas también.
Slack anunció en septiembre de 2023 su intención de agregar funciones de IA generativa y hoy la empresa de aplicaciones de mensajería lanzó su asistencia de IA. Las nuevas funciones de IA generativa de Slack están diseñadas para aumentar la productividad de los trabajadores mediante la consolidación de mensajes y búsquedas inteligentes (Figura A). Para los profesionales de TI y ciberseguridad, los resúmenes de Slack pueden ofrecer miradas rápidas a informes de incidentes o tickets antes de que los trabajadores profundicen en incidentes individuales. Figura Una búsqueda impulsada por IA en Slack. Imagen: Slack Plus, Slack anunció el resumen de canales personalizado en múltiples canales y la integración de Salesforce Einstein Copilot próximamente. Los resúmenes de resúmenes y la integración de Einstein Copilot para Salesforce CRM podrían aumentar la productividad al ahorrar tiempo y organizar la información automáticamente, sugiere Slack. Slack AI resume mensajes, agrega flexibilidad a las búsquedas y más. Las tres características de AI de Slack disponibles a partir del 14 de febrero son: Resúmenes de hilos, que acortan conversaciones largas e incluyen enlaces a la conversación original (Figura B). Resúmenes de canales, que generan aspectos destacados de múltiples canales seleccionados en un rango de fechas seleccionado y los resumen. Son especialmente útiles cuando un empleado ha estado ausente, señaló Slack. Búsqueda impulsada por IA, que permite a los usuarios hacer preguntas en lenguaje natural sobre las conversaciones de Slack. Figura B Slack AI puede resumir puntos importantes de las conversaciones. Imagen: Slack Las funciones de IA se ejecutan en un modelo de lenguaje grande propietario alojado en Slack. Los datos del cliente están aislados y no se utilizan para entrenar otros modelos. «Todos buscamos impulsar el ROI de nuestras organizaciones», dijo a TechRepublic la vicepresidenta de producto de Slack, Jackie Rocca, en una entrevista telefónica. “Estas funciones pueden ahorrarle tiempo, desde resúmenes de canales hasta búsquedas, pero también pueden equiparlo mejor para tomar decisiones comerciales y sobre clientes. No es necesario que dediques tanto tiempo a ser un detective digital intentando juntar las piezas. Puede simplemente hacer una pregunta en tiempo real, aprovechar todo el conocimiento de su organización y prepararse mejor para cualquier trabajo que se le presente”. Además, Slack anunció aplicaciones impulsadas por IA de Notion y otros miembros del ecosistema de socios de Slack. Estas aplicaciones se encuentran en el directorio de aplicaciones de Slack. Más cobertura de IA de lectura obligada ¿Cómo puedo obtener Slack AI? Slack AI es un complemento pago de la suscripción Enterprise Grid; Las organizaciones deberán comunicarse con sus representantes de ventas de Slack para obtener un precio exacto. Slack espera que haya más información sobre precios disponible cuando las funciones de IA se implementen en planes que no sean Enterprise Grid en el futuro. Slack AI solo está disponible en inglés de EE. UU. y Reino Unido. Slack planea expandir Slack AI a idiomas distintos del inglés en una fecha no especificada. VER: El NIST estableció el Consorcio de Seguridad de la IA de EE. UU. en febrero para crear estándares en torno a la seguridad de la IA. (TechRepublic) Próximas funciones de IA en Slack Slack no especificó cuándo se podrían implementar más funciones de IA, pero tiene planes para resúmenes personalizados con resúmenes de canales que un empleado puede no seguir activamente pero que quiere vigilar y más integraciones de aplicaciones impulsadas por IA. del ecosistema de socios de Slack están en proceso. Entre esas integraciones de aplicaciones impulsadas por IA estará Einstein Copilot, el asistente de IA generativa para Salesforce CRM. Einstein Copilot en Slack podrá responder preguntas en Slack en función de los datos de los clientes compartidos de forma segura con Salesforce CRM. «Los clientes han encontrado casos de uso personalizados únicos solo para sus organizaciones», afirmó Rocca. “Realmente queremos brindar esa plataforma abierta en la que, ya sea que construyas algo internamente o sea algo con lo que te estás asociando. Perplexity AI llega a Slack; Box tiene sus soluciones de inteligencia artificial en Slack. Entonces, independientemente de las herramientas que estés usando, queremos que Slack sea de fácil acceso (y) el centro de comando de todas tus herramientas de inteligencia artificial”. Competidores de Slack con funciones de inteligencia artificial Hay muchos competidores de Slack, incluidos Microsoft Teams, Google’s Chat, ClickUp, Rocket.Chat y Mattermost. A continuación se ofrece un breve vistazo a las funciones de IA que ofrecen estas alternativas de Slack. La suscripción de Microsoft 365 Copilot incluye funciones de IA generativa para Teams, como resúmenes de reuniones y tareas de seguimiento sugeridas. Algunas de estas características de Microsoft 365 AI pueden ser específicas de determinadas suscripciones, como Teams Premium o Copilot for Sales and Service. Gemini de Google puede integrarse con Google Chat (según el tipo de cuenta del usuario), proporcionando resúmenes de mensajes y consultas en lenguaje natural. ClickUp ofrece resumen de IA y funciones generativas, como cambiar el tono de los mensajes o generar elementos de acción. Rocket.Chat, una plataforma de chat de código abierto centrada en la seguridad, no ofrece funciones de inteligencia artificial integradas, pero puede acceder a ChatGPT a través de la integración de aplicaciones. Mattermost, que es más adecuado para equipos técnicos y de operaciones en industrias altamente seguras, no ofrece funciones de IA integradas, pero puede acceder a GPT-4 o a modelos locales de lenguaje grande a través de una zona de pruebas de IA.
Vértigo3d | E+ | Getty Images No hace mucho tiempo, redactar un mensaje de texto para la persona que te gusta podía haber implicado pistas ingeniosas de una revista de moda y el aporte de todos en el chat grupal. A partir del Día de San Valentín de 2024, el mundo del romance en línea se ve muy diferente. Un número cada vez mayor de personas utiliza la inteligencia artificial para coquetear, ya sea generando mensajes para aplicaciones de citas, cargando perfiles o evaluando la compatibilidad con una «situación». En EE. UU., 1 de cada 3 hombres de entre 18 y 34 años utiliza ChatGPT para obtener consejos sobre relaciones, en comparación con el 14% de las mujeres en el mismo rango de edad, según una encuesta del mes pasado en la plataforma de inteligencia artificial Pollfish. Las empresas emergentes centradas en mensajes de citas generados por IA están experimentando un auge en la demanda. Un hombre ruso que programó un chatbot para conversar con más de 5.000 mujeres en Tinder ahora está comprometido con una de ellas. El fenómeno incluso llegó el año pasado a un episodio de «South Park» de Comedy Central, cuando el personaje Stan Marsh le preguntó a otra personaje, Clyde Donovan, para pedirle consejos sobre cómo responder a los mensajes de texto de su novia. «ChatGPT, amigo», le dijo Clyde a Stan, en el pasillo de la escuela. «Hay un montón de aplicaciones y programas a los que puedes suscribirte que usan OpenAI para escribir por ti. La gente los usa para escribir poemas, escribir solicitudes de empleo. Pero para lo que son realmente buenos es para tratar con chicas». La IA generativa ha entrado en prácticamente todas las industrias, desde los servicios financieros hasta la investigación biomédica. Nvidia, el proveedor líder de procesadores utilizados para impulsar la mayoría de los modelos de IA generativa, ha visto dispararse sus ingresos y su capitalización de mercado ahora rivaliza con la de Amazon. OpenAI se ha convertido en una de las startups más populares del planeta, gracias a sus grandes modelos de lenguaje (LLM), mientras que Anthropic, fundada por ex empleados de OpenAI, está tratando de ponerse al día. La IA generativa para las citas puede parecer sombría, pero no necesariamente lo es. sorprendente. El creciente interés en el sector ha preparado el escenario para una avalancha de inversiones y una montaña de nuevos productos y servicios, incluidos algunos dirigidos al romance en línea. YourMove.AI, una herramienta de citas con inteligencia artificial que ofrece una gama de servicios como redacción de mensajes y análisis de conversaciones. y evaluar los perfiles de los usuarios de la aplicación de citas, tiene alrededor de 250.000 usuarios, estima el fundador Dmitri Mirakyan. Lanzado en 2022, YourMove recibe alrededor de 200.000 visitas al sitio por mes, dijo, y los ingresos han crecido aproximadamente un 20% mes tras mes. «El tipo de personas que usan esto: uno pensaría que en su mayoría son personas que se sienten incómodas, pero hay un montón de personas que son simplemente introvertidas», dijo Mirakyan a CNBC. Dijo que los usuarios incluyen personas tímidas, que hablan inglés como segundo idioma, que están atravesando cambios culturales o simplemente son novatos en las citas en línea. Un usuario de ChatGPT en Nueva York le dijo a CNBC que decidió utilizar el servicio de OpenAI para redactar mensajes a mujeres sobre las citas. aplicaciones después del episodio de «South Park» del pasado mes de marzo. Conectaría el mensaje de apertura de una mujer a ChatGPT y le pediría que actuara como una sola persona con el objetivo de conseguir una cita. Se aseguró de decirle al chatbot que no invitara a salir a la persona de inmediato. El hombre, que pidió permanecer en el anonimato por razones de privacidad, dijo que enviar mensajes de texto es la peor parte de las aplicaciones de citas. Dijo que llegó a la etapa de la primera cita con un par de personas usando el método ChatGPT e incluso recurrió al chatbot para planificar una salida, preguntándole por lugares para citas en Nueva York. «Tener citas es difícil», otro hombre de Nueva York, que también solicitó el anonimato, le dijo a CNBC que una vez le pidió a ChatGPT que lo ayudara a redactar un mensaje de texto para una chica con la que había estado saliendo y que estaba a punto de irse de vacaciones. Quería decirle que se divirtiera y que no se preocupara si no podía responder a sus mensajes mientras estaba fuera. Las primeras versiones parecían demasiado artificiales, dijo, por lo que tuvo que pedirle al chatbot que redactara textos más informales. «Ey [her name]¡Estoy súper emocionado por tu viaje!» respondió ChatGPT. «Diviértete genial y no te preocupes por responder mensajes de texto. Pero bueno, si tomas algunas fotos interesantes o quieres charlar, estoy aquí. ¡Diviértete!» Rizz, un asistente de citas con inteligencia artificial, debutó en 2022 después del despegue de ChatGPT. Los cofundadores Roman Khaves y Josh Miller dijeron que tuvieron la idea de una herramienta de citas personal años antes, pero para que funcionara habrían necesitado contrató entrenadores de citas porque la tecnología de automatización no existía. Ahora, Rizz tiene 3,5 millones de descargas hasta la fecha, con 1 millón de usuarios activos mensuales. En promedio, el número de usuarios aumentó un 30% por mes en el último trimestre, dijo la compañía. «Tener citas es difícil», dijo Khaves a CNBC. «Se ha convertido en como un segundo trabajo para muchas personas: la gente está pasando apuros». Hay mucha competencia ahí fuera. Las personas no solo necesitan tener excelentes fotos que destaquen, sino que también necesitan saber cómo iniciar estas conversaciones en aplicaciones de citas». Algunas empresas emergentes en el espacio actualmente utilizan los modelos de OpenAI y los personalizan. Las empresas que hablaron con CNBC dijeron No venden ni comparten datos de entrenamiento, aunque sí los usan internamente para mejorar el producto. Ganan dinero con las suscripciones de los usuarios. Jonathan Raa | Nurphoto | Getty ImagesAlex Weitzman se volvió viral en TikTok e Instagram por Texts From My Ex, the AI chatbot que construyó para analizar sus propias conversaciones de texto de su relación pasada. Luego decidió convertirlo en un sitio web y una aplicación llamada Amori. Amori usa inteligencia artificial para analizar todo el historial de chat de WhatsApp o iMessage de un usuario con cualquier persona en su lista de contactos, Weitzman El chatbot, que está construido sobre los modelos de OpenAI, utiliza los registros de chat para clasificar la relación en áreas como compatibilidad, comunicación, «sensualidad» y más, llegando incluso a adivinar el estilo de apego de cada persona. (Weitzman y su ex tenían un puntaje de compatibilidad de solo 37%). Entre TikTok e Instagram Reels, el video de Weitzman tiene 3 millones de visitas hasta ahora. A las dos semanas de publicarlo, 30.000 personas accedieron a sus historiales de mensajes, dijo, y la herramienta ya ha sido utilizada por 50.000 personas. Weitzman fue más allá de la web para lanzar una aplicación dedicada en versión beta esta semana. La mayor parte de la base de usuarios de su empresa han sido mujeres, afirmó. «Hay algunas cosas que no querrás preguntarle a tu amigo», dijo Weitzman, y agregó: «Un amigo no podrá leer miles de mensajes de texto por ti. Una IA puede ser mucho más específica y encontrar realmente momentos específicos en el chat que muestran evidencia». Weitzman planea ofrecer una gama de entrenadores de citas con IA, cada uno con su propia «personalidad», así como diferentes opciones de análisis para las cargas de conversaciones de texto, como estilos de archivos adjuntos, radar de bandera roja e incluso un «detector de p**os». ‘Pise con precaución’ En YourMove, Mirakyan ahora tiene nueve empleados a tiempo parcial trabajando en la aplicación. Han pasado mucho tiempo personalizando el modelo de IA y resolviendo problemas, haciéndolo «coqueto pero no demasiado coqueto», dijo. Al principio, recordó Mirakyan, la modelo a veces parecía demasiado agresiva al intentar invitar a salir a alguien o generar un mensaje que intentaba abordar todo lo mencionado en el perfil de citas de la persona. A veces incluso hacía una broma sobre la proximidad de la persona (digamos, a dos millas de distancia), lo que parecía espeluznante. Mirakyan dijo que hubo un «ciclo largo de jugar con la IA y las entradas que le proporcionamos, pero también pensando en ‘¿A quién le atrae este mensaje?'»Como en otras áreas, depender demasiado de la IA en las citas puede cruzar la línea y convertirse en un comportamiento poco ético. Gary Kremen, quien fundó Match.com hace tres décadas, dijo a CNBC que » Si alguien siempre está adaptando sus respuestas usando un chatbot», esa práctica «puede volverse fácilmente problemática». Por ejemplo, agregar un chihuahua a una foto para tratar de coincidir con un usuario que dice que ama a los perritos puede ser como mentir sobre su edad, dijo Kremen. Aunque el uso de la IA para citas no es necesariamente del todo malo, añadió, las aplicaciones de citas aún tendrán que «andar con precaución». Lisa Marie Bobby, psicóloga licenciada y terapeuta matrimonial y familiar, dijo a CNBC que si bien la IA puede ser útil Para las primeras impresiones, especialmente para aquellos que han tenido problemas con las citas en línea en el pasado, también puede conducir a conexiones no auténticas. «Tal vez tomaron decisiones sobre involucrarse contigo basándose en una experiencia que estaban teniendo con la comunicación generada por IA, en lugar de que tú en realidad», dijo Bobby. «A corto plazo, puede proporcionar este impulso. Pero a largo plazo, ¿desperdiciaste varios meses de cada una de tus vidas?» Las citas basadas en inteligencia artificial plantean una pregunta crítica que la gente debe considerar: «Cuando comienzas una relación relación con alguien, ¿has presentado una versión de ti mismo que no es exactamente quien eres?» dijo Bobby.Renate Nyborg, ex directora ejecutiva de Tinder, lanzó Meeno en 2023 como una herramienta de asesoramiento de inteligencia artificial para cualquier tipo de relación, desde el romance hasta el lugar de trabajo y todo lo demás. Nyborg dijo que las personas usan Meeno para generar mensajes o practicar conversaciones con personas en sus vidas, pero la aplicación también permite a los usuarios observar tendencias generales en sus relaciones. Meeno está dirigido principalmente a la Generación Z y a los millennials, por ahora, y la mayoría de los usuarios son hombres, dijo Nyborg. Actualmente está disponible en Finlandia, Australia y Nueva Zelanda, pero la compañía planea expandirse a EE. UU., Reino Unido y Países Bajos a finales de este año. Meeno ha estado trabajando con un grupo de probadores beta en los EE. UU. desde agosto, dijo Nyborg, y se encuentran entre las más de 1.000 personas que trabajan en la aplicación en total. Hasta la fecha, toda la producción de Meeno ha sido revisada por anotadores humanos con experiencia relevante, como soporte práctico en crisis o capacitación en psicología. Actualmente, Meeno se ejecuta en GPT-4 de OpenAI, pero Nyborg dijo que la compañía construyó barreras de seguridad personalizadas para brindar asesoramiento especializado en relaciones. La aplicación no «se trata de darte una línea elegante para chatear», dijo Nyborg. «Meeno te ayuda a construir relaciones cercanas reales». MIRA: Cómo construí mi aplicación de citas de 400 millones de dólares al año
Source link
Los legisladores y reguladores en Washington están empezando a debatir cómo regular la inteligencia artificial en la atención médica, y la industria de la IA cree que hay muchas posibilidades de que lo arruinen. «Es un problema increíblemente desalentador», dijo el Dr. Robert Wachter, presidente de el Departamento de Medicina de UC San Francisco. «Existe el riesgo de que lleguemos con las armas encendidas y con una regulación excesiva». El impacto de la IA en la atención sanitaria ya está generalizado. La Administración de Alimentos y Medicamentos ha aprobado 692 productos de IA. Los algoritmos están ayudando a programar pacientes, determinar los niveles de personal en las salas de emergencia e incluso transcribir y resumir las visitas clínicas para ahorrar tiempo a los médicos. Están empezando a ayudar a los radiólogos a leer resonancias magnéticas y radiografías. Wachter dijo que a veces consulta informalmente una versión de GPT-4, un modelo de lenguaje grande de la compañía OpenAI, para casos complejos. El alcance del impacto de la IA (y el potencial de cambios futuros) significa que el gobierno ya está tratando de ponerse al día. Están terriblemente atrasados”, dijo en un correo electrónico Michael Yang, socio gerente senior de OMERS Ventures, una firma de capital de riesgo. Los pares de Yang han realizado grandes inversiones en el sector. Rock Health, una firma de capital de riesgo, dice que los financistas han invertido casi 28 mil millones de dólares en firmas de salud digital especializadas en inteligencia artificial. Un problema al que se enfrentan los reguladores, dijo Wachter, es que, a diferencia de los medicamentos, que tendrán la misma química dentro de cinco años Como ocurre hoy, la IA cambia con el tiempo. Pero la gobernanza se está formando, con la Casa Blanca y múltiples agencias centradas en la salud desarrollando reglas para garantizar la transparencia y la privacidad. El Congreso también está mostrando interés; El Comité de Finanzas del Senado celebró una audiencia sobre la IA en la atención sanitaria la semana pasada. Junto con la regulación y la legislación, viene un aumento del lobby. CNBC contabilizó un aumento del 185% en el número de organizaciones que divulgaron actividades de lobby sobre IA en 2023. El grupo comercial TechNet ha lanzado una iniciativa de 25 millones de dólares, que incluye la compra de anuncios de televisión, para educar a los espectadores sobre los beneficios de la inteligencia artificial.“Es muy difícil «Sabemos cómo regular inteligentemente la IA, ya que estamos en una etapa muy temprana de la fase de invención de la tecnología», dijo en un correo electrónico Bob Kocher, socio de la firma de capital de riesgo Venrock que anteriormente trabajó en la administración Obama. Kocher ha hablado con senadores sobre Regulación de la IA. Destaca algunas de las dificultades que enfrentará el sistema de salud al adoptar los productos. Los médicos, que enfrentan riesgos de negligencia, podrían desconfiar del uso de tecnología que no entienden para tomar decisiones clínicas. Un análisis de los datos de la Oficina del Censo de enero realizado por la consultora Capital Economics encontró que el 6,1% de las empresas de atención médica planeaban usar IA en los próximos seis años. meses, aproximadamente en la mitad de los 14 sectores encuestados. Como cualquier producto médico, los sistemas de IA pueden plantear riesgos para los pacientes, a veces de una manera novedosa. Un ejemplo: podrían inventar cosas. Watchter recordó a un colega que, a modo de prueba, asignó al GPT-3 de OpenAI la tarea de escribir una carta de autorización previa a una aseguradora para una receta intencionadamente “loca”: un anticoagulante para tratar el insomnio de un paciente. Pero la IA “escribió una hermosa nota”, dijo. El sistema citaba tan convincentemente “literatura reciente” que la colega de Wachter se preguntó brevemente si se había perdido una nueva línea de investigación. Resultó que el chatbot había inventado su afirmación. Existe el riesgo de que la IA magnifique el sesgo ya presente en el sistema de salud. Históricamente, las personas de color han recibido menos atención que los pacientes blancos. Los estudios muestran, por ejemplo, que los pacientes negros con fracturas tienen menos probabilidades de recibir analgésicos que los blancos. Este sesgo podría quedar grabado en piedra si la inteligencia artificial se entrena con esos datos y posteriormente actúa en base a ellos. La investigación sobre la IA implementada por las grandes aseguradoras ha confirmado que esto ha sucedido. Pero el problema está más extendido. Wachter dijo que UCSF probó un producto para predecir las ausencias a las citas clínicas. Los pacientes que se considera poco probable que se presenten a una visita tienen más probabilidades de recibir una cita doble. La prueba mostró que las personas de color tenían más probabilidades de no presentarse. Independientemente de si el hallazgo fue exacto o no, “la respuesta ética es preguntar por qué y si hay algo que se pueda hacer”, dijo Wachter. Dejando a un lado las exageraciones, es probable que esos riesgos sigan atrayendo la atención con el tiempo. Los expertos en inteligencia artificial y los funcionarios de la FDA han enfatizado la necesidad de algoritmos transparentes, monitoreados a largo plazo por seres humanos: reguladores e investigadores externos. Los productos de IA se adaptan y cambian a medida que se incorporan nuevos datos. Y los científicos desarrollarán nuevos productos. Los formuladores de políticas necesitarán invertir en nuevos sistemas para rastrear la IA a lo largo del tiempo, dijo la rectora de la Universidad de Chicago, Katherine Baicker, quien testificó en la audiencia del Comité de Finanzas del Senado. «El mayor avance es algo en lo que aún no hemos pensado», dijo en una entrevista. KFF Health News, anteriormente conocida como Kaiser Health News, es una sala de redacción nacional que produce periodismo en profundidad sobre temas de salud.
Source link
En los días previos a las elecciones primarias del Partido Demócrata de Estados Unidos en New Hampshire el 23 de enero, los votantes potenciales comenzaron a recibir una llamada con audio generado por IA de un falso presidente Biden instándolos a no votar hasta las elecciones generales de noviembre. El audio de los votantes de Eslovaquia publicado en Facebook contenía un audio falso, generado por IA, de un candidato presidencial que planeaba robar las elecciones, lo que podría haber inclinado las elecciones a favor de otro candidato. Las recientes elecciones en Indonesia y Taiwán también se han visto empañadas por la desinformación generada por la IA. En respuesta a la llamada automática falsa de Biden en New Hampshire, la Comisión Federal de Comunicaciones de EE. UU. tomó medidas para ilegalizar las voces generadas por IA en las llamadas automáticas el 8 de febrero. Pero los expertos con los que habló IEEE Spectrum no están convencidos de que la medida sea suficiente, incluso cuando la IA generativa aporta nuevos giros a las antiguas estafas de llamadas automáticas y ofrece oportunidades para impulsar los esfuerzos para defraudar a las personas. Se cree que la pérdida total por estafas y spam en Estados Unidos en 2022 será de 39.500 millones de dólares, según TrueCaller, que fabrica una aplicación de identificación de llamadas y bloqueo de spam. Ese mismo año, la cantidad promedio de dinero perdida por personas estafadas en Estados Unidos fue de 431,26 dólares, según una encuesta de Hiya, una empresa que brinda servicios de identidad y protección de llamadas. Hiya dice que esa cantidad aumentará a medida que el uso de la IA generativa gane terreno. «En conjunto, es alucinante cuánto se pierde por el fraude perpetuado a través de llamadas automáticas», dice Eric Burger, director de investigación de Commonwealth Cyber Initiative en Virginia. Tecnología. «No creo que podamos apreciar cuán rápido va a cambiar la experiencia telefónica debido a esto». —Jonathan Nelson, HiyaAI facilitará que los estafadores se dirijan a individuos “El gran temor con la IA generativa es que se adopten estafas personalizadas y se generalicen”, dice Jonathan Nelson, director de gestión de productos de Hiya. En particular, afirma, la IA generativa facilitará la realización de ataques de phishing. El costo del fraude telefónico La cantidad promedio de dinero perdida por una víctima de estafa telefónica en 2022, en dólares estadounidenses: Estados Unidos: $431,26 Reino Unido: $324,04 Canadá: $472,87 Francia: $360,62 Alemania: $325,87 España: $282,35 Fuente: Hiya Generalmente, los ataques de phishing tienen como objetivo para engañar a las personas para que proporcionen información personal, como contraseñas e información financiera. El Spearphishing, sin embargo, es más específico: el estafador sabe exactamente a quién se dirige y espera obtener un pago mayor a través de un enfoque más personalizado. Ahora, con la IA generativa, dice Nelson, un estafador puede raspar sitios de redes sociales, redactar textos e incluso clonar una voz confiable para separar en masa a personas desprevenidas de su dinero. Con el voto unánime de la FCC para ilegalizar la IA generativa en las llamadas automáticas, la cuestión naturalmente pasa a ser la aplicación de la ley. Aquí es donde los expertos con los que habló IEEE Spectrum tienen dudas en general, aunque muchos también lo ven como un primer paso necesario. «Es un paso útil», dice Daniel Weiner, director del Programa de Gobierno y Elecciones del Centro Brennan, «pero no es una solución completa». Weiner dice que es difícil para la FCC adoptar un enfoque regulatorio más amplio en la misma línea que la prohibición general de los deepfakes que está considerando la Unión Europea, dado el alcance de la autoridad de la FCC. Burger, quien fue director de tecnología de la FCC de 2017 a 2019, dice que, en última instancia, el voto de la agencia solo tendrá un impacto si comienza a hacer cumplir la prohibición de las llamadas automáticas de manera más general. La mayoría de los tipos de llamadas automáticas han estado prohibidos desde que la agencia instituyó la Ley de Protección al Consumidor Telefónico en 1991. (Hay algunas excepciones, como mensajes pregrabados del consultorio de su dentista, por ejemplo, que le recuerdan una cita próxima). No parece estar sucediendo”, dice Burger. «A los políticos les gusta decir ‘vamos tras los malos’, y no lo hacen, no con el vigor que nos gustaría ver». Las herramientas de aplicación de llamadas automáticas pueden no ser suficientes contra la IA El método clave para identificar el origen de una llamada automática (y, por lo tanto, evitar que los malos actores sigan realizándola) es rastrear la llamada a través de la compleja red de infraestructura de telecomunicaciones e identificar el punto de origen de la llamada. . Los rastreos solían ser asuntos complicados, ya que una llamada generalmente atraviesa la infraestructura mantenida por múltiples operadores de red como AT&T y T-Mobile. Sin embargo, en 2020, la FCC aprobó un mandato para que los operadores de red comenzaran a implementar un protocolo llamado STIR/SHAKEN que, entre otras medidas anti-robocalls, haría posible el rastreo en un solo paso. «Se ha confirmado el rastreo en un solo paso», afirma Burger. Traceback, por ejemplo, identificó la fuente de las llamadas falsas de Biden dirigidas a los votantes de New Hampshire como una empresa con sede en Texas llamada Life Corporation. El problema, dice Burger, es que la FCC, la Oficina Federal de Investigaciones de EE. UU. y las agencias estatales no están proporcionando los recursos para hacer posible perseguir la gran cantidad de operaciones ilegales de llamadas automáticas. Históricamente, la FCC sólo ha perseguido a los mayores perpetradores. «No hay forma de detener estas llamadas», dice Nelson de Hiya, al menos no del todo. «Nuestro trabajo no es detenerlos, sino hacer que no sean rentables». Hiya, al igual que empresas similares, pretende lograr ese objetivo reduciendo la cantidad de fraude exitoso a través de servicios de protección, incluida la exposición de dónde se creó una llamada y quién, para que sea menos probable que un individuo responda la llamada en primer lugar. Sin embargo, a Nelson le preocupa que la IA generativa haga que la barrera de entrada sea tan baja que esas acciones preventivas sean menos efectivas. Por ejemplo, las estafas actuales casi siempre requieren transferir a la víctima a un agente en vivo en un centro de llamadas para cerrar la estafa con éxito. Con voces generadas por IA, los estafadores pueden eventualmente eliminar por completo el centro de llamadas. «En conjunto, es alucinante cuánto se pierde por el fraude perpetuado mediante llamadas automáticas». —Eric Burger, Virginia Tech A Nelson también le preocupa que a medida que la IA generativa mejore, será más difícil para las personas siquiera reconocer que no estaban hablando con una persona real en primer lugar. «Ahí es donde vamos a empezar a perder el equilibrio», dice Nelson. «Es posible que tengamos un aumento en el número de destinatarios de llamadas que no se dan cuenta de que se trata de una estafa». Los estafadores que se posicionan como organizaciones benéficas falsas, por ejemplo, podrían solicitar “donaciones” con éxito sin que los donantes se den cuenta de lo que realmente sucedió. «No creo que podamos apreciar cuán rápido va a cambiar la experiencia telefónica debido a esto», dice Nelson. Otro tema que complica la aplicación de la ley es que la mayoría de las llamadas automáticas ilegales en Estados Unidos se originan más allá de las fronteras del país. El Industry Traceback Group descubrió que en 2021, por ejemplo, el 65 por ciento de todas esas llamadas fueron de origen internacional. Burger señala que la FCC ha tomado medidas para combatir las llamadas automáticas internacionales. La agencia hizo posible que otros operadores se negaran a transmitir tráfico de proveedores de puerta de enlace (un término para los operadores de red que conectan infraestructura nacional con infraestructura internacional) que están originando llamadas fraudulentas. En diciembre de 2023, por ejemplo, la FCC ordenó a dos empresas, Solid Double y CallWin, que dejaran de transmitir llamadas automáticas ilegales o se arriesgarían a que otros operadores tuvieran que rechazar su tráfico. “No parece que se esté haciendo cumplir la ley. No con el vigor que nos gustaría ver”. —Eric Burger, Virginia Tech La reciente acción de la FCC contra la IA generativa en las llamadas automáticas es la primera de su tipo, y aún está por verse si los organismos reguladores de otros países seguirán el ejemplo. «Ciertamente creo que la FCC está dando un buen ejemplo de acción rápida y audaz en el ámbito de su autoridad regulatoria», dice Weiner. Sin embargo, también señala que las contrapartes de la FCC en otras democracias probablemente terminarán con resultados más completos. Según Burger, es difícil decir cómo se compararán las acciones de la FCC con las de otros reguladores. Tan a menudo como la FCC está muy por delante de la curva, como en el uso compartido del espectro, con la misma frecuencia está muy por detrás, como en el uso de 5G de banda media. Nelson dice que espera ver revisiones de la decisión de la FCC dentro de un par de años, porque actualmente impide que las empresas utilicen IA generativa para prácticas comerciales legítimas. También queda por ver si el voto de la FCC tendrá algún efecto real. Burger señala que, en el caso de llamadas como la falsa de Biden, debido a que ya era ilegal realizar esas llamadas automáticas y hacerse pasar por el presidente, hacer que otro aspecto de la llamada sea ilegal probablemente no cambie las reglas del juego. “Al hacerlo triplemente ilegal, ¿eso realmente disuadirá a la gente?” Dice hamburguesa. Artículos de su sitioArtículos relacionados en la Web
Source link