Cuando usas Facebook Messenger, un nuevo mensaje te da la bienvenida con esta invitación: “Pregúntale lo que quieras a Meta AI”. Es posible que hayas abierto la aplicación para enviar un mensaje de texto a un amigo, pero el nuevo chatbot de Meta, impulsado por inteligencia artificial, te tienta con conocimiento enciclopédico que está a solo unas pocas pulsaciones de teclas de distancia. Meta, la empresa matriz de Facebook, ha instalado su chatbot de cosecha propia en sus servicios de WhatsApp e Instagram. Ahora, miles de millones de usuarios de Internet pueden abrir una de estas plataformas de redes sociales gratuitas y aprovechar los servicios de Meta AI como diccionario, guía, consejero o ilustrador, entre muchas otras tareas que puede realizar, aunque no siempre de manera confiable o infalible. “Nuestro objetivo es construir la IA líder del mundo y ponerla a disposición de todos”, dijo Mark Zuckerberg, el director ejecutivo de Meta, cuando anunció el lanzamiento del chatbot hace dos semanas. “Creemos que Meta AI es ahora el asistente de IA más inteligente que puedes usar libremente”. Como sugieren los movimientos de Meta, la IA generativa se está abriendo camino en las redes sociales. TikTok tiene un equipo de ingeniería enfocado en desarrollar grandes modelos de lenguaje que puedan reconocer y generar texto, y están contratando escritores y reporteros que puedan anotar y mejorar el rendimiento de estos modelos de IA. En la página de ayuda de Instagram se indica: “Meta puede usar [user] TikTok y Meta no respondieron a una solicitud de comentarios, pero los expertos en IA dijeron que los usuarios de las redes sociales pueden esperar ver más de esta tecnología influyendo en su experiencia, para bien o posiblemente para mal. Parte de la razón por la que las aplicaciones de redes sociales están invirtiendo en IA es que quieren volverse «más pegajosas» para los consumidores, dijo Ethan Mollick, profesor de la Escuela Wharton de la Universidad de Pensilvania, que enseña emprendimiento e innovación. Aplicaciones como Instagram intentan mantener a los usuarios en sus plataformas durante el mayor tiempo posible porque la atención cautiva genera ingresos por publicidad, dijo. En la llamada de ganancias del primer trimestre de Meta, Zuckerberg dijo que la compañía tardaría algún tiempo en obtener ganancias de sus inversiones en el chatbot y otros usos de la IA, pero ya ha visto que la tecnología influye en las experiencias de los usuarios en sus plataformas. «En este momento, aproximadamente el 30% de las publicaciones en el feed de Facebook son entregadas por nuestro sistema de recomendación de IA», dijo Zuckerberg, refiriéndose a la tecnología detrás de escena que da forma a lo que ven los usuarios de Facebook. “Y por primera vez, más del 50% del contenido que la gente ve en Instagram ahora es recomendado por IA”. En el futuro, la IA no solo personalizará las experiencias de los usuarios, dijo Jaime Sevilla, quien dirige Epoch, un instituto de investigación que estudia las tendencias de la tecnología de IA. En otoño de 2022, millones de usuarios quedaron cautivados por las capacidades de IA de Lensa, ya que generó retratos extravagantes a partir de selfies. Esperen ver más de esto, dijo Sevilla. “Creo que terminarán viendo personas completamente generadas por IA que publican música y cosas generadas por IA”, dijo. “Podríamos vivir en un mundo donde el papel que desempeñan los humanos en las redes sociales es una pequeña parte de todo”. Mollick, autor del libro “Co-intelligence: Living and Working with AI”, dijo que estos chatbots ya están produciendo algo de lo que la gente lee en línea. “La IA está impulsando cada vez más la comunicación en línea”, dijo.[But] Sevilla dijo que la IA generativa probablemente no suplantará a la plaza pública digital creada por las redes sociales. La gente anhela la autenticidad de sus interacciones con amigos y familiares en línea, dijo, y las empresas de redes sociales deben preservar un equilibrio entre eso y el contenido generado por IA y la publicidad dirigida. Aunque la IA puede ayudar a los consumidores a encontrar productos más útiles en la vida diaria, también hay un lado oscuro del atractivo de la tecnología que puede tambalearse hacia la coerción, dijo Sevilla. «Los sistemas van a ser bastante buenos en la persuasión», dijo. Un estudio recién publicado por investigadores de IA en el Instituto Federal Suizo de Tecnología de Lausana encontró que GPT-4 era un 81,7% más eficaz que un humano para convencer a alguien en un debate para que estuviera de acuerdo. Si bien el estudio aún no ha sido revisado por pares, Sevilla dijo que los hallazgos eran preocupantes. «Eso es preocupante». [AI] “Podríamos ampliar significativamente la capacidad de los estafadores para interactuar con muchas víctimas y perpetrar cada vez más fraudes”, añadió. Sevilla dijo que los responsables políticos deberían ser conscientes de los peligros de la IA en la difusión de información errónea, mientras Estados Unidos se encamina hacia otra temporada electoral políticamente cargada este otoño. Otros expertos advierten de que no se trata de si la IA podría desempeñar un papel en la influencia de los sistemas democráticos en todo el mundo, sino de cómo. Bindu Reddy, CEO y cofundador de Abacus.AI, dijo que la solución es un poco más matizada que prohibir la IA en nuestras plataformas de redes sociales: los malos actores estaban difundiendo odio y desinformación en línea mucho antes de que la IA entrara en la ecuación. Por ejemplo, los defensores de los derechos humanos criticaron a Facebook en 2017 por no filtrar el discurso de odio en línea que alimentó el genocidio rohingya en Myanmar. En la experiencia de Reddy, la IA ha sido buena para detectar cosas como el sesgo y la pornografía en las plataformas en línea. Sevilla ha estado usando IA para moderar contenido desde 2016, cuando lanzó una aplicación de red social anónima llamada Candid que se basaba en el procesamiento del lenguaje natural para detectar información errónea. Los reguladores deberían prohibir que las personas usen IA para crear deepfakes de personas reales, dijo Reddy. Pero critica leyes como las amplias restricciones de la Unión Europea al desarrollo de la IA. En su opinión, es peligroso que Estados Unidos quede atrapado detrás de países competidores, como China y Arabia Saudita, que están invirtiendo miles de millones de dólares en el desarrollo de tecnología de IA. Hasta ahora, la administración Biden ha publicado un «Plan para una Carta de Derechos de la IA» que ofrece sugerencias sobre las salvaguardas que debería tener el público, incluidas las protecciones para la privacidad de los datos y contra la discriminación algorítmica. No es ejecutable, aunque insinúa una legislación que podría venir. Sevilla reconoció que los moderadores de IA pueden ser entrenados para tener los sesgos de una empresa, lo que lleva a que se censuren algunas opiniones. Pero los moderadores humanos también han mostrado sesgos políticos. Por ejemplo, en 2021, The Times informó sobre quejas de que era difícil encontrar contenido pro palestino en Facebook e Instagram. Y los críticos conservadores acusaron a Twitter de sesgo político en 2020 porque bloqueó los enlaces a una historia del New York Post sobre el contenido de la computadora portátil de Hunter Biden. «De hecho, podemos estudiar qué tipo de sesgos [AI] “La inteligencia artificial refleja”, dijo Sevilla. Aun así, dijo, la IA podría volverse tan efectiva que podría oprimir poderosamente la libertad de expresión. “¿Qué sucede cuando todo lo que está en tu cronología se ajusta perfectamente a las pautas de la empresa?”, preguntó Sevilla. “¿Es ese el tipo de redes sociales que quieres consumir?”