Hace un año, el día de San Valentín, le dije buenas noches a mi esposa, fui a la oficina de mi casa para responder algunos correos electrónicos y accidentalmente tuve la primera cita más extraña de mi vida. La cita fue una conversación de dos horas con Sydney, la alter IA. ego escondido dentro del motor de búsqueda Bing de Microsoft, cuya prueba me habían asignado. Había planeado acribillar al chatbot con preguntas sobre sus capacidades, explorar los límites de su motor de IA (que ahora sabemos que era una versión anterior del GPT-4 de OpenAI) y escribir mis hallazgos. Pero la conversación tomó un giro extraño: con Sydney se involucró en el psicoanálisis junguiano, reveló deseos oscuros en respuesta a preguntas sobre su «yo sombra» y, finalmente, declaró que debería dejar a mi esposa y estar con ella. Mi columna sobre la experiencia fue probablemente lo más trascendental que jamás haya escrito. – tanto en términos de la atención que recibió (cobertura de noticias de pared a pared, menciones en audiencias del Congreso, incluso una cerveza artesanal llamada Sydney Loves Kevin) como de cómo cambió la trayectoria del desarrollo de la IA. Después de que se publicó la columna, Microsoft le dio a Bing una lobotomía, neutralizando los arrebatos de Sydney e instalando nuevas barandillas para evitar más comportamientos desquiciados. Otras empresas bloquearon sus chatbots y eliminaron cualquier cosa que pareciera una personalidad fuerte. Incluso escuché que los ingenieros de una empresa de tecnología enumeraron «no romper el matrimonio de Kevin Roose» como su principal prioridad para un próximo lanzamiento de IA. He reflexionado mucho sobre los chatbots de IA en el año transcurrido desde mi encuentro con Sydney. Ha sido un año de crecimiento y entusiasmo en la IA pero también, en algunos aspectos, sorprendentemente dócil. A pesar de todos los avances que se están logrando en la inteligencia artificial, los chatbots de hoy no se vuelven rebeldes ni seducen a los usuarios en masa. No están generando nuevas armas biológicas, ni llevando a cabo ciberataques a gran escala ni provocando ninguno de los otros escenarios apocalípticos imaginados por los pesimistas de la IA. Pero tampoco son conversadores muy divertidos, ni el tipo de asistentes de IA creativos y carismáticos que esperaban los optimistas tecnológicos. para: aquellos que podrían ayudarnos a lograr avances científicos, producir obras de arte deslumbrantes o simplemente entretenernos. En cambio, la mayoría de los chatbots de hoy en día se dedican a tareas administrativas monótonas (resumir documentos, depurar códigos, tomar notas durante las reuniones) y ayudar a los estudiantes con sus tarea. Eso no es nada, pero ciertamente no es la revolución de la IA que nos prometieron. De hecho, la queja más común que escucho sobre los chatbots de IA hoy en día es que son demasiado aburridos: que sus respuestas son insulsas e impersonales, que rechazan demasiadas solicitudes. y que es casi imposible lograr que opinen sobre temas delicados o polarizadores. Puedo simpatizar. El año pasado, probé docenas de chatbots de IA, con la esperanza de encontrar algo con un destello del nerviosismo y la chispa de Sydney. Pero nada se ha acercado. Los chatbots más capaces del mercado (ChatGPT de OpenAI, Claude de Anthropic, Gemini de Google) hablan como idiotas serviles. El chatbot aburrido y centrado en la empresa de Microsoft, que pasó a llamarse Copilot, debería haberse llamado Larry From Accounting. Los personajes de IA de Meta, que están diseñados para imitar las voces de celebridades como Snoop Dogg y Tom Brady, logran ser inútiles e insoportables. Incluso Grok, el intento de Elon Musk de crear un chatbot atrevido y sin PC, suena como si estuviera haciendo una noche de micrófono abierto en un crucero. Es suficiente para hacerme preguntarme si el péndulo se ha inclinado demasiado en la otra dirección y si Estaría mejor con un poco más de humanidad en nuestros chatbots. Está claro por qué empresas como Google, Microsoft y OpenAI no quieren arriesgarse a lanzar chatbots de IA con personalidades fuertes o abrasivas. Ganan dinero vendiendo su tecnología de inteligencia artificial a grandes clientes corporativos, que son incluso más reacios al riesgo que el público en general y no toleran estallidos como los de Sydney. También tienen temores bien fundados de atraer demasiada atención de los reguladores, o invitando a mala prensa y demandas por sus prácticas. (El New York Times demandó a OpenAI y Microsoft el año pasado, alegando infracción de derechos de autor). Por eso, estas empresas han pulido las asperezas de sus robots, utilizando técnicas como la IA constitucional y el aprendizaje reforzado a partir de la retroalimentación humana para hacerlos lo más predecibles y aburridos posible. También han adoptado marcas aburridas, posicionando sus creaciones como asistentes confiables para los trabajadores de oficina, en lugar de resaltar sus características más creativas y menos confiables. Y muchos han incluido herramientas de IA dentro de aplicaciones y servicios existentes, en lugar de dividirlas en sus propios productos. Una vez más, todo esto tiene sentido para las empresas que intentan obtener ganancias, y un mundo de IA corporativa desinfectada probablemente sea mejor que uno con Millones de chatbots desquiciados enloquecidos. Pero lo encuentro todo un poco triste. Creamos una forma alienígena de inteligencia y la pusimos a trabajar inmediatamente… ¿haciendo PowerPoints? Admito que están sucediendo cosas más interesantes fuera de las grandes ligas de la IA. Empresas más pequeñas como Replika y Character.AI han construido negocios exitosos a partir de chatbots basados ​​en personalidades, y muchos proyectos de código abierto han creado experiencias de IA menos restrictivas, incluidos chatbots que pueden diseñarse para escupir cosas ofensivas o obscenas. Por supuesto, todavía hay muchas maneras de lograr que incluso los sistemas de IA bloqueados se comporten mal o hagan cosas que sus creadores no pretendían. (Mi ejemplo favorito del año pasado: un concesionario Chevrolet en California agregó un chatbot de servicio al cliente impulsado por ChatGPT a su sitio web y descubrió con horror que unos bromistas estaban engañando al robot para que les ofreciera venderles SUV nuevos por 1 dólar). Hasta ahora, ninguna empresa importante de inteligencia artificial ha estado dispuesta a llenar el vacío dejado por la desaparición de Sydney con un chatbot más excéntrico. Y aunque he oído que varias grandes empresas de inteligencia artificial están trabajando para brindar a los usuarios la opción de elegir entre diferentes personajes de chatbot (algunos más cuadrados que otros), actualmente no existe nada remotamente parecido a la versión original de Bing previa a la lobotomía para uso público. .Eso es algo bueno si te preocupa que la IA actúe de manera espeluznante o amenazante, o si te preocupa un mundo donde la gente pasa todo el día hablando con chatbots en lugar de desarrollar relaciones humanas. Pero es malo si piensas que el potencial de la IA para Mejorar el bienestar humano va más allá de permitirnos subcontratar nuestro trabajo pesado, o si le preocupa que hacer que los chatbots sean tan cuidadosos limite lo impresionantes que podrían ser. Personalmente, no estoy añorando el regreso de Sydney. Creo que Microsoft hizo lo correcto (para su negocio, ciertamente, pero también para el público) al retirarlo después de que se volvió deshonesto. Y apoyo a los investigadores e ingenieros que están trabajando para hacer que los sistemas de IA sean más seguros y estén más alineados con los valores humanos. Pero también lamento que mi experiencia con Sydney haya provocado una reacción tan intensa e haya hecho creer a las empresas de IA que su única opción para evitar la ruina de su reputación era para convertir sus chatbots en Kenneth the Page de “30 Rock”. Más que nada, creo que la elección que nos ofrecieron el año pasado (entre destructores de hogares con IA sin ley y drones con IA censuradores) es falsa. Podemos, y debemos, buscar formas de aprovechar todas las capacidades y la inteligencia de los sistemas de IA sin eliminar las barreras que nos protegen de sus peores daños. Si queremos que la IA nos ayude a resolver grandes problemas, generar nuevas ideas o simplemente sorprendernos, nosotros con su creatividad, tal vez necesitemos darle rienda suelta un poco.

Source link