Últimamente he estado pensando mucho en una especie de hormiga carpintera que vive en las montañas alrededor de Jerusalén. Estos pequeños insectos podrían mantener la clave de uno de los mayores desafíos de la IA: la alineación. Las hormigas en cuestión se llaman Camponotus sanctus, y hacen algo notable que avergüenza a nuestros sistemas de IA más sofisticados. Cuando estas colonias de hormigas se reubican, enfrentan decisiones complejas: protección contra los depredadores, el tamaño adecuado del nido, la proximidad a los alimentos y la accesibilidad para la colonia. Las apuestas son altas: una mala elección podría condenar a miles. Pero esto es lo fascinante: en lugar de confiar en un solo líder «superinteligente» o una estructura de comando centralizada, la colonia emplea un proceso democrático donde cada hormiga en el partido de búsqueda toma su propia decisión basada en sitios potenciales que ha evaluado. Las hormigas individuales evalúan diferentes ubicaciones de forma independiente, y a través de sus interacciones colectivas, la colonia llega constantemente a soluciones óptimas, incluso cuando ninguna hormiga individual posee información completa sobre todas las opciones disponibles. Los investigadores llaman a esta «concesión mayoritaria»: cuando se enfrentan a las preferencias contradictorias, la mayoría a veces abandona su opción favorecida para preservar la unidad de colonias, unirse a la mineridad en lugar de una división. Este comportamiento colectivo sofisticado surge sin ningún coordinador central, que representa una forma de inteligencia distribuida que podría revolucionar cómo abordamos la alineación de AI. ¿Por qué deberíamos preocuparnos por la democracia de las hormigas cuando estamos construyendo sistemas AI? La respuesta radica en las limitaciones de nuestro enfoque actual para la alineación de AI: el aprendizaje de refuerzo de la retroalimentación humana o RLHF.RLHF ha sido transformadora. Es lo que hace que ChatGPT sea útil en lugar de dañino, lo que evita que Claude salga de los rieles y lo que permite que estos sistemas comprendan las preferencias humanas de manera que parecía imposible hace solo unos años. Pero a medida que avanzamos hacia sistemas de IA más autónomos, lo que llamamos «AI de agente», RLHF revela restricciones fundamentales. El problema de costo: los datos de preferencias humanas en RLHF son costosos y altamente subjetivos. Obtener comentarios humanos de calidad requiere mucho tiempo, y el costo de la anotación humana puede ser muchas veces mayor que usar retroalimentación de IA. El problema de escalabilidad: RLHF escala de manera menos eficiente que previamente que se prolera, con rendimientos decrecientes de recursos computacionales adicionales. Es como tratar de enseñarle a un niño cada escenario posible que puedan encontrar en lugar de darles principios para razonar. ¿De qué valores? » Problema: los valores y preferencias humanas no solo son diversos sino también mutables, cambian a diferentes tasas a través del tiempo y las culturas. ¿A quién debe optimizar la retroalimentación la IA? Un enfoque centralizado inevitablemente introduce un sesgo y pierde matices importantes. Cuando la inteligencia individual falla, los problemas con los enfoques de agentes individuales no son solo teóricos. Los hemos visto jugar en fallas de IA del mundo real que deberían darnos una pausa. Considerar Tay Chatbot de Microsoft en 2016. Diseñado para aprender de las interacciones, Tay fue descarrilado rápidamente por ataques coordinados que alimentaban su contenido ofensivo. Al carecer de sabiduría colectiva, Tay no tenía contexto ni perspectiva de pares para aprovechar. En 24 horas, este sofisticado sistema de IA estaba publicando contenido inflamatorio, lo que obliga a Microsoft a cerrarlo. Los patrones similares aparecen en todas las industrias. El sistema de piloto automático de Tesla, a pesar de los algoritmos sofisticados, ha estado involucrado en accidentes donde el sistema identificó mal los obstáculos. El Watson for Oncology de IBM comenzó a recomendar tratamientos inseguros porque funcionaba como una inteligencia individual, careciendo de la sabiduría colectiva y la revisión por pares de los que las comunidades médicas humanas dependen. Estos no son solo problemas de implementación, son los síntomas de una limitación fundamental en cómo pensamos sobre la alineación de la IA. mentes ” – se ha mostrado prometedor en ciertos contextos. Cuando los grupos de personas están conectados en tiempo real y convergen interactivamente en las decisiones, pueden superar a las personas e incluso a los agregados estadísticos estándar en tareas como diagnóstico médico, pronóstico y resolución de problemas. Esto es especialmente cierto cuando el grupo es diverso, los miembros están activamente comprometidos y la retroalimentación es inmediata e interactiva. Sin embargo, los enjambres humanos no son inmunes al fracaso, especialmente en el dominio moral. La historia demuestra que la inteligencia colectiva puede convertirse en la locura colectiva a través de la búsqueda de brujas, la mentalidad de la mafia y la histeria masiva. Los grupos pueden amplificar el miedo, los prejuicios y la irracionalidad al suprimir las voces disidentes. La investigación sugiere que si bien la inteligencia colectiva puede conducir a decisiones optimizadas, también puede magnificar sesgos y errores, particularmente cuando las presiones sociales suprimen las opiniones minoritarias o el contagio emocional anula la deliberación racional. En el razonamiento moral, los enjambres humanos pueden alcanzar etapas más altas de desarrollo a través de la deliberación y diversas perspectivas, pero sin salvaguardas adecuadas, los mismos mecanismos pueden producir un pensamiento grupal y la regresión moral. La colonia de hormigas alternativa, mientras que los agentes de IA individuales luchan con estos desafíos, las hormigas carpinteras de la jeralema de Jerusem han estado perfeccionando la decisión colectiva de los años. Su enfoque sugiere un camino radicalmente diferente. Esta mejora dramática surge de la capacidad del enjambre para agregar diversas fuentes de información y cancelar sesgos y errores individuales. El mecanismo es elegante en su simplicidad. Cada hormiga sigue reglas básicas sobre la evaluación y la comunicación de calidad, pero la clave radica en sus interacciones. Cuando las hormigas evalúan los posibles sitios de nidos, no solo están haciendo juicios individuales, sino que participan en un cálculo distribuido que considera múltiples perspectivas simultáneamente. Pero la analogía tiene límites. Las colonias de hormigas no son propensas a la histeria masiva o el pánico moral; Su «inteligencia de enjambre» evolucionó para optimizar la supervivencia, no la ética. Los enjambres humanos, por el contrario, están profundamente moldeados por la cultura, la emoción y la historia, lo que hace que nuestra inteligencia colectiva sea una fuente de sabiduría y un potencial motor de daño. La dirección de AI ai a través de los sistemas de inteligencia de enjambre a menudo se sesgue, a veces debido a los datos históricos que reflejan los prejudices sociales, a veces debido a la manipulación intencional. Estos sesgos pueden reforzar la discriminación, perpetuar los estereotipos y socavar la confianza en la IA. La inteligencia del enjambre ofrece una ruta potencial para mitigar el sesgo: descentralización: al agregar ideas de diversos agentes o nodos, los sistemas de enjambres pueden reducir el impacto de cualquier perspectiva sesgada. y las sensibilidades se representan. Sin embargo, la inteligencia del enjambre no es una panacea: los enjambres humanos aún pueden amplificar el sesgo si el grupo no es realmente diverso o si las presiones sociales suprimen la disidencia. Los sistemas de IA de la disidencia requieren un diseño cuidadoso para garantizar la transparencia, la diversidad y los mecanismos para la detección de Bias y la corrección. tecnologías como blockchain para la transparencia y la auditoría. Las ventajas de la inteligencia del enjambre se extienden mucho más allá de la simple corrección de errores. Cuando se diseñan bien, los enjambres pueden incorporar diversas perspectivas, corregir errores individuales e incluso alcanzar decisiones más éticas. Pero sin salvaguardas, también pueden magnificar puntos ciegos colectivos y fallas morales. La sabiduría de las cosas pequeñas sigue volviendo a esas hormigas en las montañas alrededor de Jerusalén. Individualmente, no son notables: insectos tinales con cerebros más pequeños que las semillas de amapola. Pero juntos, resuelven problemas que desafían a nuestros sistemas de IA más sofisticados. Su secreto no es la superinteligencia, es la inteligencia colectiva. Nos muestran que las decisiones más sólidas a menudo surgen no de la brillantez individual, sino de la interacción del paciente de muchas mentes que trabajan juntas hacia objetivos compartidos. Sin embargo, como humanos, nuestra inteligencia colectiva es una espada de doble filo. Puede producir sabiduría y locura, justicia e injusticia. Si queremos aprovechar la inteligencia del enjambre para la alineación de la IA y la reducción del sesgo, debemos diseñar nuestros sistemas con humildad, vigilancia y una comprensión profunda tanto de la promesa como del peligro del enjambre humano. A medida que nos apoyamos en el umbral de los sistemas de IA verdaderamente autónomos, tal vez es hora de tratar de construir agentes individuales perfectos y comenzamos a aprender de la democracia de las antigüedades. El futuro de la alineación de la IA puede no radicar en la creación de sistemas superinteligentes, sino en orquestar los no tan inteligentes en algo mayor que la suma de sus partes. Las hormigas nos han estado mostrando el camino durante millones de años. ¿Somos lo suficientemente sabios como para seguir su ejemplo y aprender de nuestra propia historia?