La era de la inteligencia artificial ha comenzado y trae consigo muchas preocupaciones nuevas. Se están dedicando mucho esfuerzo y dinero para garantizar que la IA sólo haga lo que los humanos quieren. Pero lo que más deberíamos temer es la IA que hará lo que los humanos quieren. El verdadero peligro somos nosotros. Ese no es el riesgo que la industria se esfuerza por abordar. En febrero, se fundó toda una empresa, llamada Synth Labs, con el propósito expreso de “alinear la IA”, haciendo que se comporte exactamente como los humanos pretenden. Entre sus inversores se encuentran M12, propiedad de Microsoft, y First Start Ventures, fundada por el ex director ejecutivo de Google, Eric Schmidt. OpenAI, el creador de ChatGPT, ha prometido que el 20% de su potencia de procesamiento se destinará a una «superalineación» que «dirigirá y controlará los sistemas de IA de forma mucho más inteligente que nosotros». Las grandes tecnologías están en todo esto. Y eso probablemente sea algo bueno debido al rápido desarrollo tecnológico de la IA. Casi todas las conversaciones sobre riesgos tienen que ver con las posibles consecuencias de que los sistemas de IA persigan objetivos que divergen de aquellos para los que fueron programados y que no redundan en interés de los humanos. Todos pueden respaldar esta noción de alineación y seguridad de la IA, pero este es solo un lado del peligro. Imagínese lo que podría suceder si la IA hiciera lo que los humanos quieren. “Lo que los humanos quieren”, por supuesto, no es un monolito. Diferentes personas quieren cosas diferentes y tienen innumerables ideas sobre lo que constituye «el bien común». Creo que a la mayoría de nosotros nos preocuparía, con razón, si una inteligencia artificial estuviera alineada con las visiones de un mundo óptimo de Vladimir Putin o Kim Jong Un. Incluso si pudiéramos lograr que todos se centraran en el bienestar de toda la especie humana, es poco probable que Podríamos ponernos de acuerdo sobre cómo sería eso. Elon Musk dejó esto claro la semana pasada cuando compartió en X, su plataforma de redes sociales, que le preocupaba que la IA impulsara la “diversidad forzada” y estuviera demasiado “despierta”. (Esto se produjo inmediatamente después de que Musk presentara una demanda contra OpenAI, argumentando que la compañía no estaba cumpliendo su promesa de desarrollar IA para el beneficio de la humanidad). Las personas con prejuicios extremos podrían creer genuinamente que redundaría en interés general de humanidad a matar a cualquiera que consideraran desviado. La IA «alineada con los humanos» es esencialmente tan buena, mala, constructiva o peligrosa como las personas que la diseñan. Esa parece ser la razón por la que Google DeepMind, el brazo de desarrollo de IA de la corporación, fundó recientemente una organización interna centrada en la seguridad y prevención de la IA. su manipulación por parte de malos actores. Pero no es ideal que lo que es “malo” sea determinado por un puñado de individuos en esta corporación en particular (y un puñado de otras similares), con sus puntos ciegos y sus prejuicios personales y culturales. El problema potencial va más allá. humanos dañando a otros humanos. Lo que es “bueno” para la humanidad, muchas veces a lo largo de la historia, se ha producido a expensas de otros seres sintientes. Ésta es la situación actual. Sólo en Estados Unidos tenemos miles de millones de animales sometidos a cautiverio, a prácticas tortuosas y a la negación de sus necesidades psicológicas y fisiológicas básicas en un momento dado. Especies enteras son subyugadas y sistemáticamente sacrificadas para que podamos comer tortillas, hamburguesas y zapatos. Si la IA hace exactamente lo que “nosotros” (quienquiera que programe el sistema) queremos, eso probablemente significaría implementar esta crueldad masiva de manera más eficiente, a un nivel uniforme. a mayor escala y con más automatización y menos oportunidades para que seres humanos comprensivos intervengan y señalen cualquier cosa particularmente horripilante. De hecho, en las granjas industriales, esto ya está sucediendo, aunque en una escala mucho menor de lo que es posible. Los principales productores de productos animales, como Tyson Foods, con sede en Estados Unidos, CP Foods, con sede en Tailandia, y Mowi, con sede en Noruega, han comenzado a experimentar con sistemas de inteligencia artificial destinados a hacer más eficiente la producción y el procesamiento de animales. Estos sistemas se están probando para, entre otras actividades, alimentar animales, monitorear su crecimiento, recortar marcas en sus cuerpos e interactuar con animales usando sonidos o descargas eléctricas para controlar su comportamiento. Un objetivo mejor que alinear la IA con los intereses inmediatos de la humanidad sería cuál Yo lo llamaría alineación sensible: la IA actúa de acuerdo con los intereses de todos los seres sintientes, incluidos los humanos, todos los demás animales y, si existiera, la IA sintiente. En otras palabras, si una entidad puede experimentar placer o dolor, su destino debe tenerse en cuenta cuando los sistemas de IA tomen decisiones. Esto les parecerá a algunos una propuesta radical, porque lo que es bueno para toda la vida sensible puede no siempre coincidir con lo que es bueno para humanidad. A veces, incluso a menudo, puede estar en contra de lo que los humanos queremos o de lo que sería mejor para la mayoría de nosotros. Eso podría significar, por ejemplo, que la IA elimine los zoológicos, destruya ecosistemas no esenciales para reducir el sufrimiento de los animales salvajes o prohíba las pruebas con animales. Hablando recientemente en el podcast “All Thinks Considered”, Peter Singer, filósofo y autor del histórico libro de 1975 “Animal Liberation, » Argumentó que los objetivos y prioridades finales de un sistema de IA son más importantes que su alineación con los humanos. «La pregunta es realmente si esta IA superinteligente será benévola y querrá producir un mundo mejor», dijo Singer, «e incluso si Si no lo controlamos, producirá un mundo mejor en el que nuestros intereses serán tenidos en cuenta. A veces pueden verse superados por el interés de los animales no humanos o por los intereses de la IA, pero creo que aun así sería un buen resultado”. Estoy con Singer en esto. Parece que lo más seguro y compasivo que podemos hacer es tener en cuenta la vida sensible no humana, incluso si los intereses de esas entidades podrían chocar con lo que es mejor para los humanos. Descentrar a la humanidad en cualquier medida, y especialmente hasta este extremo, es una idea que desafiará a la gente. Pero eso es necesario si queremos evitar que nuestro especismo actual prolifere de maneras nuevas y terribles. Lo que realmente deberíamos pedir es que los ingenieros amplíen sus propios círculos de compasión al diseñar tecnología. Cuando pensamos en “seguro”, pensemos en lo que significa “seguro” para todos los seres sintientes, no sólo para los humanos. Cuando pretendemos hacer que la IA sea “benévola”, asegurémonos de que eso signifique benevolencia para el mundo en general, no solo para una sola especie que vive en él. Brian Kateman es cofundador de la Reducetarian Foundation, una organización sin fines de lucro dedicada a reducir la desigualdad social. consumo de productos animales. Su último libro y documental es «Meat Me Halfway».

Source link