Todo lo que necesitas saber sobre tecnología

Etiqueta: sistema de inteligencia artificial

El proyecto de ley de California para regular la IA: ¿protegerá a los consumidores o destripará la tecnología?

El proyecto de ley de California para regular la IA: ¿protegerá a los consumidores o destripará la tecnología?

8 de agosto de 2024 3 AM PT California es un líder mundial en inteligencia artificial, lo que significa que se espera que ayudemos a descubrir cómo regularla. El estado está considerando múltiples proyectos de ley con esos fines, ninguno atrayendo más atención que el Proyecto de Ley Senatorial 1047. La medida, presentada por el senador Scott Wiener (D-San Francisco), requeriría que las empresas que produzcan los modelos de IA más grandes prueben y modifiquen esos modelos para evitar facilitar daños graves. ¿Es este un paso necesario para mantener la IA responsable, o una extralimitación? Simon Last, cofundador de una empresa impulsada por IA, y Paul Lekas, director de políticas públicas de la Asociación de la Industria del Software y la Información, dieron sus perspectivas. Este proyecto de ley ayudará a mantener la tecnología segura sin dañar la innovación Por Simon Last Como cofundador de una empresa impulsada por IA, he sido testigo del asombroso avance de la inteligencia artificial. Todos los días, diseño productos que utilizan IA, y está claro que estos sistemas se volverán más poderosos en los próximos años. Veremos un gran progreso en la creatividad y la productividad, junto con avances en la ciencia y la medicina. Sin embargo, a medida que los sistemas de IA se vuelven más sofisticados, debemos tener en cuenta sus riesgos. Sin precauciones razonables, la IA podría causar daños graves a una escala sin precedentes: ciberataques a infraestructura crítica, el desarrollo de armas químicas, nucleares o biológicas, delitos automatizados y más. La SB 1047 de California logra un equilibrio entre la protección de la seguridad pública de tales daños y el apoyo a la innovación, centrándose en los requisitos de seguridad de sentido común para las pocas empresas que desarrollan los sistemas de IA más potentes. Incluye protecciones para los denunciantes que informen sobre problemas de seguridad en las empresas de IA y, lo que es más importante, el proyecto de ley está diseñado para apoyar el increíble ecosistema de empresas emergentes de California. La SB 1047 solo afectaría a las empresas que construyen la próxima generación de sistemas de IA que cuestan más de 100 millones de dólares para capacitar. Basado en las mejores prácticas de la industria, el proyecto de ley exige pruebas de seguridad y la mitigación de los riesgos previstos antes del lanzamiento de estos sistemas, así como la capacidad de apagarlos en caso de emergencia. En los casos en que la IA cause muchas víctimas o al menos 500 millones de dólares en daños, el fiscal general del estado puede demandar para responsabilizar a las empresas. Estas normas de seguridad se aplicarían a los «modelos básicos» de IA sobre los que las empresas emergentes construyen productos especializados. A través de este enfoque, podemos mitigar de manera más eficaz los riesgos en toda la industria sin sobrecargar a los desarrolladores a pequeña escala. Como fundador de una empresa emergente, confío en que el proyecto de ley no impedirá nuestra capacidad de construir y crecer. Algunos críticos sostienen que la regulación debería centrarse únicamente en los usos nocivos de la IA en lugar de la tecnología subyacente. Pero esta visión es errónea porque ya es ilegal, por ejemplo, realizar ciberataques o utilizar armas biológicas. La SB 1047 proporciona lo que falta: una forma de prevenir el daño antes de que ocurra. Las pruebas de seguridad de los productos son estándar para muchas industrias, incluidos los fabricantes de automóviles, aviones y medicamentos recetados. Los constructores de los sistemas de IA más grandes deberían estar sujetos a un estándar similar. Otros afirman que la legislación expulsaría a las empresas del estado. Eso es absurdo. La oferta de talento y capital en California es casi nula, y la SB 1047 no cambiará esos factores que atraen a las empresas a operar aquí. Además, el proyecto de ley se aplica a los desarrolladores de modelos de fundación que hacen negocios en California, independientemente de dónde tengan su sede. Los líderes tecnológicos, incluidos Mark Zuckerberg de Meta y Sam Altman de OpenAI, han ido al Congreso para discutir la regulación de la IA, advertir sobre los efectos potencialmente catastróficos de la tecnología e incluso solicitar la regulación. Pero las expectativas de acción del Congreso son bajas. Con 32 de las 50 principales empresas de IA de Forbes con sede en California, nuestro estado tiene gran parte de la responsabilidad de ayudar a que la industria prospere. La SB 1047 proporciona un marco para que las empresas más jóvenes prosperen junto con actores más grandes, al tiempo que priorizan la seguridad pública. Si ahora se toman decisiones políticas inteligentes, los legisladores estatales y el gobernador Gavin Newsom podrían consolidar la posición de California como líder mundial en el progreso responsable de la IA. Simon Last es cofundador de Notion, con sede en San Francisco. Estos estándares casi imposibles harían que California perdiera su ventaja en materia de IA Por Paul Lekas ​​California es la cuna de la innovación estadounidense. A lo largo de los años, muchas empresas de información y tecnología, incluidas las que representa mi asociación, han cumplido con los californianos creando nuevos productos para los consumidores, mejorando los servicios públicos e impulsando la economía. Desafortunadamente, la legislación que se está abriendo camino a través de la Legislatura de California amenaza con socavar a los innovadores más brillantes y apuntar a los modelos de IA de vanguardia o altamente avanzados. El proyecto de ley va mucho más allá del enfoque declarado de abordar las preocupaciones reales sobre la seguridad de estos modelos y, al mismo tiempo, garantizar que California obtenga los beneficios de esta tecnología. En lugar de apuntar a daños previsibles, como el uso de la IA para la vigilancia predictiva basada en datos históricos sesgados, o responsabilizar a quienes utilizan la IA con fines nefastos, la SB 1047 en última instancia prohibiría a los desarrolladores publicar modelos de IA que puedan adaptarse para abordar las necesidades de los consumidores y las empresas de California. La SB 1047 haría esto al obligar a quienes están a la vanguardia de las nuevas tecnologías de IA a anticipar y mitigar todas las formas posibles en que sus modelos podrían ser mal utilizados y a prevenir ese mal uso. Esto simplemente no es posible, en particular porque no existen estándares técnicos universalmente aceptados para medir y mitigar el riesgo del modelo de frontera. Si la SB 1047 se convirtiera en ley, los consumidores de California perderían el acceso a las herramientas de IA que consideran útiles. Eso es como detener la producción de un medicamento recetado porque alguien lo tomó ilegalmente o tuvo una sobredosis. También perderían el acceso a las herramientas de IA diseñadas para proteger a los californianos de la actividad maliciosa habilitada por otra IA. Para ser claros, las preocupaciones con la SB 1047 no reflejan una creencia de que la IA debería proliferar sin una supervisión significativa. Existe un consenso bipartidista en cuanto a que necesitamos barreras de protección en torno a la IA para reducir el riesgo de un uso indebido y abordar los daños previsibles a la salud y la seguridad públicas, los derechos civiles y otras áreas. Los estados han liderado el camino al promulgar leyes para desincentivar el uso de la IA con fines maliciosos. Indiana, Minnesota, Texas, Washington y California, por ejemplo, han promulgado leyes para prohibir la creación de deepfakes que muestren imágenes íntimas de personas identificables y para restringir el uso de la IA en la publicidad electoral. El Congreso también está considerando barreras de protección para proteger las elecciones, la privacidad, la seguridad nacional y otras preocupaciones, manteniendo al mismo tiempo la ventaja tecnológica de Estados Unidos. De hecho, la supervisión se manejaría mejor de manera coordinada a nivel federal, como se está haciendo a través del Instituto de Seguridad de la IA lanzado en el Instituto Nacional de Estándares y Tecnología, sin el espectro de la responsabilidad civil y penal. Este enfoque reconoce que la seguridad del modelo de frontera requiere recursos masivos que ningún estado, ni siquiera California, puede reunir. Por lo tanto, aunque es esencial que los líderes electos tomen medidas para proteger a los consumidores, la SB 1047 va demasiado lejos. Obligaría a las empresas emergentes y establecidas a sopesar estándares de cumplimiento casi imposibles frente al valor de hacer negocios en otros lugares. California podría perder su ventaja en innovación en IA. Y los desarrolladores de IA fuera de los EE. UU. que no estén sujetos a los mismos principios de transparencia y rendición de cuentas verían fortalecida su posición, poniendo inevitablemente en riesgo la privacidad y la seguridad de los consumidores estadounidenses. Paul Lekas ​​es el director de política pública global y asuntos gubernamentales de la Asociación de la Industria de Software e Información en Washington.

Los legisladores de California intentan adelantarse a la IA

Los legisladores de California intentan adelantarse a la IA

Durante cuatro años, Jacob Hilton trabajó para una de las nuevas empresas más influyentes del Área de la Bahía: OpenAI. Su investigación ayudó a probar y mejorar la veracidad de modelos de IA como ChatGPT. Cree que la inteligencia artificial puede beneficiar a la sociedad, pero también reconoce los graves riesgos que corre si no se controla la tecnología. Hilton estuvo entre los 13 empleados actuales y anteriores de OpenAI y Google que firmaron este mes una carta abierta que pedía más protección para los denunciantes, citando acuerdos amplios de confidencialidad como problemáticos. «La situación básica es que los empleados, las personas más cercanas a la tecnología, también son los que tienen más que perder si sufren represalias por hablar», dice Hilton, de 33 años, ahora investigador en la organización sin fines de lucro Alignment Research Center. que vive en Berkeley. Los legisladores de California se están apresurando a abordar estas preocupaciones a través de aproximadamente 50 proyectos de ley relacionados con la IA, muchos de los cuales tienen como objetivo establecer salvaguardias en torno a esta tecnología en rápida evolución, que según los legisladores podría causar daños a la sociedad. Sin embargo, grupos que representan a las grandes empresas de tecnología argumentan que la legislación propuesta podría sofocar la innovación y la creatividad, haciendo que California pierda su ventaja competitiva y cambiando drásticamente la forma en que se desarrolla la IA en el estado. Los efectos de la inteligencia artificial en el empleo, la sociedad y la cultura son de gran alcance, y eso se refleja en la cantidad de proyectos de ley que circulan en la Legislatura. Cubren una variedad de temores relacionados con la IA, incluida la sustitución de empleos, la seguridad de los datos y la discriminación racial. Un proyecto de ley, copatrocinado por los Teamsters, tiene como objetivo exigir la supervisión humana de los camiones pesados ​​sin conductor. Un proyecto de ley respaldado por el Sindicato Internacional de Empleados de Servicios intenta prohibir la automatización o la sustitución de puestos de trabajo por sistemas de inteligencia artificial en los centros de llamadas que brindan servicios de beneficios públicos, como Medi-Cal. Otro proyecto de ley, redactado por el senador Scott Wiener (demócrata por San Francisco), exigiría que las empresas que desarrollen grandes modelos de IA realicen pruebas de seguridad. La gran cantidad de proyectos de ley se produjo después de que los políticos fueran criticados por no tomar medidas enérgicas lo suficientemente duras contra las empresas de redes sociales hasta que fue demasiado tarde. Durante la administración Biden, los demócratas federales y estatales se han vuelto más agresivos a la hora de perseguir a las grandes empresas tecnológicas. «Hemos visto con otras tecnologías que no hacemos nada hasta mucho después de que surge un gran problema», dijo Wiener. “Las redes sociales han aportado muchas cosas buenas a la sociedad… pero sabemos que han tenido importantes desventajas y no hicimos nada para reducir o mitigar esos daños. Y ahora estamos tratando de ponernos al día. Prefiero no ponerme al día”. El impulso se produce cuando las herramientas de inteligencia artificial avanzan rápidamente. Leen cuentos a los niños antes de dormir, clasifican los pedidos desde el auto en lugares de comida rápida y ayudan a hacer videos musicales. Mientras que algunos entusiastas de la tecnología se entusiasman con los beneficios potenciales de la IA, otros temen la pérdida de empleos y los problemas de seguridad. “Tomó a casi todo el mundo por sorpresa, incluidos muchos de los expertos, por la rapidez con la que [the tech is] progresando”, dijo Dan Hendrycks, director del Centro para la Seguridad de la IA, una organización sin fines de lucro con sede en San Francisco. «Si simplemente nos demoramos y no hacemos nada durante varios años, es posible que estemos esperando hasta que sea demasiado tarde». El proyecto de ley de Wiener, SB1047, que cuenta con el respaldo del Centro para la Seguridad de la IA, exige que las empresas que construyen grandes modelos de IA realicen pruebas de seguridad y tengan la capacidad de apagar los modelos que controlan directamente. Los proponentes del proyecto de ley dicen que protegería contra situaciones como La IA se utiliza para crear armas biológicas o cortar la red eléctrica, por ejemplo. El proyecto de ley también requeriría que las empresas de inteligencia artificial implementen formas para que los empleados presenten inquietudes de forma anónima. El fiscal general del estado podría presentar una demanda para hacer cumplir las normas de seguridad. «Una tecnología muy poderosa trae beneficios y riesgos, y quiero asegurarme de que los beneficios de la IA superen ampliamente los riesgos», dijo Wiener. Quienes se oponen al proyecto de ley, incluido TechNet, un grupo comercial que cuenta entre sus miembros con empresas tecnológicas como Meta, Google y OpenAI, dicen que los responsables políticos deberían actuar con cautela. Meta y OpenAI no respondieron a una solicitud de comentarios. Google se negó a hacer comentarios. «Avanzar demasiado rápido tiene sus propias consecuencias, potencialmente sofocando y reduciendo algunos de los beneficios que pueden venir con esta tecnología», dijo Dylan Hoffman, director ejecutivo para California y el suroeste de TechNet. El proyecto de ley fue aprobado por la Asamblea de Privacidad y Consumidor. Comité de Protección el martes y luego irá al Comité Judicial de la Asamblea y al Comité de Asignaciones de la Asamblea, y si se aprueba, al pleno de la Asamblea. Los defensores del proyecto de ley de Wiener dicen que están respondiendo a los deseos del público. En una encuesta de 800 votantes potenciales en California encargada por el Centro para el Fondo de Acción para la Seguridad de la IA, el 86% de los participantes dijo que era una prioridad importante para el estado desarrollar regulaciones de seguridad de la IA. Según la encuesta, el 77% de los participantes apoyó la propuesta de someter los sistemas de IA a pruebas de seguridad.“El status quo en este momento es que, cuando se trata de seguridad, dependemos de compromisos públicos voluntarios asumidos por estas empresas, ”, dijo Hilton, el ex empleado de OpenAI. «Pero parte del problema es que no existe un buen mecanismo de rendición de cuentas». Otro proyecto de ley con implicaciones radicales para los lugares de trabajo es el AB 2930, que busca prevenir la «discriminación algorítmica», o cuando los sistemas automatizados ponen a ciertas personas en desventaja basándose en su raza, género u orientación sexual cuando se trata de contratación, remuneración y despido. “Vemos ejemplo tras ejemplo en el espacio de la IA, donde los resultados están sesgados”, dijo la asambleísta Rebecca Bauer-Kahan (demócrata por Orinda). El proyecto de ley contra la discriminación fracasó en la sesión legislativa del año pasado, con una importante oposición de las empresas de tecnología. Reintroducida este año, la medida inicialmente contó con el respaldo de las empresas tecnológicas de alto perfil Workday y Microsoft, aunque han vacilado en su apoyo, expresando preocupaciones sobre enmiendas que otorgarían más responsabilidad a las empresas que desarrollan productos de inteligencia artificial para frenar los prejuicios. “Por lo general, no hay industrias que digan: ‘Regúlenme’, pero varias comunidades no confían en la IA, y lo que este esfuerzo intenta hacer es generar confianza en estos sistemas de IA, lo que creo que es realmente beneficioso para la industria. «, Dijo Bauer-Kahan. Algunos defensores de la privacidad laboral y de datos temen que el lenguaje en la legislación antidiscriminatoria propuesta sea demasiado débil. Los opositores dicen que es demasiado amplio. Chandler Morse, jefe de políticas públicas de Workday, dijo que la compañía apoya la AB 2930 tal como se presentó. «Actualmente estamos evaluando nuestra posición sobre las nuevas enmiendas», dijo Morse. Microsoft declinó hacer comentarios. La amenaza de la IA también es un grito de guerra para los sindicatos de Hollywood. El Writers Guild of America y el Screen Actors Guild-American Federation of Television and Radio Artists negociaron protecciones de IA para sus miembros durante las huelgas del año pasado, pero los riesgos de la tecnología van más allá del alcance de los contratos sindicales, dijo el director ejecutivo nacional del gremio de actores, Duncan. Crabtree-Irlanda. «Necesitamos que las políticas públicas se pongan al día y comiencen a implementar estas normas para que haya menos ambiente del Lejano Oeste con la IA», dijo Crabtree-Ireland. SAG-AFTRA ha ayudado a redactar tres proyectos de ley federales relacionados con deepfakes (imágenes y videos engañosos que a menudo involucran imágenes de celebridades), junto con dos medidas en California, incluida la AB 2602, que fortalecería el control de los trabajadores sobre el uso de su imagen digital. La legislación, si se aprueba, requeriría que los trabajadores estén representados por su sindicato o asesor legal para que los acuerdos que involucren imágenes generadas por IA sean legalmente vinculantes. Las empresas tecnológicas instan a tener precaución contra la regulación excesiva. Todd O’Boyle, del grupo de la industria tecnológica Chamber of Progress, dijo que las empresas de IA de California podrían optar por trasladarse a otra parte si la supervisión gubernamental se vuelve excesiva. Es importante que los legisladores «no permitan que los temores de daños especulativos impulsen la formulación de políticas cuando tenemos esta innovación tecnológica transformadora que puede crear tanta prosperidad en sus primeros días», dijo. Cuando se establecen regulaciones, es difícil revertirlos, advirtió Aaron Levie, director ejecutivo de Box, la empresa de computación en la nube con sede en Redwood City, que está incorporando IA en sus productos. «Necesitamos tener modelos más potentes que hagan aún más y sean más capaces», dijo Levie, «y luego comencemos a evaluar el riesgo de forma incremental a partir de ahí». Pero Crabtree-Ireland dijo que las empresas de tecnología están tratando de frenar la regulación haciendo que los problemas parezcan más complicados de lo que son y diciendo que deben resolverse en una propuesta integral de política pública. «Rechazamos eso por completo», dijo Crabtree-Ireland. «No creemos que todo lo relacionado con la IA deba resolverse de una vez».

Los protocolos de seguridad de la IA podrían estar pasando por alto la mayor amenaza

Los protocolos de seguridad de la IA podrían estar pasando por alto la mayor amenaza

La era de la inteligencia artificial ha comenzado y trae consigo muchas preocupaciones nuevas. Se están dedicando mucho esfuerzo y dinero para garantizar que la IA sólo haga lo que los humanos quieren. Pero lo que más deberíamos temer es la IA que hará lo que los humanos quieren. El verdadero peligro somos nosotros. Ese no es el riesgo que la industria se esfuerza por abordar. En febrero, se fundó toda una empresa, llamada Synth Labs, con el propósito expreso de “alinear la IA”, haciendo que se comporte exactamente como los humanos pretenden. Entre sus inversores se encuentran M12, propiedad de Microsoft, y First Start Ventures, fundada por el ex director ejecutivo de Google, Eric Schmidt. OpenAI, el creador de ChatGPT, ha prometido que el 20% de su potencia de procesamiento se destinará a una «superalineación» que «dirigirá y controlará los sistemas de IA de forma mucho más inteligente que nosotros». Las grandes tecnologías están en todo esto. Y eso probablemente sea algo bueno debido al rápido desarrollo tecnológico de la IA. Casi todas las conversaciones sobre riesgos tienen que ver con las posibles consecuencias de que los sistemas de IA persigan objetivos que divergen de aquellos para los que fueron programados y que no redundan en interés de los humanos. Todos pueden respaldar esta noción de alineación y seguridad de la IA, pero este es solo un lado del peligro. Imagínese lo que podría suceder si la IA hiciera lo que los humanos quieren. “Lo que los humanos quieren”, por supuesto, no es un monolito. Diferentes personas quieren cosas diferentes y tienen innumerables ideas sobre lo que constituye «el bien común». Creo que a la mayoría de nosotros nos preocuparía, con razón, si una inteligencia artificial estuviera alineada con las visiones de un mundo óptimo de Vladimir Putin o Kim Jong Un. Incluso si pudiéramos lograr que todos se centraran en el bienestar de toda la especie humana, es poco probable que Podríamos ponernos de acuerdo sobre cómo sería eso. Elon Musk dejó esto claro la semana pasada cuando compartió en X, su plataforma de redes sociales, que le preocupaba que la IA impulsara la “diversidad forzada” y estuviera demasiado “despierta”. (Esto se produjo inmediatamente después de que Musk presentara una demanda contra OpenAI, argumentando que la compañía no estaba cumpliendo su promesa de desarrollar IA para el beneficio de la humanidad). Las personas con prejuicios extremos podrían creer genuinamente que redundaría en interés general de humanidad a matar a cualquiera que consideraran desviado. La IA «alineada con los humanos» es esencialmente tan buena, mala, constructiva o peligrosa como las personas que la diseñan. Esa parece ser la razón por la que Google DeepMind, el brazo de desarrollo de IA de la corporación, fundó recientemente una organización interna centrada en la seguridad y prevención de la IA. su manipulación por parte de malos actores. Pero no es ideal que lo que es “malo” sea determinado por un puñado de individuos en esta corporación en particular (y un puñado de otras similares), con sus puntos ciegos y sus prejuicios personales y culturales. El problema potencial va más allá. humanos dañando a otros humanos. Lo que es “bueno” para la humanidad, muchas veces a lo largo de la historia, se ha producido a expensas de otros seres sintientes. Ésta es la situación actual. Sólo en Estados Unidos tenemos miles de millones de animales sometidos a cautiverio, a prácticas tortuosas y a la negación de sus necesidades psicológicas y fisiológicas básicas en un momento dado. Especies enteras son subyugadas y sistemáticamente sacrificadas para que podamos comer tortillas, hamburguesas y zapatos. Si la IA hace exactamente lo que “nosotros” (quienquiera que programe el sistema) queremos, eso probablemente significaría implementar esta crueldad masiva de manera más eficiente, a un nivel uniforme. a mayor escala y con más automatización y menos oportunidades para que seres humanos comprensivos intervengan y señalen cualquier cosa particularmente horripilante. De hecho, en las granjas industriales, esto ya está sucediendo, aunque en una escala mucho menor de lo que es posible. Los principales productores de productos animales, como Tyson Foods, con sede en Estados Unidos, CP Foods, con sede en Tailandia, y Mowi, con sede en Noruega, han comenzado a experimentar con sistemas de inteligencia artificial destinados a hacer más eficiente la producción y el procesamiento de animales. Estos sistemas se están probando para, entre otras actividades, alimentar animales, monitorear su crecimiento, recortar marcas en sus cuerpos e interactuar con animales usando sonidos o descargas eléctricas para controlar su comportamiento. Un objetivo mejor que alinear la IA con los intereses inmediatos de la humanidad sería cuál Yo lo llamaría alineación sensible: la IA actúa de acuerdo con los intereses de todos los seres sintientes, incluidos los humanos, todos los demás animales y, si existiera, la IA sintiente. En otras palabras, si una entidad puede experimentar placer o dolor, su destino debe tenerse en cuenta cuando los sistemas de IA tomen decisiones. Esto les parecerá a algunos una propuesta radical, porque lo que es bueno para toda la vida sensible puede no siempre coincidir con lo que es bueno para humanidad. A veces, incluso a menudo, puede estar en contra de lo que los humanos queremos o de lo que sería mejor para la mayoría de nosotros. Eso podría significar, por ejemplo, que la IA elimine los zoológicos, destruya ecosistemas no esenciales para reducir el sufrimiento de los animales salvajes o prohíba las pruebas con animales. Hablando recientemente en el podcast “All Thinks Considered”, Peter Singer, filósofo y autor del histórico libro de 1975 “Animal Liberation, » Argumentó que los objetivos y prioridades finales de un sistema de IA son más importantes que su alineación con los humanos. «La pregunta es realmente si esta IA superinteligente será benévola y querrá producir un mundo mejor», dijo Singer, «e incluso si Si no lo controlamos, producirá un mundo mejor en el que nuestros intereses serán tenidos en cuenta. A veces pueden verse superados por el interés de los animales no humanos o por los intereses de la IA, pero creo que aun así sería un buen resultado”. Estoy con Singer en esto. Parece que lo más seguro y compasivo que podemos hacer es tener en cuenta la vida sensible no humana, incluso si los intereses de esas entidades podrían chocar con lo que es mejor para los humanos. Descentrar a la humanidad en cualquier medida, y especialmente hasta este extremo, es una idea que desafiará a la gente. Pero eso es necesario si queremos evitar que nuestro especismo actual prolifere de maneras nuevas y terribles. Lo que realmente deberíamos pedir es que los ingenieros amplíen sus propios círculos de compasión al diseñar tecnología. Cuando pensamos en “seguro”, pensemos en lo que significa “seguro” para todos los seres sintientes, no sólo para los humanos. Cuando pretendemos hacer que la IA sea “benévola”, asegurémonos de que eso signifique benevolencia para el mundo en general, no solo para una sola especie que vive en él. Brian Kateman es cofundador de la Reducetarian Foundation, una organización sin fines de lucro dedicada a reducir la desigualdad social. consumo de productos animales. Su último libro y documental es «Meat Me Halfway».

Source link

Funciona con WordPress & Tema de Anders Norén