Todo lo que necesitas saber sobre tecnología

Etiqueta: humanidad

Merchant: Por qué Silicon Valley odió la expulsión de OpenAI de Sam Altman

No todos los días la empresa más comentada del mundo se prende fuego. Sin embargo, eso parece ser lo que ocurrió el viernes, cuando la junta directiva de OpenAI anunció que había despedido a su director ejecutivo, Sam Altman, porque no había sido «consistentemente sincero en sus comunicaciones con la junta». En el lenguaje corporativo, esas son palabras de lucha tan duras como puedan: Insinuaron que Altman había estado mintiendo. El despido puso en marcha una vertiginosa secuencia de eventos que mantuvo a la industria tecnológica pegada a sus redes sociales durante todo el fin de semana: Primero, borró 48 mil millones de dólares de la valoración de Microsoft, el mayor socio de OpenAI. Las especulaciones sobre malas prácticas se arremolinaron, pero los empleados, los incondicionales de Silicon Valley y los inversores apoyaron a Altman, y al día siguiente se llevaron a cabo conversaciones para traerlo de regreso. En lugar de un escándalo apasionado, los informes indicaron que se trataba en esencia de una disputa sobre si Altman estaba construyendo y vendiendo IA de manera responsable. El lunes, las conversaciones habían fracasado, la mayoría de los empleados de OpenAI amenazaban con dimitir y Altman anunció que se uniría a Microsoft. Mientras tanto, algo más ardía en llamas: la ficción de que cualquier otra cosa que no sea el afán de lucro va a regir cómo La IA se desarrolla y se implementa. Las preocupaciones sobre la “seguridad de la IA” serán arrasadas por los gigantes tecnológicos ansiosos por aprovechar una nueva fuente de ingresos cada vez. Es difícil exagerar lo salvaje que es toda esta saga. En un año en el que la inteligencia artificial ha dominado el mundo empresarial, OpenAI, con sus omnipresentes productos ChatGPT y Dall-E, ha sido el centro del universo. Y Altman era su portavoz mundial. De hecho, ha sido el portavoz más destacado de la IA, punto. Que la propia junta directiva de una empresa de altos vuelos despidiera a un CEO de tal estatura un viernes al azar, sin previo aviso o señal previa de que algo serio estaba mal, Altman acababa de tomar central para anunciar el lanzamiento de la tienda de aplicaciones de OpenAI en una conferencia muy vista, es casi inaudito. (Muchos han comparado los eventos con el famoso enlatado de Steve Jobs por parte de Apple en 1985, pero incluso eso fue después de que Lisa y Macintosh no cumplieran con las expectativas de ventas, no durante el máximo éxito de Apple II). ¿Cómo está pasando la Tierra? Bueno, lo primero que es importante saber es que la junta directiva de OpenAI está, por diseño, constituida de manera diferente a la de la mayoría de las corporaciones: es una organización sin fines de lucro estructurada para salvaguardar el desarrollo de la IA en lugar de maximizar la rentabilidad. La mayoría de las juntas directivas tienen la tarea de garantizar que sus directores ejecutivos sirvan mejor a los intereses financieros de la empresa; La junta directiva de OpenAI tiene la tarea de garantizar que su CEO no sea imprudente con el desarrollo de la inteligencia artificial y actúe en el mejor interés de la «humanidad». Esta junta sin fines de lucro controla la empresa con fines de lucro OpenAI. ¿Entendido? Como dijo Jeremy Khan en Fortune, “La estructura de OpenAI fue diseñada para permitirle recaudar las decenas o incluso cientos de miles de millones de dólares que necesitaría para tener éxito en su misión de construir inteligencia artificial general (AGI)… y al mismo tiempo evitar que las fuerzas capitalistas, y en particular un solo gigante tecnológico, controlen AGI”. Y, sin embargo, señala Khan, tan pronto como Altman firmó un acuerdo de mil millones de dólares con Microsoft en 2019, «la estructura fue básicamente una bomba de tiempo». El tic-tac se hizo más fuerte cuando Microsoft invirtió 10 mil millones de dólares más en OpenAI en enero de este año. Todavía no sabemos qué quiso decir exactamente la junta directiva al decir que Altman no era «consistentemente sincero en sus comunicaciones». Pero los informes se han centrado en el creciente cisma entre el brazo científico de la empresa, liderado por el cofundador, científico jefe y miembro de la junta directiva Ilya Sutskever, y el brazo comercial, liderado por Altman. Sí sabemos que Altman ha estado en modo de expansión. últimamente, buscando miles de millones en nuevas inversiones de fondos soberanos de Oriente Medio para iniciar una empresa de chips que rivalice con el fabricante de chips de IA Nvidia, y mil millones más de Softbank para una empresa con el exjefe de diseño de Apple, Jony Ive, para desarrollar hardware centrado en la IA. Y eso se suma al lanzamiento de la ya mencionada tienda de aplicaciones OpenAI para desarrolladores externos, lo que permitiría a cualquiera crear IA personalizadas y venderlas en el mercado de la empresa. La narrativa de trabajo ahora parece ser que la mentalidad expansionista de Altman y su impulso para comercializar La IA (y tal vez haya más cosas que aún no sabemos a este respecto) chocó con la facción Sutskever, a quienes les preocupaba que la empresa que cofundaron se estuviera moviendo demasiado rápido. Al menos dos de los miembros de la junta están alineados con el llamado movimiento de altruismo efectivo, que ve a la IA como una fuerza potencialmente catastrófica que podría destruir a la humanidad. La junta decidió que el comportamiento de Altman violaba el mandato de la junta. Pero tampoco (de alguna manera, salvajemente) parecen no haber previsto cuántas consecuencias recibirían por despedir a Altman. Y ese retroceso se ha producido con la fuerza de un vendaval; Los empleados de OpenAI y los actores poderosos de Silicon Valley, como Brian Chesky y Eric Schmidt de Airbnb, pasaron el fin de semana “Soy Spartacus”, interpretando a Altman. No es difícil ver por qué. OpenAI había estado en conversaciones para vender acciones a inversores por una valoración de 86.000 millones de dólares. Microsoft, que ha invertido más de 11 mil millones de dólares en OpenAI y ahora utiliza la tecnología de OpenAI en sus plataformas, aparentemente fue informada de la decisión de la junta de despedir a Altman cinco minutos antes que el resto del mundo. Su liderazgo estaba furioso y aparentemente encabezó el esfuerzo para reinstalar a Altman. Pero más allá de todo eso acechaba la pregunta de si realmente debería haber alguna salvaguardia para el modelo de desarrollo de IA favorecido por los principales impulsores de Silicon Valley; si una junta debería poder destituir a un fundador que cree que no está actuando en interés de la humanidad (que, nuevamente, es su misión declarada) o si debería buscar una expansión y escala implacables. Mira, a pesar de que la junta de OpenAI se ha convertido rápidamente en El villano de facto de esta historia, como señaló el analista de capital riesgo Eric Newcomer, tal vez deberíamos tomarnos su decisión en serio. Despedir a Altman probablemente no fue una decisión que tomaron a la ligera, y sólo porque ahora están luchando porque resulta que esa decisión era una amenaza financiera existencial para la empresa no significa que sus preocupaciones fueran infundadas. Lejos de ello. De hecho, independientemente de cómo se desarrolle esto, ya ha logrado subrayar cuán agresivamente Altman ha estado persiguiendo sus intereses comerciales. Para la mayoría de los titanes de la tecnología, esta sería una situación “bueno, claro”, pero Altman ha cultivado meticulosamente un aura de gurú agobiado que advierte al mundo sobre grandes cambios disruptivos. ¿Recuerdan esos ojos de perro pastor en las audiencias del Congreso hace unos meses, donde suplicó que se regulara la industria, para que no se volviera demasiado poderosa? Todo el truco de Altman es que es un mensajero cansado que busca preparar el terreno para usos responsables de la IA que beneficien a la humanidad; sin embargo, está dando vueltas por el mundo alineando inversores dondequiera que pueda, haciendo todo lo que aparentemente puede para capitalizar este momento de intenso interés en la IA. Para aquellos que han estado observando de cerca, esto siempre ha sido una especie de acto: después de todo, semanas después de esas audiencias, Altman luchó contra las regulaciones del mundo real que la Unión Europea buscaba imponer al despliegue de la IA. Y olvidamos que OpenAI se fundó originalmente como una organización sin fines de lucro que afirmaba estar decidida a operar con la máxima transparencia, antes de que Altman la convirtiera en una empresa con fines de lucro que mantiene sus modelos en secreto. Ahora, no creo ni por un segundo que La IA está a punto de volverse lo suficientemente poderosa como para destruir a la humanidad. Creo que algunos en Silicon Valley (incluido el nuevo CEO interino de OpenAI, Emmett Shear) se están dejando llevar por un sentido de importancia personal de ciencia ficción y una táctica de marketing excepcionalmente astuta. pero sí creo que hay una letanía de daños y peligros que la IA puede causar en el corto plazo. Y las preocupaciones sobre la seguridad de la IA que se desmoronan tan a fondo con el chasquido de los dedos del Valle no son algo para celebrar. Uno quisiera creer que los ejecutivos de las empresas de construcción de IA que piensan que existe un riesgo significativo de una catástrofe global aquí no pueden ser marginados simplemente porque Microsoft perdió parte del valor de sus acciones. Pero ahí es donde estamos. Sam Altman es, ante todo, un presentador de los productos tecnológicos más importantes del año. Nadie está muy seguro de qué tan útiles o interesantes serán la mayoría de esos productos a largo plazo, y no están generando mucho dinero en este momento, por lo que la mayor parte del valor está ligado al propio vendedor. Los inversores, los empleados de OpenAI y los socios como Microsoft necesitan que Altman viaje por el mundo diciéndoles a todos que la IA eclipsará a la inteligencia humana en cualquier momento, mucho más de lo que necesita, digamos, un chatbot de alto funcionamiento. termina siendo un golpe para Microsoft. Ahora tienen a Altman internamente, donde puede animar a la IA y hacer tratos a su gusto. Todavía tienen la tecnología de OpenAI con licencia, y OpenAI necesitará a Microsoft más que nunca. Ahora, aún puede resultar que esto no fue más que una lucha de poder entre los miembros de la junta directiva, y fue un golpe que salió mal. Pero si resulta que la junta tenía preocupaciones reales y se las comunicó a Altman en vano, no importa cómo se sienta acerca del problema de la seguridad de la IA, deberíamos preocuparnos por este resultado: una mayor consolidación del poder de una de las mayores empresas tecnológicas. y menos responsabilidad por el producto que nunca. Si alguien todavía cree que una empresa puede gestionar el desarrollo de un producto como la IA sin recibir órdenes de las grandes tecnológicas, espero que la debacle de Altman lo desengañe de esta ficción. La realidad es que, independientemente de cualquier otro aporte que se le ofrezca a la empresa detrás de ChatGPT, el resultado será el mismo: el dinero habla.

Los protocolos de seguridad de la IA podrían estar pasando por alto la mayor amenaza

La era de la inteligencia artificial ha comenzado y trae consigo muchas preocupaciones nuevas. Se están dedicando mucho esfuerzo y dinero para garantizar que la IA sólo haga lo que los humanos quieren. Pero lo que más deberíamos temer es la IA que hará lo que los humanos quieren. El verdadero peligro somos nosotros. Ese no es el riesgo que la industria se esfuerza por abordar. En febrero, se fundó toda una empresa, llamada Synth Labs, con el propósito expreso de “alinear la IA”, haciendo que se comporte exactamente como los humanos pretenden. Entre sus inversores se encuentran M12, propiedad de Microsoft, y First Start Ventures, fundada por el ex director ejecutivo de Google, Eric Schmidt. OpenAI, el creador de ChatGPT, ha prometido que el 20% de su potencia de procesamiento se destinará a una «superalineación» que «dirigirá y controlará los sistemas de IA de forma mucho más inteligente que nosotros». Las grandes tecnologías están en todo esto. Y eso probablemente sea algo bueno debido al rápido desarrollo tecnológico de la IA. Casi todas las conversaciones sobre riesgos tienen que ver con las posibles consecuencias de que los sistemas de IA persigan objetivos que divergen de aquellos para los que fueron programados y que no redundan en interés de los humanos. Todos pueden respaldar esta noción de alineación y seguridad de la IA, pero este es solo un lado del peligro. Imagínese lo que podría suceder si la IA hiciera lo que los humanos quieren. “Lo que los humanos quieren”, por supuesto, no es un monolito. Diferentes personas quieren cosas diferentes y tienen innumerables ideas sobre lo que constituye «el bien común». Creo que a la mayoría de nosotros nos preocuparía, con razón, si una inteligencia artificial estuviera alineada con las visiones de un mundo óptimo de Vladimir Putin o Kim Jong Un. Incluso si pudiéramos lograr que todos se centraran en el bienestar de toda la especie humana, es poco probable que Podríamos ponernos de acuerdo sobre cómo sería eso. Elon Musk dejó esto claro la semana pasada cuando compartió en X, su plataforma de redes sociales, que le preocupaba que la IA impulsara la “diversidad forzada” y estuviera demasiado “despierta”. (Esto se produjo inmediatamente después de que Musk presentara una demanda contra OpenAI, argumentando que la compañía no estaba cumpliendo su promesa de desarrollar IA para el beneficio de la humanidad). Las personas con prejuicios extremos podrían creer genuinamente que redundaría en interés general de humanidad a matar a cualquiera que consideraran desviado. La IA «alineada con los humanos» es esencialmente tan buena, mala, constructiva o peligrosa como las personas que la diseñan. Esa parece ser la razón por la que Google DeepMind, el brazo de desarrollo de IA de la corporación, fundó recientemente una organización interna centrada en la seguridad y prevención de la IA. su manipulación por parte de malos actores. Pero no es ideal que lo que es “malo” sea determinado por un puñado de individuos en esta corporación en particular (y un puñado de otras similares), con sus puntos ciegos y sus prejuicios personales y culturales. El problema potencial va más allá. humanos dañando a otros humanos. Lo que es “bueno” para la humanidad, muchas veces a lo largo de la historia, se ha producido a expensas de otros seres sintientes. Ésta es la situación actual. Sólo en Estados Unidos tenemos miles de millones de animales sometidos a cautiverio, a prácticas tortuosas y a la negación de sus necesidades psicológicas y fisiológicas básicas en un momento dado. Especies enteras son subyugadas y sistemáticamente sacrificadas para que podamos comer tortillas, hamburguesas y zapatos. Si la IA hace exactamente lo que “nosotros” (quienquiera que programe el sistema) queremos, eso probablemente significaría implementar esta crueldad masiva de manera más eficiente, a un nivel uniforme. a mayor escala y con más automatización y menos oportunidades para que seres humanos comprensivos intervengan y señalen cualquier cosa particularmente horripilante. De hecho, en las granjas industriales, esto ya está sucediendo, aunque en una escala mucho menor de lo que es posible. Los principales productores de productos animales, como Tyson Foods, con sede en Estados Unidos, CP Foods, con sede en Tailandia, y Mowi, con sede en Noruega, han comenzado a experimentar con sistemas de inteligencia artificial destinados a hacer más eficiente la producción y el procesamiento de animales. Estos sistemas se están probando para, entre otras actividades, alimentar animales, monitorear su crecimiento, recortar marcas en sus cuerpos e interactuar con animales usando sonidos o descargas eléctricas para controlar su comportamiento. Un objetivo mejor que alinear la IA con los intereses inmediatos de la humanidad sería cuál Yo lo llamaría alineación sensible: la IA actúa de acuerdo con los intereses de todos los seres sintientes, incluidos los humanos, todos los demás animales y, si existiera, la IA sintiente. En otras palabras, si una entidad puede experimentar placer o dolor, su destino debe tenerse en cuenta cuando los sistemas de IA tomen decisiones. Esto les parecerá a algunos una propuesta radical, porque lo que es bueno para toda la vida sensible puede no siempre coincidir con lo que es bueno para humanidad. A veces, incluso a menudo, puede estar en contra de lo que los humanos queremos o de lo que sería mejor para la mayoría de nosotros. Eso podría significar, por ejemplo, que la IA elimine los zoológicos, destruya ecosistemas no esenciales para reducir el sufrimiento de los animales salvajes o prohíba las pruebas con animales. Hablando recientemente en el podcast “All Thinks Considered”, Peter Singer, filósofo y autor del histórico libro de 1975 “Animal Liberation, » Argumentó que los objetivos y prioridades finales de un sistema de IA son más importantes que su alineación con los humanos. «La pregunta es realmente si esta IA superinteligente será benévola y querrá producir un mundo mejor», dijo Singer, «e incluso si Si no lo controlamos, producirá un mundo mejor en el que nuestros intereses serán tenidos en cuenta. A veces pueden verse superados por el interés de los animales no humanos o por los intereses de la IA, pero creo que aun así sería un buen resultado”. Estoy con Singer en esto. Parece que lo más seguro y compasivo que podemos hacer es tener en cuenta la vida sensible no humana, incluso si los intereses de esas entidades podrían chocar con lo que es mejor para los humanos. Descentrar a la humanidad en cualquier medida, y especialmente hasta este extremo, es una idea que desafiará a la gente. Pero eso es necesario si queremos evitar que nuestro especismo actual prolifere de maneras nuevas y terribles. Lo que realmente deberíamos pedir es que los ingenieros amplíen sus propios círculos de compasión al diseñar tecnología. Cuando pensamos en “seguro”, pensemos en lo que significa “seguro” para todos los seres sintientes, no sólo para los humanos. Cuando pretendemos hacer que la IA sea “benévola”, asegurémonos de que eso signifique benevolencia para el mundo en general, no solo para una sola especie que vive en él. Brian Kateman es cofundador de la Reducetarian Foundation, una organización sin fines de lucro dedicada a reducir la desigualdad social. consumo de productos animales. Su último libro y documental es «Meat Me Halfway».

Source link

Un estudio sugiere que los madrugadores pueden tener ADN neandertal

‘The Independent’ informa que una nueva investigación sugiere que las personas que se acuestan y se levantan temprano probablemente comparten ADN con parientes extintos neandertales o denisovanos. Investigadores de la Universidad de California en San Francisco compararon genes de personas madrugadoras que viven hoy en día con ADN de neandertales y denisovanos para descubrir el vínculo.

Source link

Tim Burton compara la IA con «un robot que te quita la humanidad»

Tim Burton definitivamente no es un fanático del uso de la inteligencia artificial. En julio, Buzzfeed publicó un artículo que utilizó IA para “Tim Burton-izar” a los personajes de Disney, para que parecieran creados con el estilo de animación distintivo de Burton. La historia obtuvo clics en el sitio web, pero el director de “La novia cadáver” no era un fanático. «Hicieron que la IA hiciera mis versiones de los personajes de Disney», dijo Burton al Independent en un artículo publicado el sábado. “No puedo describir la sensación que te da. Me recordó cuando otras culturas dicen: ‘No me tomes una foto porque te está quitando el alma’”. Agregó que la tecnología le quita la esencia del oficio y la humanidad que se dedica a un trabajo como el suyo. “Lo que hace es chuparte algo”, señaló Burton. “Se necesita algo de tu alma o psique; Eso es muy perturbador, especialmente si tiene que ver contigo. Es como un robot que se lleva tu humanidad, tu alma”. Burton no es el único director que plantea preocupaciones sobre el material generado por IA que imita el estilo de un creador. Buzzfeed también publicó un artículo que utilizó inteligencia artificial para crear personajes de Disney al estilo de Wes Anderson. Además, ha habido una tendencia en la que la gente crea avances de películas populares como “Star Wars” generados por IA que están diseñados con el enfoque único de Anderson. «Soy muy bueno protegiéndome de ver todas esas cosas», dijo Anderson al Times de Londres en junio. “Si alguien me envía algo así, lo borro inmediatamente y digo: ‘Por favor, lo siento, no me envíes cosas de gente haciéndome daño’. Porque no quiero mirarlo y pensar: ‘¿Eso es lo que hago? ¿Es eso lo que quiero decir? No quiero ver a otra persona pensando demasiado en lo que intento ser porque, Dios sabe, entonces podría empezar a hacerlo”. El viernes en el Festival Internacional de Cine de Toronto, el director de “El laberinto del fauno”, Guillermo del Toro, se dirigió a Contenido generado por IA. “La gente me pregunta si me preocupa la inteligencia artificial, yo digo que me preocupa la estupidez natural. Es sólo una herramienta, ¿verdad? Dijo Del Toro. “Si alguien quiere películas hechas con IA, que las consiga inmediatamente. No me importan las personas que quieren sentirse realizadas y conseguir algo de mierda, rápidamente… De lo contrario, ¿por qué no comprar una impresora, imprimir la ‘Mona Lisa’ y decir que la hiciste?” Director y animación de “Princesa Mononoke” La leyenda Hayao Miyazaki habló sobre lo que la IA podría significar para el alma del arte en el documental de Kaku Arakawa de 2019 “10 años con Hayao Miyazaki”. “Quien crea esto no tiene idea de qué es el dolor. Estoy completamente disgustado”, dijo Miyazaki cuando se le mostraron gráficos impulsados ​​por IA. “Si realmente quieres hacer cosas espeluznantes, adelante y hazlo. Nunca desearía incorporar esta tecnología en mi trabajo en absoluto. Creo firmemente que esto es un insulto a la vida misma”.

Source link

Funciona con WordPress & Tema de Anders Norén