Comenta esta historiaComentarAgregar a tus historias guardadasGuardarDespués de meses de reuniones y debates de alto nivel, funcionarios gubernamentales y líderes de las grandes tecnologías han acordado una cosa sobre la inteligencia artificial: la tecnología que potencialmente cambiará el mundo necesita algunas reglas básicas. Pero muchos en Silicon Valley se muestran escépticos Un grupo cada vez mayor de pesos pesados ​​de la tecnología, incluidos influyentes capitalistas de riesgo, directores ejecutivos de empresas de software medianas y defensores de la tecnología de código abierto, están respondiendo, afirmando que las leyes para la IA podrían acabar con la competencia en un nuevo campo vital. La voluntad de los principales actores de la IA, como Google, Microsoft y OpenAI, fabricante de ChatGPT, de adoptar la regulación es simplemente una estratagema cínica de esas empresas para asegurar sus ventajas como líderes actuales, esencialmente subiendo la escalera detrás de ellos. Las preocupaciones de estos líderes tecnológicos se dispararon la semana pasada, cuando el presidente Biden firmó una orden ejecutiva que establece un plan para que el gobierno desarrolle pautas de prueba y aprobación para los modelos de IA: los algoritmos subyacentes que impulsan las herramientas de IA «generativas» como los chatbots y los creadores de imágenes. «Aún estamos en los primeros días de la IA generativa, y es imperativo que los gobiernos no elijan de forma preventiva a los ganadores y cierren la competencia mediante la adopción de regulaciones onerosas que sólo las empresas más grandes pueden satisfacer», dijo Garry Tan, director de Y Combinator, una incubadora de empresas emergentes con sede en San Francisco que ayudó a impulsar empresas como Airbnb y DoorDash cuando recién estaban comenzando. El debate actual no ha incorporado lo suficiente las voces de las empresas más pequeñas, dijo Tan, lo que cree que es clave para fomentar la competencia y diseñar las formas más seguras de aprovechar la IA. Empresas como la influyente startup de IA Anthropic y OpenAI están estrechamente vinculadas a las grandes tecnologías. «No hablan en nombre de la gran mayoría de las personas que han contribuido a esta industria», dijo Martín Casado, socio general de la firma de capital de riesgo Andreessen Horowitz, que realizó las primeras inversiones en Facebook. Slack y Lyft. La mayoría de los ingenieros y empresarios de IA han estado observando las discusiones regulatorias desde lejos, centrándose en sus empresas en lugar de tratar de presionar a los políticos, dijo. «Muchas personas quieren construir, son innovadores, son la mayoría silenciosa», dijo Casado. . La orden ejecutiva mostró a esas personas que la regulación podría llegar antes de lo esperado, dijo. La firma de capital de riesgo de Casado envió una carta a Biden exponiendo sus preocupaciones. Fue firmado por destacados líderes de nuevas empresas de IA, incluido el CEO de Replit, Amjad Masad, y Arthur Mensch de Mistral, así como líderes tecnológicos más establecidos, como el CEO de la empresa de comercio electrónico Shopify, Tobi Lütke, quien había tuiteado: «La regulación de la IA es una idea terrible» después de se anunció la orden ejecutiva. Exigir que las empresas de inteligencia artificial informen al gobierno probablemente haría más difícil y costoso el desarrollo de nueva tecnología, dijo Casado. La orden también podría afectar a la comunidad de código abierto, dijeron Casado y Andrew Ng, un pionero en la investigación de IA que ayudó a fundar el laboratorio de IA de Google. A medida que las empresas se han apresurado a lanzar nuevas herramientas de IA y monetizarlas desde que OpenAI lanzó ChatGPT hace casi un año, los gobiernos Hemos luchado con cómo responder. Numerosas audiencias en el Congreso han abordado el tema y se han propuesto proyectos de ley en las legislaturas federales y estatales. La Unión Europea está renovando la regulación de la IA que ha estado en proceso durante varios años, y Gran Bretaña está tratando de presentarse como una isla de innovación favorable a la IA y recientemente organizó una importante reunión de líderes gubernamentales y empresariales para discutir la tecnología. En las discusiones, los representantes de las empresas de inteligencia artificial más poderosas han dicho abiertamente que la tecnología presenta riesgos graves y que están ansiosos por una regulación. Promulgar una buena regulación podría evitar malos resultados, fomentar una mayor inversión en IA y hacer que los ciudadanos se sientan más cómodos con la tecnología que avanza rápidamente, han dicho las empresas. Al mismo tiempo, ser parte de la conversación regulatoria les da a los líderes empresariales influencia sobre qué tipo de reglas se desarrollan. “Si esta tecnología sale mal, puede salir bastante mal”, dijo el director ejecutivo de OpenAI, Sam Altman, en una audiencia en el Congreso en mayo. . Los legisladores, incluido el líder de la mayoría del Senado, Charles E. Schumer (DN.Y.), han dicho que quieren regular la IA temprano, en lugar de adoptar un enfoque más relajado como lo hizo el gobierno con las redes sociales. OpenAI establece ambiciones para competir con los Big TechDays Después de la orden ejecutiva de Biden, los representantes gubernamentales que asistieron a la Cumbre de Seguridad de la IA organizada en el Reino Unido firmaron una declaración apoyando la idea de dar a los gobiernos un papel en la prueba de los modelos de IA. “Hasta ahora, las únicas personas que prueban la seguridad de los nuevos modelos de IA han sido las mismas empresas que desarrollan él. No deberíamos confiar en que ellos marquen sus propios deberes, como muchos de ellos coinciden”, dijo el primer ministro británico, Rishi Sunak, en un comunicado. Demis Hassabis, director ejecutivo de la división DeepMind AI de Google, y Dario Amodei, director ejecutivo de Anthropic, añadieron su apoyo a la declaración. Los portavoces de Google y Anthropic no hicieron comentarios. Un portavoz de Microsoft se negó a hacer comentarios, pero señaló el testimonio ante el Congreso del vicepresidente y presidente de la compañía, Brad Smith, donde apoyó la idea de que un organismo gubernamental independiente concediera licencias de IA. Un portavoz de OpenAI se negó a hacer comentarios, pero se refirió a un tweet de Altman, donde dijo que si bien apoyaba la regulación para las empresas de IA más establecidas que trabajan en modelos de IA potentes, los gobiernos deberían tener cuidado de no dañar la competencia. Muchos de los grandes avances tecnológicos de las últimas décadas se han producido porque los desarrolladores han puesto su tecnología a disposición a otros para que lo utilicen gratis. Ahora, las empresas están utilizando modelos de IA de código abierto para construir sus propias herramientas de IA sin tener que pagar a Google, OpenAI o Anthropic por el acceso a sus modelos. Con los cabilderos de las grandes tecnologías trabajando duro en Washington, esas empresas podrían influir en la regulación de sus favor, en detrimento de las empresas más pequeñas, dijo Ng. Los críticos de los marcos regulatorios emergentes también dicen que se basan en preocupaciones exageradas sobre el riesgo de la IA. Líderes influyentes de la IA, incluidos ejecutivos de OpenAI, Microsoft, Google y Anthropic, han advertido que la IA representa un riesgo comparable al de las pandemias o las armas nucleares para las sociedades humanas. Muchos investigadores y empresarios destacados de la IA dicen que la tecnología está avanzando tan rápidamente que pronto podría superar a la inteligencia humana y comenzar a tomar sus propias decisiones. Esas preocupaciones, que ocuparon un lugar destacado en la cumbre de IA del Reino Unido, dan a los gobiernos margen para aprobar regulaciones, dijo Ng, quien ahora lamenta no haber combatido con más fuerza los temores del “riesgo existencial”. «Simplemente me cuesta ver cómo la humanidad podría extinguirse», dijo.

Source link