Comenta esta historiaComentarAgregar a tus historias guardadasGuardarLas figuras de Silicon Valley han advertido durante mucho tiempo sobre los peligros de la inteligencia artificial. Ahora su ansiedad ha migrado a otras salas del poder: el sistema legal, las reuniones globales de líderes empresariales y los principales reguladores de Wall Street. La semana pasada, la Autoridad Reguladora de la Industria Financiera (FINRA), el autorregulador de la industria de valores, calificó a la IA como una El “riesgo emergente” y el Foro Económico Mundial en Davos, Suiza, publicaron una encuesta que concluyó que la desinformación alimentada por la IA representa la mayor amenaza a corto plazo para la economía global. Esos informes se produjeron pocas semanas después de que el Consejo de Supervisión de la Estabilidad Financiera en Washington dijera que la IA podría resultar en un “daño directo al consumidor” y Gary Gensler, presidente de la Comisión de Bolsa y Valores (SEC), advirtió públicamente sobre la amenaza a la estabilidad financiera por parte de numerosas empresas de inversión que dependen de modelos de IA similares para tomar decisiones de compra y venta. «Puede desempeñar un papel central en los informes posteriores a una futura crisis financiera», dijo en un discurso en diciembre. En la conferencia anual del Foro Económico Mundial para los principales directores ejecutivos, políticos y multimillonarios celebrada en una elegante ciudad de esquí suiza, la IA es una de los temas centrales, y un tema en muchos de los paneles y eventos. En un informe publicado la semana pasada, el foro dijo que su encuesta de 1.500 formuladores de políticas y líderes de la industria encontró que las noticias falsas y la propaganda escrita e impulsada por chatbots de IA son la mayor riesgo a corto plazo para la economía global. Alrededor de la mitad de la población mundial participa este año en elecciones en países como Estados Unidos, México, Indonesia y Pakistán, y a los investigadores de desinformación les preocupa que la IA facilite que las personas difundan información falsa y aumente el conflicto social. Los propagandistas chinos ya están utilizando IA generativa para intentar influir en la política en Taiwán, informó el viernes The Washington Post. El contenido generado por IA está apareciendo en videos de noticias falsas en Taiwán, dijeron funcionarios del gobierno. El informe del foro se produjo un día después de que FINRA en su informe anual dijera que la IA ha provocado «preocupaciones sobre la precisión, la privacidad, el sesgo y la propiedad intelectual» incluso cuando ofrece posibles ganancias en costos y eficiencia. Y en diciembre, el FSOC del Departamento del Tesoro, que monitorea el sistema financiero para detectar comportamientos riesgosos, dijo que fallas no detectadas en el diseño de la IA podrían producir decisiones sesgadas, como negar préstamos a solicitantes que de otra manera calificarían. entrenados en enormes conjuntos de datos, también pueden producir conclusiones totalmente incorrectas que suenan convincentes, añadió el consejo. El FSOC, presidido por la Secretaria del Tesoro, Janet L. Yellen, recomendó que los reguladores y la industria financiera presten más atención al seguimiento de los riesgos potenciales que surgen del desarrollo de la IA. Gensler de la SEC ha estado entre los críticos más abiertos de la IA. En diciembre, su agencia solicitó información sobre el uso de la IA a varios asesores de inversiones, según Karen Barr, directora de la Asociación de Asesores de Inversiones, un grupo industrial. La solicitud de información, conocida como “barrido”, se produjo cinco meses después de que la comisión propusiera nuevas reglas para evitar conflictos de intereses entre los asesores que utilizan un tipo de IA conocido como análisis de datos predictivos y sus clientes. “Cualquier conflicto de intereses resultante podría causar daño a los inversores de una manera más pronunciada y en una escala más amplia de lo que antes era posible”, dijo la SEC en su propuesta de reglamentación. Las regulaciones existentes ya exigen que los asesores de inversiones prioricen las necesidades de sus clientes y eviten tales conflictos, dijo Barr. Su grupo quiere que la SEC retire la regla propuesta y base cualquier acción futura en lo que aprenda de su barrido informativo. «La reglamentación de la SEC no da en el blanco», afirmó. Las empresas de servicios financieros ven oportunidades para mejorar las comunicaciones con los clientes, las operaciones administrativas y la gestión de carteras. Pero la IA también entraña mayores riesgos. Los algoritmos que toman decisiones financieras podrían producir decisiones crediticias sesgadas que nieguen a las minorías el acceso al crédito o incluso causar un colapso del mercado global, si docenas de instituciones que dependen del mismo sistema de inteligencia artificial venden al mismo tiempo. “Esto es algo diferente a lo que hacemos He visto antes. La IA tiene la capacidad de hacer cosas sin manos humanas”, dijo el abogado Jeremiah Williams, exfuncionario de la SEC que ahora trabaja en Ropes & Gray en Washington. Incluso la Corte Suprema ve motivos de preocupación. “Obviamente, la IA tiene un gran potencial para aumentar dramáticamente el acceso a información clave. información para abogados y no abogados por igual. Pero es igualmente obvio que corre el riesgo de invadir los intereses de privacidad y deshumanizar la ley”, escribió el presidente del Tribunal Supremo, John G. Roberts Jr., en su informe de fin de año sobre el sistema judicial de Estados Unidos. Al igual que los conductores que siguen instrucciones del GPS que los llevan a un callejón sin salida, los humanos puede ceder demasiado a la IA en la gestión del dinero, dijo Hilary Allen, decana asociada de la Facultad de Derecho de la Universidad Americana de Washington. «Existe una gran mística acerca de que la IA sea más inteligente que nosotros», dijo. La IA tampoco puede ser mejor que los humanos a la hora de detectar peligros improbables o «riesgos de cola», dijo Allen. Antes de 2008, pocas personas en Wall Street previeron el fin de la burbuja inmobiliaria. Una de las razones fue que, dado que los precios de la vivienda nunca antes habían bajado en todo el país, los modelos de Wall Street suponían que nunca se produciría una caída tan uniforme. Incluso los mejores sistemas de IA son tan buenos como los datos en los que se basan, dijo Allen. A medida que la IA se vuelve más compleja y capaz, algunos expertos se preocupan por la automatización de «caja negra» que no puede explicar cómo se llegó a una decisión, dejando los humanos no están seguros de su solidez. Los sistemas mal diseñados o administrados podrían socavar la confianza entre comprador y vendedor que se requiere para cualquier transacción financiera, dijo Richard Berner, profesor clínico de finanzas en la Escuela de Negocios Stern de la Universidad de Nueva York. » añadió Berner, el primer director de la Oficina de Investigación Financiera del Tesoro. En Silicon Valley, el debate sobre los peligros potenciales en torno a la IA no es nuevo. Pero se sobrealimentó en los meses posteriores al lanzamiento a finales de 2022 de ChatGPT de OpenAI, que mostró al mundo las capacidades de la tecnología de próxima generación. OpenAI presenta un plan para hacer frente a los peligros de la AIA en medio de un auge de la inteligencia artificial que impulsó un rejuvenecimiento de la industria tecnológica. , algunos ejecutivos de la compañía advirtieron que el potencial de la IA para provocar el caos social rivaliza con las armas nucleares y las pandemias letales. Muchos investigadores dicen que esas preocupaciones distraen la atención de los impactos de la IA en el mundo real. Otros expertos y empresarios dicen que las preocupaciones sobre la tecnología son exageradas y corren el riesgo de empujar a los reguladores a bloquear innovaciones que podrían ayudar a las personas e impulsar las ganancias de las empresas de tecnología. El año pasado, políticos y formuladores de políticas de todo el mundo también lucharon por entender cómo la IA encajará en la sociedad. El Congreso celebró múltiples audiencias. El presidente Biden emitió una orden ejecutiva diciendo que la IA era “la tecnología más importante de nuestro tiempo”. El Reino Unido convocó un foro mundial sobre IA en el que el primer ministro Rishi Sunak advirtió que “la humanidad podría perder completamente el control de la IA”. Las preocupaciones incluyen el riesgo de que la IA «generativa», que puede crear texto, video, imágenes y audio, pueda usarse para crear información errónea, desplazar empleos o incluso ayudar a las personas a crear armas biológicas peligrosas. La IA plantea un «riesgo de extinción» similar al de las armas nucleares. , dicen los líderes tecnológicos Los críticos tecnológicos han señalado que algunos de los líderes que hicieron sonar la alarma, como el director ejecutivo de OpenAI, Sam Altman, están, no obstante, impulsando el desarrollo y la comercialización de la tecnología. Las empresas más pequeñas han acusado a los pesos pesados ​​de la IA, OpenAI, Google y Microsoft, de exagerar los riesgos de la IA para activar una regulación que dificultaría la competencia de los nuevos participantes. “Lo que pasa con las exageraciones es que hay una desconexión entre lo que se dice y lo que realmente es posible”, dijo Margaret Mitchell. , científico jefe de ética de Hugging Face, una nueva empresa de inteligencia artificial de código abierto con sede en Nueva York. «Tuvimos un período de luna de miel en el que la IA generativa era súper nueva para el público y solo podían ver lo bueno; a medida que la gente comenzaba a usarla, podían ver todos sus problemas».

Source link