VentureBeat presenta: AI Unleashed: un evento ejecutivo exclusivo para líderes de datos empresariales. Establezca contactos y aprenda con pares de la industria. Más información No hay duda de que el ritmo del desarrollo de la IA se ha acelerado durante el último año. Debido a los rápidos avances de la tecnología, la idea de que la IA algún día podría ser más inteligente que las personas ha pasado de la ciencia ficción a una realidad plausible a corto plazo. Geoffrey Hinton, ganador del Premio Turing, concluyó en mayo que el momento en que la IA podría ser más inteligente que las personas no era dentro de 50 o 60 años como había pensado inicialmente, sino posiblemente en 2028. Además, el cofundador de DeepMind, Shane Legg, dijo recientemente que cree que hay una probabilidad de 50-50 de lograr inteligencia artificial general (AGI) para 2028. (AGI se refiere al punto en el que los sistemas de IA poseen habilidades cognitivas generales y pueden realizar tareas intelectuales al nivel de los humanos o más allá, en lugar de estar enfocados estrechamente Esta posibilidad a corto plazo ha provocado debates sólidos (y en ocasiones acalorados) sobre la IA, específicamente las implicaciones éticas y el futuro regulatorio. Estos debates han pasado de los círculos académicos a la vanguardia de la política global, impulsando a gobiernos, líderes industriales y ciudadanos preocupados a abordar cuestiones que pueden dar forma al futuro de la humanidad. Estos debates han dado un gran paso adelante con varios anuncios regulatorios importantes, aunque persiste una ambigüedad considerable. Evento AI Unleashed Una velada exclusiva de conocimientos y networking a la que solo se puede invitar, diseñada para altos ejecutivos empresariales que supervisan pilas de datos y estrategias. Más información El debate sobre los riesgos existenciales de la IA Difícilmente existe un acuerdo universal sobre las predicciones sobre la IA, aparte de la probabilidad de que se produzcan grandes cambios en el futuro. Sin embargo, los debates han generado especulaciones sobre cómo (y en qué medida) los desarrollos de la IA podrían salir mal. Por ejemplo, el director ejecutivo de OpenAI, Sam Altman, expresó sin rodeos sus opiniones durante una audiencia en el Congreso en mayo sobre los peligros que podría causar la IA. “Creo que si esta tecnología sale mal, puede salir bastante mal. Y queremos expresarnos al respecto. Queremos trabajar con el gobierno para evitar que eso suceda”. Altman no estaba solo en esta opinión. «Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear», se lee en una declaración de una sola frase publicada a finales de mayo por la organización sin fines de lucro Center for AI Safety. Fue firmado por cientos de personas, entre ellas Altman y 38 miembros de la unidad DeepMind AI de Google. Este punto de vista se expresó en el apogeo del doomerismo de la IA, cuando las preocupaciones sobre posibles riesgos existenciales eran más rampantes. Sin duda, es razonable especular sobre estas cuestiones a medida que nos acercamos a 2028 y preguntarnos hasta qué punto estamos preparados para los riesgos potenciales. Sin embargo, no todo el mundo cree que los riesgos sean tan altos, al menos no los riesgos existenciales más extremos que motivan gran parte de la conversación sobre regulación. Voces de escepticismo y preocupación de la industria Andrew Ng, ex director de Google Brain, es uno de los que se opone a los escenarios apocalípticos. Recientemente dijo que la “mala idea de que la IA podría hacernos extinguir” se estaba fusionando con la “mala idea de que una buena manera de hacer que la IA sea más segura es imponer onerosos requisitos de licencia” a la industria de la IA. En opinión de Ng, esta es una forma para que las grandes tecnologías creen una captura regulatoria para garantizar que las alternativas de código abierto no puedan competir. La captura regulatoria es un concepto en el que una agencia reguladora promulga políticas que favorecen a la industria a expensas del interés público más amplio, en este caso con regulaciones que son demasiado onerosas o costosas para que las cumplan las empresas más pequeñas. El científico jefe de IA de Meta, Yann LeCun, quien, al igual que Hinton, es ganador del Premio Turing, fue un paso más allá el fin de semana pasado. En una publicación en X, anteriormente conocido como Twitter, afirmó que Altman, el director ejecutivo de Anthropic, Dario Amodei, y el director ejecutivo de Google DeepMind, Demis Hassabis, están participando en un «lobby corporativo masivo» al promover escenarios de IA apocalípticos que son «absurdos». El efecto neto de este lobby, sostuvo, sería regulaciones que efectivamente limiten los proyectos de IA de código abierto debido a los altos costos de cumplir con las regulaciones, dejando en la práctica solo “un pequeño número de empresas”. [that] controlará la IA”. El impulso regulatorio Sin embargo, la marcha hacia la regulación se ha ido acelerando. En julio, la Casa Blanca anunció un compromiso voluntario de OpenAI y otros desarrolladores líderes de IA, incluidos Anthropic, Alphabet, Meta y Microsoft, que se comprometieron a crear formas de probar la seguridad de sus herramientas antes de su lanzamiento público. En septiembre se sumaron a este compromiso otras empresas, con lo que el total asciende a 15 firmas. Postura del gobierno de Estados Unidos La Casa Blanca emitió esta semana una amplia Orden Ejecutiva sobre “Inteligencia artificial segura y confiable”, con el objetivo de lograr un enfoque equilibrado entre desarrollo sin restricciones y una supervisión estricta. Según Wired, la orden está diseñada para promover un uso más amplio de la IA y mantener la IA comercial bajo control, con docenas de directivas que las agencias federales deben completar durante el próximo año. Estas directivas cubren una variedad de temas, desde seguridad nacional e inmigración hasta vivienda y atención médica, e imponen nuevos requisitos para que las empresas de inteligencia artificial compartan los resultados de las pruebas de seguridad con el gobierno federal. Kevin Roose, reportero de tecnología del New York Times, señaló que la orden parece tener un poco para todos, lo que resume el intento de la Casa Blanca de recorrer un camino intermedio en la gobernanza de la IA. La consultora EY ha proporcionado un análisis exhaustivo. Si bien no tiene la permanencia de la legislación (el próximo presidente puede simplemente revertirla, si lo desea), esta es una estratagema estratégica para poner la visión de Estados Unidos en el centro de la carrera global de alto riesgo para influir en el futuro de la gobernanza de la IA. Según el presidente Biden, la Orden Ejecutiva “es la acción más importante que cualquier gobierno del mundo haya adoptado en materia de seguridad y confianza en la IA”. Ryan Heath, de Axios, comentó que “el enfoque es más una zanahoria que un palo, pero podría ser suficiente para que Estados Unidos se adelante a sus rivales extranjeros en la carrera por regular la IA”. En su boletín Platformer, Casey Newton aplaudió a la administración. Han “desarrollado suficiente experiencia a nivel federal [to] redactar una orden ejecutiva de amplio alcance pero matizada que debería mitigar al menos algunos daños y al mismo tiempo dejar espacio para la exploración y el espíritu empresarial”. La ‘Copa Mundial’ de la política de IA No es sólo Estados Unidos quien está tomando medidas para dar forma al futuro de la IA. El Centro para la IA y la Política Digital dijo recientemente que la semana pasada fue la “Copa Mundial” de la política de IA. Además de Estados Unidos, el G7 también anunció un conjunto de 11 principios de IA no vinculantes, llamando a “las organizaciones que desarrollan sistemas avanzados de IA a comprometerse con la aplicación del Código de Conducta Internacional”. Al igual que la orden estadounidense, el código del G7 está diseñado para fomentar “sistemas de inteligencia artificial seguros y confiables”. Sin embargo, como señaló VentureBeat, «diferentes jurisdicciones pueden adoptar sus propios enfoques únicos para implementar estos principios rectores». En la gran final de la semana pasada, la Cumbre de Seguridad de la IA del Reino Unido reunió a gobiernos, expertos en investigación, grupos de la sociedad civil y empresas líderes en IA de todo el mundo para discutir los riesgos de la IA y cómo pueden mitigarse. La Cumbre se centró particularmente en los modelos de “IA de frontera”, los modelos de lenguaje grande (LLM) más avanzados con capacidades que se acercan o superan el desempeño a nivel humano en múltiples tareas, incluidas las desarrolladas por Alphabet, Anthropic, OpenAI y varias otras empresas. Como informó The New York Times, un resultado de este cónclave es la “Declaración de Bletchley”, firmada por representantes de 28 países, incluidos Estados Unidos y China, que advirtió sobre los peligros que plantean los sistemas fronterizos de inteligencia artificial más avanzados. Considerada por el gobierno del Reino Unido como un “primer acuerdo mundial” para gestionar lo que consideran las formas más riesgosas de IA, la declaración agrega: “Resolvemos trabajar juntos de manera inclusiva para garantizar una IA responsable, confiable y centrada en el ser humano. » Sin embargo, el acuerdo no estableció ningún objetivo político específico. Sin embargo, David Meyer de Fortune calificó esto como un “comienzo prometedor” para la cooperación internacional en un tema que sólo surgió como un problema serio el año pasado. Equilibrar la innovación y la regulación A medida que nos acercamos al horizonte esbozado por expertos como Geoffrey Hinton y Shane Legg, es evidente que lo que está en juego en el desarrollo de la IA está aumentando. Desde la Casa Blanca hasta el G7, la UE, las Naciones Unidas, China y el Reino Unido, los marcos regulatorios se han convertido en una máxima prioridad. Estos primeros esfuerzos tienen como objetivo mitigar los riesgos y al mismo tiempo fomentar la innovación, aunque persisten dudas sobre su eficacia e imparcialidad en la implementación real. Lo que está muy claro es que la IA es un tema de importancia global. Los próximos años serán cruciales para navegar las complejidades de esta dualidad: equilibrar la promesa de innovaciones positivas que alteran la vida, como tratamientos médicos más eficaces y la lucha contra el cambio climático, con el imperativo de salvaguardias éticas y sociales. Junto con los gobiernos, las empresas y el mundo académico, el activismo de base y la participación ciudadana se están convirtiendo cada vez más en fuerzas vitales para dar forma al futuro de la IA. Es un desafío colectivo que dará forma no sólo a la industria tecnológica sino potencialmente al rumbo futuro de la humanidad. DataDecisionMakers ¡Bienvenido a la comunidad VentureBeat! DataDecisionMakers es el lugar donde los expertos, incluidos los técnicos que trabajan con datos, pueden compartir conocimientos e innovación relacionados con los datos. Si desea leer sobre ideas de vanguardia e información actualizada, mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers. ¡Incluso podrías considerar contribuir con un artículo propio! Leer más de DataDecisionMakers

Source link