Los expertos que investigan los avances en inteligencia artificial advierten ahora que los modelos de IA podrían crear los próximos «patógenos mejorados capaces de causar grandes epidemias o incluso pandemias». La declaración fue hecha en un artículo publicado en la revista Science por coautores de la Universidad Johns Hopkins, la Universidad de Stanford y la Universidad de Fordham, quienes dicen que los modelos de IA están siendo «entrenados en o [are] «capaz de manipular significativamente cantidades sustanciales de datos biológicos, desde acelerar el diseño de medicamentos y vacunas hasta mejorar el rendimiento de los cultivos». «Pero como ocurre con cualquier nueva tecnología poderosa, estos modelos biológicos también plantearán riesgos considerables. Debido a su naturaleza de propósito general, el mismo modelo biológico capaz de diseñar un vector viral benigno para administrar terapia génica podría usarse para diseñar un virus más patógeno capaz de evadir la inmunidad inducida por la vacuna», escribieron los investigadores en su resumen. «Los compromisos voluntarios entre los desarrolladores para evaluar las capacidades potencialmente peligrosas de los modelos biológicos son significativos e importantes, pero no pueden sostenerse por sí solos», continuó el documento. «Proponemos que los gobiernos nacionales, incluido Estados Unidos, aprueben leyes y establezcan reglas obligatorias que eviten que los modelos biológicos avanzados contribuyan sustancialmente a peligros a gran escala, como la creación de patógenos nuevos o mejorados capaces de causar grandes epidemias o incluso pandemias». EL EJÉRCITO IMPULSA NUEVAS ESTRATEGIAS PARA SALVAGUARDAR A LAS TROPAS BAJO EL PLAN DE IMPLEMENTACIÓN DE IA La gente hace fila para recibir pruebas de coronavirus en Washington, DC, en diciembre de 2021. Un nuevo artículo publicado en Science advierte sobre los riesgos potenciales de los modelos biológicos de IA. (Ting Shen/Xinhua vía Getty Images) Aunque los modelos de IA actuales probablemente no «contribuyan sustancialmente» a los riesgos biológicos, los «ingredientes esenciales para crear modelos biológicos avanzados altamente preocupantes pueden ya existir o pronto lo harán», dijeron los autores del artículo citados por Time. Según se informa, recomiendan que los gobiernos creen una «batería de pruebas» que los modelos biológicos de IA deben realizar antes de ser lanzados al público, y luego, a partir de ahí, los funcionarios pueden determinar cuán restringido debe ser el acceso a los modelos. «Necesitamos planificar ahora», dijo Anita Cicero, subdirectora del Centro de Seguridad Sanitaria de Johns Hopkins y una de las coautoras del artículo, según Time. «Será necesaria cierta supervisión y requisitos gubernamentales estructurados para reducir los riesgos de herramientas especialmente poderosas en el futuro». Según se informa, Cicero agregó que los riesgos biológicos de los modelos de IA podrían convertirse en una realidad «dentro de los próximos 20 años, y tal vez incluso mucho menos» sin la supervisión adecuada. ELON MUSK APOYA EL PROYECTO DE LEY DE REGULACIÓN DE LA IA EN CALIFORNIA: «UNA DECISIÓN DIFÍCIL» Los autores del artículo escriben que «el mismo modelo biológico capaz de diseñar un vector viral benigno para administrar terapia genética podría usarse para diseñar un virus más patógeno capaz de evadir la inmunidad inducida por la vacuna». (iStock) «Si la pregunta es si la IA puede usarse para diseñar pandemias, con un 100% de certeza. Y en cuanto a hasta qué punto en el futuro deberíamos estar preocupados por ello, creo que la IA está avanzando a un ritmo para el que la mayoría de las personas no están preparadas», dijo a Fox News Digital Paul Powers, experto en IA y director ejecutivo de Physna, una empresa que ayuda a las computadoras a analizar modelos 3D y objetos geométricos. «El problema es que no son sólo los gobiernos y las grandes empresas los que tienen acceso a estas capacidades cada vez más poderosas, sino también los individuos y las pequeñas empresas», continuó, pero señaló que «el problema con la regulación aquí es que, por mucho que todos quieran un conjunto global de reglas para esto, la realidad es que se aplica a nivel nacional. En segundo lugar, la regulación no avanza a la velocidad de la IA. La regulación ni siquiera puede seguir el ritmo de la tecnología como lo ha hecho hasta ahora, con la velocidad tradicional». «Lo que están proponiendo que se haga es que el gobierno apruebe ciertos modelos de entrenamiento de IA y ciertas aplicaciones de IA. Pero la realidad es ¿cómo se controla eso?», dijo Powers. Un niño recibe la vacuna Pfizer-BioNTech contra la COVID-19 en Bloomfield Hills, Michigan, el 13 de mayo de 2021. (Jeff Kowalsky/AFP vía Getty Images)HAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS «Hay ciertos ácidos nucleicos que son esencialmente los componentes básicos de cualquier posible patógeno o virus real», agregó Powers, y dijo: «Yo comenzaría por ahí… Comenzaría por tratar de tomar medidas enérgicas sobre quién puede acceder primero a los componentes básicos». Greg Norman es reportero de Fox News Digital.