El gobierno del Reino Unido ha anunciado un nuevo programa de investigación de seguridad de la IA que espera acelere la adopción de la tecnología al mejorar la resiliencia a los deepfakes, la desinformación, los ciberataques y otras amenazas de la IA. La primera fase del Programa de Subvenciones de Seguridad Sistémica del AI Safety Institute proporcionará a los investigadores hasta £200.000 ($260.000) en subvenciones. Lanzado en asociación con el Consejo de Investigación en Ingeniería y Ciencias Físicas (EPSRC) e Innovate UK, apoyará la investigación para mitigar las amenazas de la IA y fallas sistémicas potencialmente importantes. La esperanza es que este escrutinio científico identifique los riesgos más críticos de la llamada “adopción de IA de frontera” en sectores como la salud, la energía y los servicios financieros, junto con posibles soluciones que ayudarán al desarrollo de herramientas prácticas para mitigar estos riesgos. Lea más sobre la seguridad de la IA: Cumbre de IA en Seúl: 16 empresas de IA firman compromisos de seguridad de la IA de Frontier. El secretario de Ciencia, Innovación y Tecnología, Peter Kyle, dijo que su objetivo es acelerar la adopción de la IA para impulsar el crecimiento y mejorar los servicios públicos. “Sin embargo, lo fundamental de ese plan es aumentar la confianza del público en las innovaciones que ya están generando cambios reales. Ahí es donde entra en juego este programa de subvenciones”, añadió. «Al aprovechar una amplia gama de conocimientos especializados, desde la industria hasta el mundo académico, estamos apoyando la investigación que garantizará que, a medida que implementemos sistemas de IA en toda nuestra economía, puedan ser seguros y confiables en el punto de entrega». En última instancia, el Programa de Subvenciones para la Seguridad Sistémica respaldará alrededor de 20 proyectos con una financiación de hasta 200.000 libras esterlinas cada uno en esta primera fase. Eso es alrededor de la mitad de los 8,5 millones de libras anunciados por el gobierno anterior en la Cumbre AI de Seúl de mayo. Habrá financiación adicional disponible a medida que se lancen nuevas fases. “Al reunir a investigadores de una amplia gama de disciplinas y orígenes en este proceso de contribuir a una base más amplia de investigación en IA, estamos acumulando evidencia empírica de dónde los modelos de IA podrían presentar riesgos para que podamos desarrollar un enfoque integral para la seguridad de la IA. para el bien público mundial”, dijo el presidente del AI Safety Institute, Ian Hogarth. Una investigación publicada en mayo reveló que el 30% de los profesionales de seguridad de la información habían experimentado un incidente relacionado con deepfakes en los 12 meses anteriores, la segunda respuesta más popular después de «infección de malware».