El grupo de defensa de la seguridad Dawn Project ha intensificado su campaña para ilustrar las fallas de los sistemas de inteligencia artificial (IA) y por qué no deberían implementarse en casos de uso críticos para la seguridad. Dawn Project está haciendo campaña para crear conciencia sobre el peligro de lo que llama «ataque cibernético cataclísmico» que resulta del uso de software de grado comercial fácilmente pirateado y plagado de errores en aplicaciones críticas para la seguridad, como los sistemas de agua y la red eléctrica. En su sitio web, el grupo afirmó que a pesar de los defectos obvios en los sistemas de IA, como los chatbots que aún no responden a preguntas básicas o reescriben los hechos basándose en malentendidos de su entrada de entrenamiento, los «pioneros» de la IA continúan exagerando el progreso que han logrado estos sistemas. Este progreso, según Dawn Project, sugiere que los desarrolladores de IA ahora están listos para implementar sistemas de IA en infraestructuras importantes en todo el mundo. «Cuando los sistemas de IA se utilizan en tecnologías importantes con un impacto potencialmente devastador, es fundamental que nunca fallen en ningún incidente crítico para la seguridad», dijo el grupo. “No se pueden ignorar ni subestimar los peligros de liberar estas tecnologías a una escala más amplia para su uso en armas o maquinaria pesada, incluidos los automóviles”. Como parte de su campaña, que ha incluido publicidad en The Wall Street Journal y The New York Times para crear conciencia sobre los riesgos inherentes de la IA, Dan O’Dowd, empresario de software y fundador de The Dawn Project, ha denunciado el software de conducción autónoma completa impulsado por IA de Tesla. Dijo que incluso después de 10 años de desarrollo, la tecnología de IA de Tesla todavía adelanta ilegalmente a un autobús escolar parado y atropella a niños que cruzan la calle. La Administración Nacional de Seguridad del Tráfico en las Carreteras de Estados Unidos ha investigado anteriormente si el piloto automático de Tesla contenía un defecto que creaba un riesgo irrazonable para la seguridad de los vehículos de motor. Su evaluación implicó un análisis exhaustivo de los accidentes, un análisis de los factores humanos, evaluaciones de los vehículos y una evaluación de la autoridad de control del vehículo y de las tecnologías de participación del conductor. La investigación de la Oficina de Defectos de la NHTSA afirmó que al menos 13 accidentes implicaron una o más muertes y muchos más con lesiones graves en los que el mal uso previsible del sistema por parte del conductor jugó un papel aparente. En su sitio web, The Dawn Project trazó una analogía entre el jugador, que insiste en que su «sistema» es sólido, y los defensores de la IA que piden grandes sumas de dinero y plantas de energía para construir sistemas de IA aún más grandes. «Afirman ser los maestros de la tecnología que transportará a la humanidad a un paraíso donde todos obtienen todo lo que quieren y nadie tiene que trabajar, o tal vez exterminará a todos», dijo el grupo. «Son simplemente predicadores itinerantes de la era moderna que venden medicinas patentadas». El anuncio describe a Microsoft, Google y OpenAI como organizaciones que venden aceite de serpiente de IA. El anuncio afirma que Microsoft invirtió $ 13 mil millones en ChatGPT de OpenAl, pero cuando se le pidió que enumerara los estados de EE. UU. que terminaban con la letra ‘Y’, tres de las cinco respuestas que dio eran incorrectas. «Los investigadores de IA aceptan que las ‘alucinaciones’ son una debilidad fundamental e irresoluble de los grandes modelos de lenguaje y admiten que no pueden explicar por qué las IA toman ciertas malas decisiones», dijo O’Dowd. «Debemos exigir consistencia y confiabilidad en nuestros sistemas críticos de seguridad. Debemos rechazar las IA alucinantes y aplicar los mismos estándares rigurosos de seguridad de software que exigimos para la seguridad nuclear a la infraestructura crítica de la que dependen la sociedad y millones de vidas”. El Proyecto Dawn advirtió que el software de calidad comercial no debe usarse para ninguna aplicación donde exista potencial de dañar o matar a una persona. “Ya se ha demostrado que estos sistemas no son aptos para el propósito”, dijo. “Entonces, ¿cómo pueden los maestros de la tecnología afirmar que están listos para ser utilizados en soluciones de infraestructura potencialmente mortales?”