D3Sign/Getty Imageedswhen La mayoría de la gente piensa en la IA, lo primero que probablemente viene a la mente no es la superinteligencia o la promesa de los agentes para aumentar la productividad, sino las estafas. Siempre ha habido estafadores entre nosotros, ese pequeño porcentaje de la población que utilizará cualquier medio disponible para estafar a otros de su dinero. La proliferación de herramientas de IA generativas avanzadas y fácilmente accesibles en los últimos años ha facilitado la actividad nefasta exponencialmente. También: Cumplir ChatGPT Agent, un nuevo asistente de IA listo para llevar a cabo tareas complejas para usted; pruebe ahora en un incidente memorable desde el año pasado, un empleado financiero en una empresa con sede en Hong Kong $ 25 millones para los frouditistas después de ser instrucciones en un video que cree en un video que cree en un video que cree en un video que cree en un video que les cree un video. De hecho, fueron defensores generados por IA. Y a principios de este mes, una parte desconocida usó AI para imitar la voz del secretario de Estado de los Estados Unidos Marco Rubio en las llamadas que salieron a un puñado de funcionarios del gobierno, incluido un miembro del Congreso. Y, sin embargo, en contra de la intuición, la IA también está siendo desplegada por compañías de servicios financieros para prevenir el fraude. En una encuesta reciente realizada por MasterCard y Financial Times Longitude (una agencia de marketing y una subsidiaria de Financial Times Group), el 42% de los emisores y el 26% de los adquirentes dijeron que las herramientas de IA les han ayudado a ahorrar más de $ 5 de los intentos de los intentos de los dos años. Chase u otro banco importante), mientras que los adquirentes son aquellos que aceptan pagos (piense en franja y cuadrado). También: Claude de Anthrope se sumerge en el análisis financiero. Esto es lo que es nuevo de estas organizaciones que han comenzado a utilizar herramientas de IA para mejorar su seguridad digital junto con métodos más tradicionales, como la autenticación de dos factores y la cifrado de extremo a extremo, según un informe de los hallazgos de la encuesta publicados el mes pasado. Los encuestados informaron que usaron una variedad de tecnicifes con AI para aumentar sus cibernidades cibernéticas y proteger contra la fraude. La técnica más comúnmente citada fue la detección de anomalías, es decir, una alarma automatizada que marca las solicitudes inusuales. Otros casos de uso incluyeron escanear para vulnerabilidades en los sistemas de ciberseguridad, modelado de amenazas predictivas, «piratería ética» (otra forma de búsqueda de vulnerabilidades del sistema) y la mejora de los empleados. La gran mayoría de los encuestados (83%) también dijo «que AI reduce el tiempo necesario para la investigación de los frudos y la resolución», al tiempo que reduce los clientes. Aún más (90%) acordó que, a menos que su uso de IA para la prevención de fraude aumente en los próximos años, sus «pérdidas financieras probablemente aumentarán». También: los investigadores de OpenAI, Anthrope, Meta y Google emiten una advertencia de seguridad conjunta de IA, aquí están por lo que las barreras de la Sepaveral están impidiendo las compañías de servicios financieros encuestados de la adopción de las herramientas de IA de recepción de fraude a escala. El principal de ellos son las complejidades técnicas de integrar nuevos sistemas de IA con software y datos existentes que ya está implementado dentro de una organización. Eso es seguido de cerca por las preocupaciones sobre el ritmo rápido al que están evolucionando las tácticas de fraude en sí mismas, lo que muchos temen superará rápidamente cualquier intento de usar la prevención de fraude con AI. ¿Quieres más historias sobre AI? Regístrese para la innovación, nuestro boletín semanal.