Una nueva encuesta global publicada esta semana por la consultora Broadridge Financial Solutions, difundida originalmente por Axios, revela un dato inquietante: 7 de cada 10 ejecutivos del sector financiero consideran que la inteligencia artificial representa un riesgo creciente para la seguridad operativa y reputacional de sus organizaciones. El estudio, basado en entrevistas a más de 1.500 líderes de bancos, firmas de inversión y aseguradoras en más de 20 países, muestra cómo la percepción de amenaza supera, por primera vez, al entusiasmo por la innovación.
La preocupación no es teórica. El informe destaca que más del 60 % de las firmas encuestadas ya han experimentado intentos de fraude potenciado por IA, incluyendo deepfakes dirigidos a simular voces, identidades y autorizaciones internas, con el objetivo de vulnerar sistemas, autorizar transacciones falsas o manipular comunicaciones.
De oportunidad disruptiva a riesgo sistémico
Durante los últimos cinco años, el discurso dominante sobre inteligencia artificial en finanzas estuvo centrado en su potencial transformador: automatización de procesos, análisis predictivo, asesoramiento algorítmico, eficiencia operativa. Pero en 2025, la conversación empieza a girar. Lo que fue presentado como una ventaja competitiva hoy se perfila como una amenaza estratégica a la integridad del sistema financiero global.
El uso malicioso de IA generativa permite crear audio, video y texto indistinguibles del lenguaje humano real. Esto ha dado lugar a una nueva ola de delitos financieros que ya no requieren vulnerar sistemas por fuerza bruta, sino explotar la confianza y la simulación de identidad. La modalidad más alarmante: deepfakes de directivos pidiendo transferencias urgentes, cambios en las claves de acceso o validación de operaciones.
Según el informe de Broadridge, el 74 % de las firmas considera que su infraestructura digital está “parcialmente preparada” para enfrentar amenazas potenciadas por IA, mientras que sólo un 12 % cree estar completamente equipada para detectarlas y neutralizarlas en tiempo real.
Qué están haciendo las entidades financieras
Frente a esta amenaza, algunas instituciones han comenzado a incorporar IA defensiva, sistemas diseñados para detectar patrones inusuales, inconsistencias de voz o lenguaje y anomalías operativas que puedan indicar intentos de manipulación.
También se están multiplicando los programas internos de “higiene digital ejecutiva”, que incluyen entrenamiento para identificar deepfakes, simulacros de ataque y políticas de doble autenticación verbal en operaciones sensibles.
En mercados como Estados Unidos, Reino Unido y Singapur, los reguladores ya están exigiendo a los bancos auditorías de ciberseguridad adaptadas a entornos de IA, e incluso protocolos para reportar incidentes de manipulación con tecnologías generativas.
Pero la respuesta aún es desigual, especialmente en economías emergentes donde el acceso a estas herramientas defensivas es limitado y los marcos normativos no contemplan aún las amenazas algorítmicas emergentes.
Perspectiva: ¿qué está en juego?
La convergencia entre inteligencia artificial y finanzas plantea una paradoja: las mismas herramientas que prometen eficiencia, personalización y escalabilidad, son utilizadas para generar caos, manipulación y filtraciones de datos.
El riesgo no se limita al fraude puntual. Una cadena de simulaciones exitosas puede desatar efectos en cascada sobre la confianza del sistema, impactar la integridad de las bolsas, las operaciones de trading algorítmico o los canales institucionales de pago.
A futuro, los analistas plantean tres grandes desafíos:
- Crear estándares internacionales para el uso y monitoreo de IA en el sistema financiero, con protocolos comunes de auditoría, transparencia algorítmica y respuesta rápida.
- Desarrollar marcos legales que responsabilicen a desarrolladores y plataformas tecnológicas cuyos modelos generativos sean utilizados para actividades criminales.
- Educar a empleados, usuarios y altos ejecutivos en los riesgos del engaño algorítmico, para reducir la vulnerabilidad humana ante simulaciones cada vez más creíbles.
Una advertencia que también toca a América Latina
Si bien la encuesta tiene foco global, los riesgos son particularmente relevantes para la región. En América Latina, donde las brechas de ciberseguridad son significativas y el avance de la bancarización digital fue acelerado por la pandemia, los sistemas financieros enfrentan una exposición alta y creciente al fraude asistido por IA.
Argentina, Brasil, México y Colombia han reportado en los últimos 18 meses un incremento notable de phishing con voz clonada, correos automatizados con lenguaje natural perfecto y falsificaciones de identidades institucionales.
En ese contexto, la advertencia de Broadridge no puede ser ignorada. La IA generativa está dejando de ser una herramienta de productividad para convertirse en un nuevo terreno de conflicto, en el que se juegan no sólo activos económicos sino la legitimidad y confianza del sistema.
Redacción TecnoEnergía | 01 de agosto de 2025