Un grupo de investigadores de seguridad de la Universidad de Rutgers, en Estados Unidos, ha revelado un avance alarmante en el ámbito del fraude telefónico. En un estudio publicado el 8 de agosto de 2023, demostraron cómo las llamadas falsas, potenciadas por la Inteligencia Artificial (IA), podrían convertirse en una amenaza aún más insidiosa. Este avance permite a los ciberdelincuentes realizar llamadas masivas sin intervención humana, lo que complica la detección de estos engaños.
El potencial de ScamAgent
Los investigadores han desarrollado un sistema llamado ScamAgent, que utiliza agentes de lenguaje de gran tamaño (LLM) para simular conversaciones humanas. Esto significa que los atacantes pueden llevar a cabo estafas completas, adaptándose en tiempo real a las respuestas de las víctimas, lo que incrementa la probabilidad de éxito. La Instituto Nacional de Ciberseguridad de España (INCIBE) califica el spoofing telefónico como un problema grave, que puede resultar en el robo de información personal y financiera.
El proyecto, liderado por Sanket Badhe, demuestra que ScamAgent puede mantener conversaciones prolongadas y recordar detalles, haciendo que las víctimas se sientan cómodas y menos sospechosas. A diferencia de las llamadas fraudulentas tradicionales, que eran más simples y directas, este nuevo enfoque hace que sea mucho más difícil detectar el engaño.
Estrategias y eficacia de los modelos de IA
ScamAgent implementó tres modelos de IA reconocidos: GPT-4 de OpenAI, Claude 3.7 de Anthropic y LLaMA3-70B de Meta. Cada uno fue probado en escenarios de estafa realistas, como reclamos de premios de lotería o suplantación de funcionarios. Los resultados fueron sorprendentes. GPT-4, por ejemplo, logró una tasa de éxito del 85-90% en situaciones controladas, con solo un 12% de las víctimas simuladas capaces de detectar que estaban hablando con una IA.
El modelo Claude 3.7 mostró una eficacia media del 70-75% con una tasa de detección del 18%, mientras que LLaMA3-70B resultó ser el más variable, con un éxito del 60-65% y una detección del 28%. Esto resalta la evolución de las técnicas de estafa y el peligro que representan para los ciudadanos.
Los investigadores también utilizaron víctimas ficticias con perfiles diversos para simular una variedad de reacciones. Este enfoque les permitió ajustar sus tácticas y estrategias en función de la interacción con cada individuo, lo que hace que la experiencia sea aún más convincente.
En resumen, los hallazgos de este estudio subrayan la urgencia de estar alerta ante las llamadas telefónicas. Las estafas impulsadas por IA no solo son una amenaza real, sino que están evolucionando rápidamente. Para protegerse, es esencial que los usuarios mantengan la cautela y sigan ciertos consejos de seguridad.