El uso de IA genera un aumento de estafas digitales
El auge de la inteligencia artificial ha traído consigo un notable incremento de fraudes y ciberestafas que aprovechan la creación de contenido manipulado. Según un reciente estudio elaborado por Kaspersky, el 36 % de los usuarios ya ha sido víctima de intentos de estafa en los que interviene material adulterado por IA.
Formas más comunes de manipulación
Los intentos de fraude aprovechan la capacidad de la IA para generar y modificar diversos tipos de contenido. Entre los métodos más habituales destacan:
- Deepfakes: vídeos o audios en los que se suplantan voces y rostros de personas conocidas para engañar al receptor.
- Mensajes personalizados: chats y correos electrónicos generados automáticamente que simulan proceder de fuentes fiables.
- Imágenes o documentos falsificados: utilización de IA para alterar información en documentos o identidades digitales.
Asimismo, la suplantación de la voz de familiares o superiores jerárquicos mediante IA se ha consolidado como una técnica de ingeniería social cada vez más sofisticada.
El impacto en los usuarios y retos para los profesionales TI
Los resultados del estudio ponen de manifiesto la creciente dificultad que experimentan los usuarios para distinguir entre contenido legítimo y manipulado. Más de un tercio manifiesta haber recibido algún tipo de intento de estafa digital con intervención de la IA durante el último año.
Este panorama obliga a los responsables de sistemas, CTOs y departamentos de seguridad a reforzar sus mecanismos preventivos y dedicar más esfuerzos a la formación en ciberseguridad orientada a este nuevo perfil de amenaza. La verificación de la identidad y el desarrollo de herramientas para detectar alteraciones generadas por IA se convierten en prioridades.
Recomendaciones y recursos para combatir los fraudes con IA
La formación continua de los empleados y la implantación de soluciones avanzadas de detección son clave para limitar la efectividad de estos engaños. Entre las medidas recomendadas por los expertos destacan:
- Fomentar la cultura de la ciberseguridad entre todo el personal de la organización.
- Utilizar herramientas de análisis forense digital capaces de identificar deepfakes y documentos modificados por IA.
- Implementar sistemas de verificación de identidades en todas las comunicaciones sensibles.
Para ampliar información, puede consultarse el resumen del informe publicado en Silicon y revisar recursos oficiales sobre seguridad en la web del INCIBE.

