Magister CTO
Ciberseguridad

El 36 % de usuarios sufre estafas con contenido manipulado por IA

Aumentan las ciberestafas impulsadas por IA: un 36% de los usuarios, afectados según Kaspersky

El uso de IA genera un aumento de estafas digitales

El auge de la inteligencia artificial ha traído consigo un notable incremento de fraudes y ciberestafas que aprovechan la creación de contenido manipulado. Según un reciente estudio elaborado por Kaspersky, el 36 % de los usuarios ya ha sido víctima de intentos de estafa en los que interviene material adulterado por IA.


Formas más comunes de manipulación

Los intentos de fraude aprovechan la capacidad de la IA para generar y modificar diversos tipos de contenido. Entre los métodos más habituales destacan:

  • Deepfakes: vídeos o audios en los que se suplantan voces y rostros de personas conocidas para engañar al receptor.
  • Mensajes personalizados: chats y correos electrónicos generados automáticamente que simulan proceder de fuentes fiables.
  • Imágenes o documentos falsificados: utilización de IA para alterar información en documentos o identidades digitales.

Asimismo, la suplantación de la voz de familiares o superiores jerárquicos mediante IA se ha consolidado como una técnica de ingeniería social cada vez más sofisticada.


El impacto en los usuarios y retos para los profesionales TI

Los resultados del estudio ponen de manifiesto la creciente dificultad que experimentan los usuarios para distinguir entre contenido legítimo y manipulado. Más de un tercio manifiesta haber recibido algún tipo de intento de estafa digital con intervención de la IA durante el último año.

Este panorama obliga a los responsables de sistemas, CTOs y departamentos de seguridad a reforzar sus mecanismos preventivos y dedicar más esfuerzos a la formación en ciberseguridad orientada a este nuevo perfil de amenaza. La verificación de la identidad y el desarrollo de herramientas para detectar alteraciones generadas por IA se convierten en prioridades.


Recomendaciones y recursos para combatir los fraudes con IA

La formación continua de los empleados y la implantación de soluciones avanzadas de detección son clave para limitar la efectividad de estos engaños. Entre las medidas recomendadas por los expertos destacan:

  • Fomentar la cultura de la ciberseguridad entre todo el personal de la organización.
  • Utilizar herramientas de análisis forense digital capaces de identificar deepfakes y documentos modificados por IA.
  • Implementar sistemas de verificación de identidades en todas las comunicaciones sensibles.

Para ampliar información, puede consultarse el resumen del informe publicado en Silicon y revisar recursos oficiales sobre seguridad en la web del INCIBE.

Related Articles

Empresas españolas vulnerables ante riesgos externos

Carlos Ibáñez

Ataques cibernéticos en Oracle comprometen datos de organizaciones

Carlos Ibáñez

Brecha de datos en Discord afecta a 70.000 usuarios

Carlos Ibáñez