Estafas con inteligencia artificial rostro hombre barba repetido

Blog

Crecen las estafas con inteligencia artificial

Usan la suplantación de voces y rostros para engañar por videollamada

Cada vez más personas están siendo engañadas mediante estafas con inteligencia artificial, utilizando programas que clonan imagen y sonido. Ya no se trata solo de correos falsos o llamadas sospechosas: ahora los delincuentes pueden imitar tu voz, tu cara, o incluso hacer que parezca que estás en una videollamada… sin que seas tú.

Uno de los casos más impactantes ocurrió en Hong Kong, donde unos estafadores lograron que un empleado de una empresa transfiriera más de 25 millones de dólares creyendo que hablaba con su jefe en una videollamada. En realidad, era un video generado con IA que imitaba a la perfección la voz y el movimiento del directivo.

Pero esto no es todo. En varios países ya se han reportado llamadas falsas en las que alguien recibe un mensaje de voz con el tono exacto de un hijo, un hermano o de su pareja, en las que solicita ayuda urgente. En todos los casos, la llamada fue creada para realizar estafas con inteligencia artificial usando audios que la víctima tenía en sus redes sociales.

“Esto no es cosa del futuro, está pasando ahora”, explica Clara Méndez, experta en seguridad digital. “Con solo unos segundos de tu voz, la IA puede crear mensajes que suenan igual que tú. Y si tus fotos y videos están en internet, también pueden usarlos para hacer videos falsos”.

Además del daño económico, estas estafas también afectan emocionalmente. Algunas víctimas quedan marcadas por el miedo, especialmente cuando llegaron a pensar que un ser querido estaba en peligro.

¿Qué se puede hacer para evitar las estafas con inteligencia artificial?

Los expertos recomiendan ser muy cuidadosos con lo que se comparte en redes sociales, especialmente audios o videos, porque pueden ser manipulados y utilizados para estafas con inteligencia artificial. También es útil tener una palabra clave familiar que sirva para verificar si una llamada o mensaje es real.

Otra recomendación importante: si recibís un mensaje extraño o una llamada pidiendo dinero urgente, asegúrate de que no está en el marco de las estafas con inteligencia artificial: intenta contactar a la persona por otro medio antes de hacer nada.

La tecnología avanza rápido, y lamentablemente, también lo hacen los métodos de quienes quieren aprovecharse de los demás. Por eso, hoy más que nunca, estar informados es la mejor defensa.

En Impulso Cooperativo también trabajamos para proteger a las cooperativas frente a este tipo de riesgos. Ofrecemos servicios básicos pero esenciales de ciberseguridad, como la instalación y mantenimiento de antivirus, la implementación de sistemas de registro de actividad y mecanismos de autenticación que ayudan a evitar accesos no autorizados. Nuestro objetivo es que las cooperativas cuenten con una primera línea de defensa que sea efectiva y fácil de gestionar.

Además, estamos dando los primeros pasos para incorporar inteligencia artificial en nuestros procesos internos, con el fin de optimizar tareas, mejorar la seguridad y seguir aportando valor a nuestros proyectos. Y en breve, ofreceremos servicios para implementar la IA en los procesos de nuestros clientes.

Sabemos que la tecnología evoluciona rápido, igual que las estafas con inteligencia artificial, y queremos que nuestras cooperativas estén preparadas, informadas y protegidas. Porque hoy más que nunca, cuidar la identidad digital y los datos de las personas es parte fundamental de cuidar a la comunidad cooperativa.

Departamento web.

Artículos relacionados:

Automatizar para tener más tiempo

Instala ChatGPT en WhatsApp

compartir noticia

Quizás te interese

Menú

Impulso Cooperativo
Resumen de privacidad

La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.

Tienes toda la información de privacidad en nuestra página de política de privacidad y política de cookies.