Saltar al reproductorSaltar al contenido principalSaltar al pie de página
  • 6/6/2025
La inteligencia artificial (IA) ha revolucionado numerosos aspectos de nuestra vida, pero también ha abierto nuevas puertas a los ciberdelincuentes. El uso generalizado de sistemas de autenticación reforzada está llevando a los estafadores a cambiar sus prácticas e intensificar sus intentos de fraude empleando la ingeniería social. En este sentido, las estafas por IA son una creciente preocupación, ya que los estafadores utilizan esta tecnología para crear engaños cada vez más sofisticados y difíciles de detectar.

Categoría

🗞
Noticias
Transcripción
00:00Música
00:00Proseguimos con más de los encadenamientos tecnocientíficos
00:21ganados al servicio de nuestros pueblos de la patria grande.
00:24Esto es Atomun.
00:25Imaginen por un momento ver un video de una celebridad o de un ser querido pidiendo ayuda o dinero.
00:33Pues ese es el poder del digfake.
00:35Con el uso de la inteligencia artificial estos digfake están haciendo que sea increíblemente difícil
00:42para las personas distinguir las solicitudes reales de las fraudulentas
00:47ya que las señales de audio y visuales que alguna vez insinuaron una falsificación
00:52son cada vez menos obvias.
00:56A razón de ello, nuestra bitácora cognitiva de la jornada explora las tendencias en estafas
01:02propiciadas por la computación cognitiva.
01:06Los detalles de inmediato, viajeros y viajeras del saber.
01:09La inteligencia artificial mejora nuestra vida con diagnósticos médicos, asistentes virtuales
01:23y traducción en tiempo real.
01:25Pero también potencia el fraude de identidad, facilitando estafas más creíbles y difíciles
01:30de detectar.
01:31Frente a sus beneficios, la IA plantea un desafío urgente.
01:35Avanzar sin perder de vista la ciberseguridad.
01:38Según un estudio publicado en 2025 por la firma de identidad digital Signicat, los intentos
01:45de fraude en Europa han aumentado un 80% en los últimos tres años.
01:49El uso de la inteligencia artificial ha elevado la sostificación de estas estafas, dificultando
01:55su detección y prevención por parte de servicios financieros y vintage.
02:00Uno de los métodos más alarmantes es el uso de deepfakes, que ya representa el 6,5% del
02:06total de fraudes, con un aumento del 2,137% desde 2022.
02:12Frente a esta nueva realidad, la ciberseguridad tecnológica deberá avanzar al ritmo de la
02:17IA. A continuación, veamos las formas más comunes de estafa digital en línea, generando
02:22modalidades más creíbles y difíciles de detectar.
02:25Entre las más comunes destacan.
02:30Deepfakes.
02:32Videos y audios falsos generados con IA que imitan con gran realismo la voz o apariencia de
02:37figuras públicas, ejecutivos o familiares.
02:40Suplantan identidades para obtener dinero o información confidencial.
02:47Pishing con IA.
02:49Correos electrónicos que imitan a instituciones legítimas, creados con IA para parecer auténticos.
02:55Incluyen enlaces o archivos diseñados para robar datos personales o bancarios.
02:59Chats bots fraudulentos.
03:05Estafadores usan asistentes conversacionales impulsados por la IA para hacerse pasar por
03:10personal de atención al cliente o directivos, engañando a sus usuarios para obtener datos
03:15o pagos.
03:18Clonación de voz.
03:19A partir de grabaciones reales, la IA reproduce la voz de un ser querido para simular llamadas
03:24de emergencia o solicitar transferencias urgentes.
03:27Ofertas laborales falsas.
03:31Los delincuentes extraen datos de redes profesionales como LinkedIn o portales de empleo.
03:37Con la IA elaboran entrevistas automatizadas y piden pagos anticipados por supuesta capacitación
03:43o equipo.
03:44Las estafas románticas se han vuelto más creíbles y masivas gracias a la inteligencia artificial
03:50con mensajes personalizados, traducción automática y videollamadas con rostros falsos.
03:56Los estafadores simulan vínculos emocionales para manipular a sus víctimas.
04:01Este tipo de fraude evidencia como la IA, además de transformar industrias, también
04:06potencia formas de engaño digital.
04:09La integración de computación cognitiva ha convertido a los bots en redes sociales
04:13en estafadores altamente sofisticados.
04:16Ya no son simples scripts automatizados.
04:18Ahora crean perfiles creíbles, simulan interacciones humanas y se infiltran en conversaciones con
04:25sorprendente realismo.
04:27Gracias a la inteligencia artificial avanzada, estos bots pueden analizar tendencias, replicar
04:33comportamientos de usuarios reales y generar contenido falso, desde noticias hasta imágenes
04:38manipuladas, con apariencia legítima.
04:40El fenómeno plantea un ret urgente para la ciberseguridad y evidencia como la IA, además
04:46de impulsar innovaciones, también puede ser usada para manipular la percepción pública
04:51y vulnerar la confianza digital.
04:53La inteligencia artificial generativa está siendo adoptada a gran velocidad en sectores
04:58como la programación, el diseño y la comunicación, gracias a su capacidad para producir textos,
05:03imágenes, videos, audio y código con notable precisión.
05:07Sin embargo, estas mismas cualidades la convierten en una herramienta atractiva para estafadores
05:12digitales.
05:13Ante este panorama, expertos advierten que es urgente establecer marcos legales, robustos,
05:18que protejan la identidad digital y regulen el uso ético de estas tecnologías.
05:23El avance no debe dejar atrás la seguridad.
05:26Para poder recuperar la propiedad de nuestro yo digital, ciertos usos de la inteligencia artificial
05:32como la creación de deepfakes, el uso de una imagen o una voz sin permiso, la creación
05:40no autorizada de gemelos digitales.
05:43Estos usos simplemente tienen que ser ilegales.
05:46No hay solución tecnológica.
05:50Ahora bien, para implementar una política de IA como esta, necesitamos tres pilares adicionales.
05:56Uno, infraestructura de nube para IA de alto riesgo conocida.
06:04Conoce tu nube.
06:06Un nuevo tipo de calle C.
06:08Dos, barreras de seguridad de las empresas de tecnología que se alineen con el uso de
06:13la IA con los valores sociales, reduciendo la desinformación, el discurso de odio y los
06:19prejuicios.
06:20Tercero, una poderosa agencia de supervisión que interprete las leyes y políticas existentes
06:27dentro del contexto de la IA.
06:34Verifique antes de actuar.
06:37Nunca comparta dinero o datos personales sin confirmar la identidad del solicitante.
06:42Si recibe una llamada sospechosa, cuelgue y comuníquese por canales oficiales.
06:47Refuerce su ciberseguridad.
06:49Use contraseñas seguras, active la autenticación multifactor y mantenga actualizado su software
06:55para prevenir vulnerabilidades.
06:58Sea prudente con herramientas de IA.
07:01No comparte información confidencial con chats, bots o plataformas de IA sin asegurarse
07:07de su legitimidad.
07:08Infórmese y eduque a su entorno.
07:11Estar al día sobre las nuevas estafas permite tomar decisiones más seguras.
07:15Comparte esta información, sobre todo con quienes no son expertos digitales.
07:21Monitoree sus cuentas.
07:23Revise frecuentemente sus movimientos bancarios y reporte cualquier actividad sospechosa.
07:29Utilice tecnología antifraude.
07:32Instale antivirus confiables y herramientas especializadas en detectar deepfakes y phishing.
07:38Reporte lo sospechoso.
07:41Informar a las autoridades ayuda a frenar la propagación de fraudes y proteger a más personas.
07:47El uso malicioso de la inteligencia artificial, especialmente de los deepfakes, muestra la
07:52creciente sostificación de los cyberdelincuentes.
07:55Estos videos falsos muy convincentes manipulan la confianza pública y amplifican las estafas
08:01financieras.
08:02Antes, exclusivas de expertos, estas tecnologías son ahora accesibles, dificultando distinguir
08:08lo real de lo falso.
08:10Esto plantea un reto científico y tecnológico crucial para proteger la identidad digital
08:14y la confianza en línea.
08:16La creciente sostificación de las estafas impulsadas por la inteligencia artificial obliga
08:21a las organizaciones a fortalecer sus defensas contra actores maliciosos con acceso a estas
08:26tecnologías avanzadas.
08:27Estas estafas generan riesgos significativos, como pérdidas financieras, daño reputacional
08:34y efectos psicológicos.
08:35Además de evadir métodos tradicionales de detección para enfrentar este desafío, las
08:40empresas deben implementar medidas robustas basadas en inteligencia artificial que anticipen
08:45técnicas de fraude basadas en aprendizaje profundo.
08:49Invertir en contramedidas tecnológicas y abordar la seguridad de manera integral es fundamental,
08:54pues conforme a la IA avanza, las estafas serán cada vez más sofisticadas y eficaces.
08:59La prevención tecnológica es, hoy más que nunca, una prioridad para proteger tanto
09:04a personas como a organizaciones.
09:07El robo de identidad con inteligencia artificial es real y crece en el mundo digital.
09:14La IA ha simplificado la creación de documentos e identidades falsas, lo que plantea desafíos
09:21para la ciberseguridad personal y empresarial.
09:24Sin embargo, la inteligencia artificial no es inherentemente mala.
09:28Este tipo de estafas no nacieron con ellas.
09:31Estas estafas son una evolución de fraudes preexistentes, ahora sofisticados por la tecnología.
09:39Momento de una nueva pausa.
09:41Pero antes, les invito a viajar en la data.
09:51La clonación de voz es una tecnología basada en inteligencia artificial que permite crear
09:57una réplica digital casi idéntica de la voz de una persona.
10:01¿Cómo funciona?
10:02A través de algoritmos de aprendizaje automático, el sistema analiza grabaciones reales y entrena
10:08un modelo capaz de reproducir el tono, la entonación y el ritmo característicos de esa voz.
10:14El proceso consta de tres pasos.
10:17Recopilación de datos, es decir, muchas grabaciones del hablante, entrenamiento del modelo de IA
10:22y finalmente la generación de audio sintético que imita la voz original, incluso en textos completamente nuevos.
10:30Esta herramienta ya se aplica en doblajes, asistentes virtuales, videojuegos y accesibilidad.
10:36Pero su avance también plantea interrogantes éticos sobre su suplantación, privacidad y manipulación de información.
10:43La pregunta que queda en el aire, ¿estamos preparados para un mundo donde ya no sepamos si lo que escuchamos es real o artificial?

Recomendada