martes, abril 21, 2026
  • Media Kit
  • Terminos y Condiciones
  • Compliance & Copyright
  • Quienes Somos
  • Trabaja con Nosotros
  • Contacto
  • RSS
Columna Digital
  • Internacional
  • Nacional
  • Política
  • Negocios
  • Estados
  • Deportes
  • columnas
  • Cultura
  • Gastronomía
  • Lifestyle
  • Tecnología
  • Salud
  • Viajes
  • Login
No Result
View All Result
Columna Digital
Home Tecnología

Sevilla usa IA para imitar voces y estafar.

Redacción by Redacción
11 julio, 2025
in Tecnología
Reading Time: 3 mins read
A A
0
en Sevilla están clonando voces con IA para mendigar dinero por Bizum
944
VIEWS
Share on FacebookShare on Twitter

La inteligencia artificial (IA) ha avanzado significativamente en los últimos años, incluyendo la capacidad de clonar voces de manera casi perfecta. Sin embargo, este avance ha llevado a inquietantes aplicaciones, como el reciente caso de una estafa en Sevilla donde se emplearon voces clonadas para suplantar a obispos.

El Arzobispado de Sevilla ha emitido alertas a sus hermandades tras un intento de fraude que ha empezado a extenderse por Andalucía. Recientemente, una hermandad en la capital recibió una llamada de alguien que imitaba la voz de monseñor Teodoro Muñoz, uno de los obispos auxiliares. En esta llamada, se solicitaba un ingreso de dinero mediante Bizum, pretendiendo cubrir un impuesto de sucesiones que permitiría a la hermandad acceder a una herencia. Esta solicitud fue descrita por los miembros de la hermandad como “rocambolesca”, especialmente debido a la realismo de la voz clonada, que no era simplemente una grabación, sino una imitación en tiempo real. La conversación continuó hasta que el interlocutor, tras ser negado el pago, finalizó la llamada.

Este incidente no es un caso aislado. En febrero de 2024, varios conventos en Jaén experimentaron situaciones similares, donde se hacían pasar por obispos requiriendo cantidades de dinero para ayudar al Obispado. Estas estafas están siendo cada vez más comunes con la proliferación de herramientas de inteligencia artificial. Al emplear tecnología avanzada, estas operaciones delictivas no solo son más fáciles de ejecutar, sino que se vuelven más convincentes, mostrando un serio riesgo para organizaciones y personas que pueden ser engañadas.

Un fenómeno conocido como el fraude de CEO se ha hecho prominente en los últimos años, donde ciberdelincuentes se hacen pasar por figuras de autoridad, como líderes de empresas, para solicitar transferencias de dinero. Este tipo de engaños se registró en 2020 con el grupo farmacéutico Zendal, quien fue víctima de un fraude valorado en 9 millones de euros. En ese caso, la estafa se llevó a cabo sin el uso de inteligencia artificial, utilizando simplemente el correo electrónico.

Con el auge de las herramientas de IA, las estafas que emplean voces clonadas están en aumento. Estos delitos no solo crean grabaciones de voz simuladas, sino que pueden imitar voces en tiempo real, flexibilizando las tácticas de los estafadores y haciendo sus intentos más realistas.

Ante estas circunstancias, se recomienda mantener un enfoque crítico ante cualquier solicitud de dinero, especialmente si proviene de un contacto inesperado. Las señales de alerta incluyen pedir dinero, solicitar datos personales y cualquier cosa que no parezca lógica o coherente. La prudencia y el escepticismo son vitales en la era digital actual.

Esta advertencia es especialmente relevante en un momento en que la línea entre lo auténtico y lo fabricado se desdibuja cada vez más, lo que enfatiza la necesidad de que permanezcamos alertas y protegidos frente a las nuevas tácticas de fraude que surgen con la evolución de la tecnología.

Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.

Tags: bizumclonaciónColumna DigitalDineroIAmendigarsevillavoces
Previous Post

Celebración para Agentes de Viajes en CDMX

Next Post

Ultimátum para la transición nacional

Next Post
Penultimátum

Ultimátum para la transición nacional

abril 2026
LMXJVSD
 12345
6789101112
13141516171819
20212223242526
27282930 
« Mar    

BROWSE BY TOPICS

2025 america AMLO Arte ciudad Claudia Sheinbaum Columna Digital Cultura Deportes Dimension Turistica Donald Trump economia Elecciones españa Estados Unidos Finanzas fútbol gobierno guerra Historia Innovación Internacional israel justicia Latinoamérica Liga MX Medio Ambiente Moda México noticias noticias michoacan noticias morelia noticias morelia ultima hora Opinion politica Rusia salud Seguridad Sociedad Tecnología Tendencias trump Turismo ucrania Violencia

Busca una Noticia

No Result
View All Result

Columna Digital es una marca de Grupo Editorial Guíaaaa ® integrado por Periodistas y Columnistas mexicanos interesados en la objetividad informativa.

Links Rapidos

  • Media Kit
  • Terminos y Condiciones
  • Compliance & Copyright
  • Quienes Somos
  • Trabaja con Nosotros
  • Contacto
  • RSS

Categorías

  • columnas
  • Cultura
  • Deportes
  • Estados
  • Gastronomía
  • Internacional
  • Lifestyle
  • Nacional
  • Negocios
  • Política
  • Salud
  • Tecnología
  • Viajes

Columna Digital

Columna Digital HD Logo
Columna Digital HD Logo

Grupo Editorial Guíaaaa / Fundado en 1988.

  • Media Kit
  • Terminos y Condiciones
  • Compliance & Copyright
  • Quienes Somos
  • Trabaja con Nosotros
  • Contacto
  • RSS

© 2021 Columna Digital - Copyright © Todos los derechos reservados Grupo Editorial Guiaaaa.

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Internacional
  • Nacional
  • Política
  • Negocios
  • Estados
  • Deportes
  • columnas
  • Cultura
  • Gastronomía
  • Lifestyle
  • Salud
  • Tecnología
  • Viajes
  • Radio Columna Digital

© 2021 Columna Digital - Copyright © Todos los derechos reservados Grupo Editorial Guiaaaa.