La inteligencia artificial (IA) ha avanzado significativamente en los últimos años, incluyendo la capacidad de clonar voces de manera casi perfecta. Sin embargo, este avance ha llevado a inquietantes aplicaciones, como el reciente caso de una estafa en Sevilla donde se emplearon voces clonadas para suplantar a obispos.
El Arzobispado de Sevilla ha emitido alertas a sus hermandades tras un intento de fraude que ha empezado a extenderse por Andalucía. Recientemente, una hermandad en la capital recibió una llamada de alguien que imitaba la voz de monseñor Teodoro Muñoz, uno de los obispos auxiliares. En esta llamada, se solicitaba un ingreso de dinero mediante Bizum, pretendiendo cubrir un impuesto de sucesiones que permitiría a la hermandad acceder a una herencia. Esta solicitud fue descrita por los miembros de la hermandad como “rocambolesca”, especialmente debido a la realismo de la voz clonada, que no era simplemente una grabación, sino una imitación en tiempo real. La conversación continuó hasta que el interlocutor, tras ser negado el pago, finalizó la llamada.
Este incidente no es un caso aislado. En febrero de 2024, varios conventos en Jaén experimentaron situaciones similares, donde se hacían pasar por obispos requiriendo cantidades de dinero para ayudar al Obispado. Estas estafas están siendo cada vez más comunes con la proliferación de herramientas de inteligencia artificial. Al emplear tecnología avanzada, estas operaciones delictivas no solo son más fáciles de ejecutar, sino que se vuelven más convincentes, mostrando un serio riesgo para organizaciones y personas que pueden ser engañadas.
Un fenómeno conocido como el fraude de CEO se ha hecho prominente en los últimos años, donde ciberdelincuentes se hacen pasar por figuras de autoridad, como líderes de empresas, para solicitar transferencias de dinero. Este tipo de engaños se registró en 2020 con el grupo farmacéutico Zendal, quien fue víctima de un fraude valorado en 9 millones de euros. En ese caso, la estafa se llevó a cabo sin el uso de inteligencia artificial, utilizando simplemente el correo electrónico.
Con el auge de las herramientas de IA, las estafas que emplean voces clonadas están en aumento. Estos delitos no solo crean grabaciones de voz simuladas, sino que pueden imitar voces en tiempo real, flexibilizando las tácticas de los estafadores y haciendo sus intentos más realistas.
Ante estas circunstancias, se recomienda mantener un enfoque crítico ante cualquier solicitud de dinero, especialmente si proviene de un contacto inesperado. Las señales de alerta incluyen pedir dinero, solicitar datos personales y cualquier cosa que no parezca lógica o coherente. La prudencia y el escepticismo son vitales en la era digital actual.
Esta advertencia es especialmente relevante en un momento en que la línea entre lo auténtico y lo fabricado se desdibuja cada vez más, lo que enfatiza la necesidad de que permanezcamos alertas y protegidos frente a las nuevas tácticas de fraude que surgen con la evolución de la tecnología.
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.