Ultimas Noticias

Cuando pidieron un Bizum a la Archidiócesis sevillana saltaron todas las alarmas. Y ahí empezó lo interesante

La IA lleva tiempo siendo capaz de clonar casi a la perfección voces. Lo que no esperábamos es que este tipo de herramientas empezasen a utilizarse para estafar a una hermandad sevillana.

El suceso. El Arzobispado de Sevilla ha dado la voz de alarma a sus hermandades. La razón: un intento de estafa a nivel andaluz en el que se están empezando a utilizar voces clonadas para intentar hacerse pasar por los obispos. Una de las hermandades de la capital recibió recientemente una llamada imitando la voz de monseñor Teodoro Muñoz, uno de los obispos auxiliares.

La petición. En Xataka hemos podido hablar con la hermandad, y nos confirman que la petición era de lo más rocambolesco.

  • Se llamaba a la hermandad haciéndose pasar por el obispo.
  • Se pedía una cierta cantidad de dinero a ingresar mediante Bizum.
  • Se justificaba la petición para sufragar un impuesto de sucesiones necesario para que la hermandad pudiera cobrar una herencia

La voz. Según nos explica la hermandad, la voz era «un clon prácticamente perfecto». Además, no se trataba de una grabación de voz, el interlocutor estuvo hablando con el obispo auxiliar hasta que colgó tras su negativa de acceder al pago exigido.

No es un caso aislado. En febrero de 2024, Jaén Hoy se hacía eco de un suceso idéntico. Una quincena de conventos de la provincia recibió a principios de año llamadas en las que se aseguraba ser el obispo, requiriendo también una cantidad económica en este caso para ayudar al Obispado.

El nuevo timo del CEO. Las estafas hiperrealistas no son nuevas. De hecho, llevamos más de cuatro años hablando de ellas. El grupo farmaceútico Zendal era víctima de una estafa por valor de 9 millones de euros en 2020. En este caso ni siquiera había implementación de IA: alguien se hizo pasar por el jefe de la empresa mediante correo electrónico solicitando transferencias de alto valor.

Con el auge de las herramientas de inteligencia artificial, las estafas con voces clonadas con IA son cada vez más frecuentes. Estas herramientas permiten no solo crear grabaciones con la voz simulada, sino imitarla en tiempo real, haciendo la llamada aún más realista.

Sospechar, siempre sospechar. Diferenciar lo que es IA y lo que no cada vez es más complicado, así que el mayor factor protector siempre será la sospecha.

  • Si se pide dinero.
  • Si se piden datos personales.
  • Si no cuadra lo más mínimo.

Cuelga.

Imagen | Archidiócesis de Sevilla y Xataka

En Xataka | «La gente quiere algo más íntimo y emotivo»: los bautizos cristianos han encontrado relevo en España, el bautizo civil

source

Mostrar más
Botón volver arriba