“Millones” de personas podrían ser víctimas de estafas que utilizan inteligencia artificial para clonar sus voces, advirtió un banco del Reino Unido.
Starling Bank, un prestamista solo en línea, dijo que los estafadores son capaces de usar IA para replicar la voz de una persona a partir de solo tres segundos de audio que se encuentran, por ejemplo, en un video que la persona ha publicado en línea. Luego, los estafadores pueden identificar a los amigos y familiares de la persona y usar la voz clonada por IA para organizar una llamada telefónica para pedir dinero.
Este tipo de estafas tienen el potencial de “atrapar a millones”, dijo Starling Bank en un comunicado de prensa el miércoles.
Ya han afectado a cientos. Según una encuesta de más de 3.000 adultos que el banco realizó con Mortar Research el mes pasado, más de una cuarta parte de los encuestados dijeron que habían sido objeto de una estafa de clonación de voz de IA en los últimos 12 meses.
La encuesta también mostró que el 46% de los encuestados no sabía que existían tales estafas, y que el 8% enviaría tanto dinero como lo solicitara un amigo o familiar aunque pensaran que la llamada les parecía extraña.
Por qué OpenAI debería temer una demanda de Scarlett Johansson “Las personas publican regularmente contenido en línea que tiene grabaciones de su voz, sin imaginar que los está haciendo más vulnerables a los estafadores”, dijo Lisa Grahame, directora de seguridad de la información de Starling Bank, en el comunicado de prensa.
El banco está alentando a las personas a acordar una “frase segura” con sus seres queridos, una frase simple y aleatoria que sea fácil de recordar y diferente de sus otras contraseñas, que se pueda usar para verificar su identidad por teléfono.
El prestamista aconseja no compartir la frase segura por mensaje de texto, lo que podría facilitar que los estafadores se enteren, pero, si se comparte de esta manera, el mensaje debe eliminarse una vez que la otra persona lo haya visto.
A medida que la IA se vuelve cada vez más experta en imitar voces humanas, aumentan las preocupaciones sobre su potencial para dañar a las personas, por ejemplo, ayudando a los delincuentes a acceder a sus cuentas bancarias y difundir información errónea.
A principios de este año, OpenAI, el fabricante del chatbot de IA generativa ChatGPT, presentó su herramienta de replicación de voz, Voice Engine, pero no la puso a disposición del público en ese momento, citando el “potencial de uso indebido de la voz sintética”.