
Voice-Phishing-Techniken können jetzt in Echtzeit Audioaufnahmen der Stimme eines Ziels erstellen. Frühere Audio-Deepfakes erfolgten nicht in Echtzeit, was zu spürbaren Verzögerungen führte. Jetzt ist es noch schwieriger zu erkennen, wer am anderen Ende des Telefons sitzt.
https://spectrum.ieee.org/real-time-audio-deepfake-vishing
2 Kommentare
As audio (and video) deepfakes improve and speed up, where is the future of authentication? How will we know our friends and family are who they say they are when they call us on the phone?
How is this different from the software voice changers?