Full-text resources of CEJSH and other databases are now available in the new Library of Science.
Visit https://bibliotekanauki.pl

PL EN


2024 | 12 | 2 | 25-36

Article title

Analiza potencjału ataków wykorzystujących syntetycznie wygenerowane głosy na systemy biometrycznej weryfikacji mówców oraz wykrywania materiałów deepfake

Content

Title variants

Languages of publication

Abstracts

EN
Postęp technologiczny w dziedzinie głębokiego uczenia znacząco przyczynił się do rozwoju syntezowania głosu, umożliwił tworzenie realistycznych nagrań audio, które mogą naśladować indywidualne cechy głosów ludzkich. Chociaż ta innowacja otwiera nowe możliwości w dziedzinie technologii mowy, niesie ze sobą również poważne obawy dotyczące bezpieczeństwa, zwłaszcza w kontekście potencjalnego wykorzystania technologii deepfake do celów przestępczych. Przeprowadzone badanie koncentrowało się na ocenie wpływu syntetycznych głosów na systemy biometrycznej weryfikacji mówców w języku polskim oraz skuteczności wykrywania deepfake’ów narzędziami dostępnymi publicznie, z wykorzystaniem dwóch głównych metod generowania głosu, tj. przekształcenia tekstu na mowę oraz konwersji mowy. Jednym z głównych wniosków analizy jest potwierdzenie zdolności syntetycznych głosów do zachowania charakterystycznych cech biometrycznych i otwierania drogi przestępcom do nieautoryzowanego dostępu do zabezpieczonych systemów lub danych. To podkreśla potencjalne zagrożenia dla indywidualnych użytkowników oraz instytucji, które polegają na technologiach rozpoznawania mówcy jako metodzie uwierzytelniania i wskazuje na konieczność wdrażania modułów wykrywania ataków. Badanie ponadto pokazało, że deepfaki odnalezione w polskiej części internetu dotyczące promowania fałszywych inwestycji lub kierowane w celach dezinformacji najczęściej wykorzystują popularne i łatwo dostępne narzędzia do syntezy głosu. Badanie przyniosło również nowe spojrzenie na różnice w skuteczności metod konwersji tekstu na mowę i klonowania mowy. Okazuje się, że metody klonowania mowy mogą być bardziej skuteczne w przekazywaniu biometrycznych cech osobniczych niż metody konwersji tekstu na mowę, co stanowi szczególny problem z punktu widzenia bezpieczeństwa systemów weryfikacji. Wyniki eksperymentów podkreślają potrzebę dalszych badań i rozwoju w dziedzinie bezpieczeństwa biometrycznego, żeby skutecznie przeciwdziałać wykorzystywaniu syntetycznych głosów do nielegalnych działań. Wzrost świadomości o potencjalnych zagrożeniach i kontynuacja pracy nad ulepszaniem technologii weryfikacji mówców są ważne dla ochrony przed coraz bardziej wyrafinowanymi atakami wykorzystującymi technologię deepfake.

Year

Volume

12

Issue

2

Pages

25-36

Physical description

Dates

published
2024

Contributors

  • Politechnika Warszawska

References

  • Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case, https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402 [dostęp: 15.02.2024].
  • Kobieta pokazała, jak złodzieje sklonowali jej głos i na Facebooku próbowali wyłudzić kod BLIK, https://natemat.pl/546320,oszustwo-na-blika-zlodzieje-podrobili-glos-z-ai [dostęp: 15.02.2024].
  • Mai K.T., Bray S., Davies T., Griffin L.D., Warning: Humans cannot reliably detect speech deepfakes, „PLoS ONE” 2023, nr 18(8), https://doi.org/10.1371/journal.pone.0285333 [dostęp: 12.02.2024].
  • „Mom, these bad men have me”: She believes scammers cloned her daughter’s voice in a fake kidnapping, https://amp.cnn.com/cnn/2023/04/29/us/ai-scam-calls-kidnapping-cec/index.html [dostęp: 15.02.2024].
  • New Orleans magician says he made AI Biden robocall for aide to challenger, https://www.theguardian.com/us-news/2024/feb/23/ai-biden-robocall-magician-new-orleans [dostęp: 15.02.2024].
  • Podrobiony szef InPostu zachęca do inwestycji. Po chwili zaczyna mówić w obcym języku, https://spidersweb.pl/2024/03/inpost-rafal-brzoska-oszustwo-deepfake.html [dostęp: 15.02.2024].
  • Zostań inwestorem projektu Baltic Pipe? Uwaga na scam, https://demagog.org.pl/fake_news/zostan-inwestorem-projektu-baltic-pipe-uwaga-na-scam/ [dostęp: 15.02.2024].

Document Type

Publication order reference

Identifiers

Biblioteka Nauki
31342041

YADDA identifier

bwmeta1.element.ojs-doi-10_35467_cal_188556
JavaScript is turned off in your web browser. Turn it on to take full advantage of this site, then refresh the page.