News

Startup ElevenLabs wykorzystał SI do podrabiania głosu Joe Bidena

Autor Halina Dąbrowska
Halina Dąbrowska3 lutego 20246 min
Startup ElevenLabs wykorzystał SI do podrabiania głosu Joe Bidena

Startup ElevenLabs eksploruje obszar sztucznej inteligencji, badając możliwości jej zastosowania, w tym również w automatycznych połączeniach telefonicznych. Niemniej jednak, chcielibyśmy podkreślić, że nie ma potwierdzonych informacji sugerujących, że firma ta próbowała podszyć się pod prezydenta Bidena.

W kontekście niedawnych wydarzeń, gdzie fałszywe nagranie głosowe miało wpływ na wybory, organy regulacyjne, takie jak amerykańska Federalna Komisja Łączności, zastanawiają się nad wprowadzeniem zmian w prawie, które umożliwią skuteczniejsze zwalczanie procederu wykorzystywania sztucznie generowanych głosów w oszukańczych połączeniach. Proponowane nowelizacje prawne mają na celu dostarczenie organom ścigania nowych narzędzi w walce z przestępczością, szczególnie tą opartą na generatywnej sztucznej inteligencji.

ElevenLabs podszył się pod Joe Bidena

Polski startup ElevenLabs eksploruje obszar technologii deepfake audio, badając jej potencjał w różnych dziedzinach, w tym również w automatycznych połączeniach telefonicznych. Chcielibyśmy jednak podkreślić, że nie ma potwierdzonych informacji sugerujących, że firma ta próbowała podszyć się pod prezydenta Bidena.

W kontekście niedawnych wydarzeń, gdzie fałszywe nagranie głosowe miało wpływ na wybory, amerykańska Federalna Komisja Łączności (FCC) zaczęła rozważać konieczność wprowadzenia zmian prawnych, które skutecznie zabezpieczą konsumentów przed wykorzystaniem sfałszowanych głosów w automatycznych połączeniach. Incydent ten podkreślił potencjał technologii głębokiego fałszowania do wprowadzania konsumentów w błąd, co skłania FCC do podjęcia działań mających na celu ochronę przed tego rodzaju praktykami.

Polski startup wykorzystał eksperymentalne oprogramowanie

Analiza fałszywej 39-sekundowej wiadomości wykazała, że do jej stworzenia wykorzystano silnik konwersji tekstu na mowę opracowany przez ElevenLabs. Startup ten stosuje eksperymentalne algorytmy SI do klonowania głosów znanych postaci w ponad 20 językach.

Choć ElevenLabs blokuje niewłaściwe wykorzystywanie swojej technologii, to incydent ten pokazuje, jak łatwo narzędzia SI mogą zostać nadużyte. Dlatego FCC chce objąć głosy AI taką samą regulacją, jak zwykłe nagrania w automatycznych połączeniach.

FCC chce ukrócić oszustwa głosowe

Aby zapobiec nadużyciom, FCC proponuje zmianę przepisów, która uczyniłaby nielegalnym użycie sfałszowanych głosów w automatycznych połączeniach telefonicznych. Dotyczyłoby to również głosów wygenerowanych przez SI.

Nowe regulacje wprowadziłyby je pod jurysdykcję ustawy TCPA z 1991 r., która ogranicza działalność telemarketerów i wymaga od nich uzyskania zgody konsumentów. Sprawiłoby to, że generowane głosy podlegałyby tym samym rygorystycznym standardom.

Zdaniem FCC nowe przepisy dadzą organom ścigania narzędzia do walki z przestępczością wykorzystującą deepfake. Jednocześnie lepiej chroniłyby konsumentów przed oszustwami opartymi na SI.

Głosy AI mogą wprowadzać w błąd

Technologia deepfake audio osiągnęła już tak wysoki poziom, że wygenerowane głosy celebrytów i polityków brzmią niemal identycznie jak oryginały. Dlatego łatwo mogą wprowadzać w błąd nieuważnych odbiorców.

Jak stwierdziła przewodnicząca FCC Jessica Rosenworcel, niezależnie od naszych sympatii, każdy może paść ofiarą oszustwa telefonicznego z użyciem deepfake. Nowe przepisy mają temu zapobiec.

Czytaj więcej: Nowa data premiery Godzilla i Kong: Nowe imperium, Mickey 17 wypada z kalendarza

Polski startup zablokowany przez oszustwo

Choć ElevenLabs potwierdził, że jego technologia została niewłaściwie użyta przez oszustów, to startup nie ponosi bezpośredniej odpowiedzialności za incydent.

Jednak po ujawnieniu sprawy, firma natychmiast zablokowała konto, z którego pochodziło sfałszowane nagranie. Incydent pokazał, że nawet legalne narzędzia AI mogą zostać wykorzystane w nieuczciwych celach.

Dlatego startup zapewnił, że będzie ściśle monitorował, do czego używana jest jego technologia i uniemożliwi jej wykorzystywanie do łamania prawa. Jednocześnie zadeklarował pełną współpracę z organami ścigania w ich dochodzeniu.

Oszust głosowy zostanie ukarany

Choć ElevenLabs zablokowało konto sprawcy, to on sam nie uniknie kary. Biuro prokuratora generalnego New Hampshire wszczęło dochodzenie w tej sprawie i zapowiedziało pociągnięcie oszusta do odpowiedzialności.

Incydent ten pokazuje, że choć deepfake może być trudny do wykrycia, to przestępcy wykorzystujący tę technologię nie pozostaną bezkarni. Organy ścigania coraz skuteczniej identyfikują i karzą takie nadużycia.

Technologia głębokiego fałszowania coraz groźniejsza

Startup ElevenLabs wykorzystał SI do podrabiania głosu Joe Bidena

Eksperci alarmują, że wraz z postępem w dziedzinie SI, deepfake staje się coraz doskonalszy i trudniejszy do odróżnienia od prawdziwych nagrań.

Jak ostrzegają, już wkrótce sfałszowane nagrania wideo i audio będą niemożliwe do odróżnienia od oryginału bez specjalistycznej analizy. Ułatwi to przestępcom podszywanie się pod znane osoby i manipulowanie opinią publiczną.

Deepfake to potężne narzędzie dezinformacji

Eksperci przestrzegają, że rosnące możliwości deepfake'u stwarzają poważne zagrożenie dla bezpieczeństwa i stabilności społeczeństw.

Sfałszowane treści audio i wideo będą mogły być wykorzystywane do szerzenia dezinformacji, manipulowania wyborami, dzielenia społeczeństwa oraz podważania zaufania do instytucji.

Walka z deepfake wymaga świadomości

Aby stawić czoła temu wyzwaniu, oprócz regulacji prawnych niezbędna jest edukacja społeczeństwa na temat zagrożeń deepfake oraz rozwój narzędzi do ich wykrywania.

Tylko świadomi obywatele, potrafiący krytycznie analizować treści w internecie, będą odporni na próby manipulacji za pomocą sfałszowanych nagrań.

Automaty dzwoniące na celowniku FCC

Walka z wykorzystaniem sfałszowanych głosów to tylko jeden z frontów wojny FCC z uciążliwymi automatami dzwoniącymi.

Od lat agencja nakłada wysokie grzywny na firmy odpowiedzialne za nielegalne kampanie telemarketingowe z użyciem automatycznych połączeń.

Miliardy niechcianych połączeń

W grudniu 2022 r. FCC ukarała operatorów międzynarodowej kampanii telemarketingowej grzywną w wysokości 300 mln dolarów. W ciągu zaledwie 3 miesięcy wykonali oni ponad 5 mld połączeń do 500 mln numerów w USA.

W 2020 r. nałożono także 225 mln dolarów kary na firmy odpowiadające za miliardy automatycznych połączeń wprowadzających konsumentów w błąd.

Obywatele popierają surowsze kary

Z badań FCC wynika, że aż 82% Amerykanów uważa automatyczne połączenia telemarketingowe za bardzo lub nieco denerwujące.

Dlatego większość z nich popiera inicjatywy legislacyjne zaostrzające kary dla firm nękających konsumentów niechcianymi połączeniami.

Przestępcy podszywają się pod bliskich ofiar

Jedną z najbardziej niepokojących tendencji jest wykorzystywanie przez przestępców deepfake'a do podszywania się pod członków rodziny ofiar i wyłudzania od nich pieniędzy.

Coraz doskonalsze algorytmy pozwalają na generowanie realistycznie brzmiących głosów, które łatwo mogą zmanipulować zaniepokojonych krewnych.

Manipulacja emocjami ofiar

Technologia deepfake audio sprawia, że łatwiej jest odwołać się do emocji oraz zaufania między bliskimi. Dlatego przestępcy chętnie ją wykorzystują, by ograbić niczego nieświadome ofiary - mówi ekspert ds. bezpieczeństwa.

Dlatego eksperci apelują o zachowanie czujności i weryfikowanie takich próśb o pomoc finansową, zamiast działać pod wpływem chwili.

Organy ścigania muszą nadążać za technologią

Aby skutecznie zwalczać tego rodzaju przestępstwa, służby muszą stale aktualizować swoją wiedzę na temat możliwości deepfake'a i sposobów jego wykrywania - podkreślają eksperci.

Tylko dzięki temu będą w stanie identyfikować i karać oszustów wykorzystujących tę technologię do manipulowania ofiarami.

Podsumowanie

Artykuł omawia problematykę wykorzystania sztucznej inteligencji do fałszowania ludzkiej mowy. Przedstawia przypadek polskiego startupu ElevenLabs, którego technologia posłużyła do stworzenia deepfake'a imitującego głos prezydenta USA Joe Bidena. Incydent ten skłonił amerykańską FCC do działań mających na celu uregulowanie użycia głosów AI w automatycznych połączeniach telefonicznych.

Artykuł omawia potencjalne zagrożenia płynące z technologii deepfake audio, która umożliwia coraz bardziej realistyczne naśladowanie ludzkiej mowy. Może być ona wykorzystywana do manipulowania opinią publiczną i oszukiwania konsumentów. Dlatego FCC chce objąć głosy AI taką samą regulacją jak zwykłe nagrania wykorzystywane przez telemarketerów.

Poruszony jest również problem walki FCC z uciążliwymi automatycznymi połączeniami telemarketingowymi, które stały się plagą dla milionów Amerykanów. Artykuł referuje wysokie grzywny nakładane przez FCC na firmy odpowiedzialne za nielegalne kampanie z użyciem automatów dzwoniących.

Na koniec omówione są różne formy przestępczości wykorzystującej deepfake, w tym podszywanie się pod członków rodziny, by manipulować uczuciami ofiar i wyłudzać pieniądze. Podkreślona jest potrzeba edukacji społeczeństwa na temat zagrożeń płynących z technologii głębokiego fałszowania.

Oceń artykuł

rating-outline
rating-outline
rating-outline
rating-outline
rating-outline
Ocena: 0.00 Liczba głosów: 0

5 Podobnych Artykułów:

  1. Terrifier 3: Adepcja niebezpieczne starcie z klaunem. Co czeka bohatera?
  2. Gerard Butler jako smok w wersji aktorskiej.
  3. Najlepsze polskie filmy o gangsterach i mafii - Przewodnik 2023
  4. Repertuar Kina Atlantic - aktualne seanse i bilety
  5. Rachel Zegler komentuje krasnoludki w CGI z Królewny Śnieżki: Śpiewasz w próżnię
Autor Halina Dąbrowska
Halina Dąbrowska

Jestem doświadczoną aktorką dzielącą się swoją wiedzą na temat warsztatu aktorskiego. W moich artykułach poruszam kwestie interpretacji ról, pracy nad sobą. Moim celem jest przekazywanie praktycznych umiejętności młodym adeptom aktorstwa.

Udostępnij artykuł

Napisz komentarz

Polecane artykuły