Reclamă

Georgina Findlay, jurnalistă și prezentatoare a canalului YouTube TLDR News, a descoperit că vocea ei a fost folosită fără consimțământ într-o campanie de propagandă de extremă dreaptă, prin intermediul inteligenței artificiale. Fratele său a fost cel care a remarcat utilizarea vocii într-un context nepotrivit, în cadrul unui clip pe Instagram, la un miting extremist. Clipul prezenta un comentariu despre criza sistemului educațional din Marea Britanie, folosind o voce feminină, calmă, cu un accent de Manchester abia perceptibil.

Findlay a relatat că, deși sunetul era inconfundabil al ei, fusese adaptat fără cunoștința sa pentru a transmite mesaje propagandistice. Vocea sa fusese integrată într-un clip ce critica modul în care sistemul de educație britanic tratează subiecte precum islamul. „A fost înfricoșător să-mi aud vocea asociată cu propagandă de extremă-dreaptă”, a subliniat ea, reflectând asupra consecințelor utilizării unei clone vocale fără consimțământ.

Acest fenomen al clonelor vocale, o formă nouă de „deepfake” audio, a devenit alarmant de frecvent, fiind a treia escrocherie cu cea mai rapidă creștere din 2024. Utilizarea acestor tehnologii presupune riscuri semnificative, inclusiv fraude bancare. În cazul de față, canalul care a folosit clipurile cu vocea ei era aliniat unei extreme drepte pe YouTube, având un public de aproximativ 200.000 de abonați.

La rândul său, naturalistul britanic David Attenborough și actrița Scarlett Johansson au fost victime ale unor situații similare, aducând în discuție problemele nereglementate ale clonării vocale prin AI. Anumite companii, inclusiv OpenAI, au recunoscut riscurile și au început să ia măsuri de precauție. În SUA, au fost propuse legi ce vizează reproducerea vocală fără consimțământ, iar în Europa, Eithos dezvoltă instrumente pentru ajutorarea forțelor de ordine în detectarea falsurilor audio.

Este evident că reglementările actuale de confidențialitate și drepturi de autor sunt depășite de noile tehnologii. Dr. Dominic Lees, expert în AI, a accentuat problema lipsurilor legislative, iar Hany Farid, specialist în detectarea deepfake-urilor, a atras atenția asupra potențialelor consecințe dramatice ale acestui fenomen, inclusiv violența în masă sau influențarea frauduloasă a alegerilor.

Însă, în timp ce clonarea vocală AI prezintă numeroase riscuri, existenta unei asemenea tehnologii poate oferi și avantaje, cum ar fi comunicarea cu cei dragi după plecarea acestora sau ajutorarea persoanelor cu dificultăți de vorbire, exemplificat de actorul Val Kilmer, care a beneficiat de o astfel de tehnologie după tratamentul pentru cancer.


Reclamă

Share.
© 2025 Editura Substantial SRL – substantial.ro