Korišćenjem ovog sajta prihvatate Politiku privatnosti i Uslove korišćenja.
Prihvatam
NaslovnicaNaslovnicaNaslovnica
  • Vesti
    • Politika
    • Društvo
    • Svet
    • Kultura
    • Sport
  • Magazin
    • Biznis
    • Istorija
    • Intervju
    • Tehnologija
    • Zdravlje
Čitanje: Deepfake audio – Ne verujte svojim očima – a još manje ušima
Objavi
Promena veličine fontaAa
NaslovnicaNaslovnica
Promena veličine fontaAa
  • Vesti
  • Politika
  • Društvo
  • Svet
  • Kultura
  • Sport
  • Magazin
  • Biznis
  • Istorija
  • Zdravlje
  • Tehnologija
  • Intervju
Pretraga
  • Vesti
    • Politika
    • Društvo
    • Svet
    • Kultura
    • Sport
  • Magazin
    • Biznis
    • Istorija
    • Intervju
    • Zdravlje
    • Tehnologija
Pratite nas
  • KONTAKT
  • POLITIKA PRIVATNOSTI
  • UPRAVLJANJE KOLAČIĆIMA
© 2022 Foxiz News Network. Ruby Design Company. All Rights Reserved.
Tehnologija

Deepfake audio – Ne verujte svojim očima – a još manje ušima

Poslednja izmena: 05/04/2024 09:47
4 min čitanja
Deepfake audio – Ne verujte svojim očima – a još manje ušima
Objavi

U julu prošle godine Ujedinjene nacije pozvale su na regulisanje upotrebe veštačke inteligencije, a u saopštenju su naglasili da bi države članice trebalo da uspostave zajednički dogovorena pravila „pre nego što bude prekasno“. Sada je već dovoljno razvijen deepfake audio.

U objavi UN poziva se i na mehanizme za sprečavanje upotrebe AI alata za promovisanje mržnje, dezinformacija i obmanjivanja publike, što podstiče ekstremizam i pogoršava sukobe, jača stereotipe i predrasude u zajednicama širom sveta.

Činjenica je da različite profesionalne organizacije već dugo upozoravaju da je vreme, u kom veštačka inteligencija onemogućava razlikovanje činjenica od fikcije, uveliko stiglo, što stvara dodatne izazove u borbi protiv lažnih vesti i zlonamernog manipulisanja stavovima publike.

Kada pomislimo na medijski sadržaj izmenjen ili potpuno kreiran upotrebom veštačke inteligencije, najčešća asocijacija su deepfake video-sadržaji kojima je i srpska publika bila izložena putem jedne nacionalne televizije.  Međutim, profesionalci iz sektora medija i tehnologije skreću pažnju na još veću opasnost – deepfake audio-sadržaje.

Nedavno se pojavio deepfake audio u kome se, glasom aktuelnog predsednika Sjedinjenih Država, Džoa Bajdena, šalje poruka koja je imala za cilj da obeshrabri glasače, sugerišući da njihov izlazak na izbore nije presudan. U oktobru prošle godine, predmet deepfake audio manipulacije bio je Barak Obama, a uz mnoštvo drugih primera razumljiva je sve veća zabrinutost da lažni audio-sadržaji postaju novo, snažno oružje u onlajn ratu dezinformacijama, dovodeći manipulisanje stavovima građana uoči brojnih izbornih procesa ove godine na sasvim nove nivoe.

Kreiranje deepfake audio-sadržaja je, pritom, relativno jednostavno i može ga izvesti bilo ko. Stručnjaci koji se bave digitalnom forenzikom navode da je potrebno oko par minuta autentičnog glasa osobe, a uz upotrebu jeftinog široko dostupnog alata moguće je na osnovu reference klonirati glas. Nakon toga, potrebno je samo otkucati rečenice koje želimo da čujemo i dobija se uverljiv govor za nekoliko sekundi. Osim mehanizma tekst-u-zvuk, postoji i način da se to uradi mehanizmom govor-u-govor.

Nasuprot jednostavnoj i jeftinoj proizvodnji, detekcija deepfake audio-sadržaja je mnogo kompleksnija, skupa, zahteva visoko razvijene digitalne servise i veštine. Dok deepfake video pruža mnogo više prostora za uviđanje manipulacije – od neuobičajene mimike do zamućenih delova slike – u slučaju lažnog glasa šumovima, muzikom ili prostim smanjivanjem kvaliteta snimka lakše se prikrivaju odstupanja od autentičnog.

Lažni glas Baraka Obame razotkrila je mreža NewsGuard i povezala ga sa 17 TikTok naloga koji su koristili hiperrealističnu tehnologiju AI glasa sa ciljem dezinformisanja. NewsGuard je saopštio da je mreža naloga od maja 2023. proizvela oko 5.000 video-snimaka, od kojih mnogi sadrže glasovne snimke očigledno AI generisane.

TikTok, formalno, zahteva jasne oznake za sadržaj koji je proizveden upotrebom AI, ali pomenuti video-snimci sa lažnim glasom Baraka Obame nisu bili registrovani, niti markirani. Paralelno, kompanija Meta je razvila AudioSeal — prvi audio sistem „vodenog žiga“, specijalizovanog za lokalizaciju sintetizovanog govora unutar audio-klipova, što jeste krupan korak, ali ne i konačno rešenje problema.

U borbi protiv dezinformisanja upotrebom deepfake sadržaja biće neophodna koordinisana i simultana akcija industrije, zakonodavaca i obrazovnog sistema. Već sada je izvesno da ozbiljna, sistemska regulacija daleko zaostaje za dešavanjima u praksi i svakodnevnom životu.

Izvor: Radar / Ana Martinoli
Foto: YouTube printscreen

Možda ti se takođe sviđa

Gradi se ostrvo kojim će upravljati veštačka inteligencija

Startap iz Srbije razvija AI rešenje za preciznu dijagnostiku raka

ChatGPT pretekao Vikipediju

Da li će veštačka inteligencija učiniti decu pametnijom

Novi satelit Biomas nadziraće šume na zemlji

OZNAKE:AIdeepfakeMetaVeštačka inteligencija

Prijavite se za dnevni bilten

Budite u toku! Dobijajte najnovije najnovije vesti direktno u prijemno sanduče.

Prijavljivanjem prihvatate naše Uslove korišćenja i prihvatate prakse podataka u našoj Politici privatnosti. Možete otkazati pretplatu u bilo kom trenutku.
Objavi
Prethodni članak Priča o praistoriji u Srbiji počela je u Sićevačkoj klisuri pre pola milijarde godina: Koreni evropske civilizacije
Sledeći članak Još jedno beščasno informisanje javnosti o tragediji Još jedno beščasno informisanje javnosti o tragediji
Ostavite komentar Ostavite komentar

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

Najnovije vesti

Ninić o šestoro uhapšenih zbog razgovora u kafani Politički progon u režiji bezbednosnih službi i tabloida
Ninić o šestoro uhapšenih zbog razgovora u kafani: Politički progon u režiji bezbednosnih službi i tabloida
Društvo 26/06/2025
Milan St. Protić Bilo bi lepo da ovaj Vidovdan bude Vidovdan pobede, a ne Vidovdan poraza
Milan St. Protić: Bilo bi lepo da ovaj Vidovdan bude Vidovdan pobede, a ne Vidovdan poraza
Društvo 26/06/2025
Šta bi mogla da znači građanska neposlušnost ako se ne ispune zahtevi studenata do Vidovdana
Šta bi mogla da znači građanska neposlušnost ako se ne ispune zahtevi studenata do Vidovdana?
Politika 26/06/2025
Tramp Sprečili smo Srbiju – Planirala je napad na Kosovo
Tramp: Sprečili smo Srbiju – Planirala je napad na Kosovo
Svet 26/06/2025

Linkovi

  • KONTAKT
  • POLITIKA PRIVATNOSTI
  • UPRAVLJANJE KOLAČIĆIMA

Vesti

  • POLITIKA
  • DRUŠTVO
  • SVET
  • KULTURA
  • SPORT

Magazin

  • BIZNIS
  • ISTORIJA
  • INTERVJU
  • TEHNOLOGIJA
  • ZDRAVLJE

Prijavite se za naš bilten

Prijavite se na naš besplatni bilten da biste odmah dobili naše najnovije članke!

NaslovnicaNaslovnica
Pratite nas
© 2024 Naslovnica.rs | Sva prava zadržana.
Prijavite se za naš bilten!

Prijavite se na naš besplatni bilten da biste odmah dobili naše najnovije članke!

Nema neželjene pošte, otkažite pretplatu u bilo kom trenutku.
Dobrodošli nazad!

Prijavite se na svoj nalog

Lost your password?