Garsios žvaigždės kovoja su DI, bet nukentėti gali visi: kopijuoja ir veidus, ir balsą

0
35
Lukas Keraitis, „Tele2“ Inovacijų ekspertas

Puikiai žinomas Holivudo aktorius Tomas Hanksas visai neseniai įsivėlė į nemalonią situaciją. Žvaigždei teko įrodinėti gerbėjams, kad dantų klinikos reklamoje nusifilmavo ne jis, o jo dirbtinio intelekto (DI) kopija. Su panašiomis situacijomis, kai DI suklastota išvaizda ar balsas naudojami savanaudiškiems tikslams, susidūrė ir kitos garsios asmenybės, nukentėję yra ir paprasti žmonės. Lukas Keraitis, „Tele2“ Inovacijų ekspertas, pastebi, kad daugėja istorijų apie tai, kaip apjungdami dirbtinį intelektą iš tikroviškų apgaulių pasipelnyti bando sukčiai.

Žvaigždės teises gina teismuose

„Saugokitės! Plinta vaizdo įrašas, reklamuojantis kažkokią dantų taisymo programą, kuriame pasirodo mano dirbtinio intelekto versija. Aš su tuo visiškai nesusijęs“, – neseniai tokiu pasiaiškinimu internete dalijosi T. Hanksas.

Panaši situacija nutiko ir „YouTube“ kūrėjui Mr. Beast, kurio atvaizdas internete siūlė laimėti „iPhone“ išmaniuosius telefonus, sudalyvaujant kelis dolerius kainuojančioje loterijoje, taip pat aktorei Scarlett Jonansson, kurios atvaizdą bandyta naudoti netikrai reklamai.

Garsus aktorius jau anksčiau yra kalbėjęs apie tai, kokį „meninį iššūkį“ dirbtinis intelektas kelia kino industrijai. Šis klausimas taip pat buvo plačiai aptarinėjamas per šio mėnesio pradžioje pasibaigusį Holivudo aktorių ir rašytojų streiką. Didėjant DI sistemų sudėtingumui ir galimybėms kilo susirūpinimas dėl kompiuterių gebėjimo kurti vis tikroviškesnes virtualias realių žmonių versijas. Jos neretai vadinamos giluminėmis klastotėmis (angl. „deepfake“).

„2017–2018 metais pasirodžius pirmosioms giluminėms klastotėms buvo kalbama, kad dėl to padaugės apgaulių, kai apsimetama kitu žmogumi. Panašu, kad daugeliui eilinių sukčių ta technologija dar buvo pernelyg sudėtinga – norint ją išnaudoti išties reikia programavimo žinių, šiokių tokių kompiuterinių resursų. Dirbtinio intelekto įrankiais nukopijuoti balso tembrą, veido mimikas tampa išties labai paprasta“, – sako L. Keraitis.

Kai kurios žvaigždės imasi kovoti su juos savanaudiškai atkartoti pasitelkiant DI bandančiais žmonėmis. Pavyzdžiui, garsus Indijos aktorius Anil Kapoor už teisybę net kovojo teisme. Filme „Lūšnynų milijonierius“ vaidinęs aktorius pateikė ieškinį Delio aukštajam teismui dėl savo veido, atvaizdo, balso ir kitų asmenybės bruožų teisių apsaugos. A. Kapooras sulaukė teismo nuosprendžio ir bylą laimėjo.

„Įdomu, kad anksčiau įžymybės galėjo paduoti į teismą už tai, kad nuotrauka naudojama reklamoje be jų sutikimo ar neteisėtais tikslais. Bet dabar įžymybių veidai gali būti sugeneruoti DI, kaip generuojami paprasti gamtos vaizdai“, – pastebi L. Keraitis.

Tobulėja ir balso technologijos

DI sistemos gali išanalizuoti balsą pagal tembrą, toną, kalbėjimo greitį, ritmiškumą ir sklindančias garso bangas. Šie parametrai paverčiami skaitmeninėmis garso bangomis ir perkeliami į specialius dirbtiniam intelektui suprantamus algoritmus.

Dažnu atveju balso atpažinimas gali būti iš tiesų naudingas – pavyzdžiui, padėti bendrauti skirtingų kultūrų ir gebėjimų žmonėms. Atsirado įrankių, kurie gali realiu laiku automatiškai versti žmogaus balsą į kitą kalbą ir net bandyti atkartoti panašų balso tembrą. 

„Balso DI platforma „ElevenLabs“ pristatė naują dirbtinio intelekto dubliavimo funkciją. Ji gali per kelias minutes konvertuoti balsu pasakomą turinį į kitą kalbą, išsaugant originalaus kalbėtojo balsą. Ir nors kol kas veikia ne pilnai sklandžiai, ji suteikia galimybę mano atvaizdui staiga prabilti japoniškai“, – sako L. Keraitis.

Tiesa, pasitaikė ir ne tokių gerų atsiliepimų sulaukusių šio įrankio bandymų. Štai Niujorko meras Ericas Adamsas, norėdamas kreiptis į niujorkiečius, sukūrė savo DI balso kopijas. Vienoje spaudos konferencijoje meras prasitarė, kad jo komandos nariai skambina miestiečiams ir su jais bendrauja DI sukurta mero balso versija įvairiomis kalbomis, nors pats meras iš tiesų jomis nekalba.

Toks poelgis papiktino kritikus, kurie teigė, kad taip sudaromas klaidingas įspūdis apie mero gebėjimus bei sukuriama dingstis nesąžiningam DI balso technologijų naudojimui ar net propagandai politikos srityje.

Gali pasinaudoti sukčiai

Vis dėlto, kibernetinio saugumo ekspertai pastebi, kad dabar vadinamąjį balso klonavimą jau naudoja ir kibernetiniai nusikaltėliai. Tai nusikaltimas, kurio metu vagišiai iš telefono numerio skambina artimiesiems imituodami įrenginio savininko balsą. Kibernetiniai sukčiai šią taktiką pasitelkia ne tik skambučiams – jie gali sukurti netikrus garso įrašus, kuriuose skamba jūsų balso klastotė ir jais manipuliuoti norėdami gauti pinigų.

„Reikia paminėti, kad tokios apgaulės net anglakalbėse šalyse yra retos. Lietuvių kalbą šnekos technologijų progresas, pasiekia pavėluodamas, bet šiuo atveju netikėtai išlošiame – bent kol kas sukčiai dar neįsigudrino naudoti lietuviško balso technologijas, kad žmonėms skambintų dirbtiniu intelektu sugeneruotas balsas“, – sako L. Keraitis.

Tam, kad galėtų naudoti jūsų balsą, programišiams tereikia rasti įrašą, kuriame kalbate bent kelias sekundes. Turėdami pakankamai duomenų sukčiai jūsų balsą imituoti gali pasitelkdami dirbtinį intelektą ar net paversti kito žmogaus balsą panašų į jūsų.

Palikti atsiliepima

įveskite savo komentarą!
įveskite savo vardą čia

Rekomenduojami video

Taip pat skaitykite: