Teave

Tehisintellekti võltsinguid on nüüd lihtsam teha kui kunagi varem, osutades paha tulevikule

Tehisintellekti võltsinguid on nüüd lihtsam teha kui kunagi varem, osutades paha tulevikule

Häirivas arengus on teadlased loonud tehisintellekti süvavõltside tootmiseks uue tehnika, mis nõuab ainult selle teksti sisestamist, mille soovite inimese öelda.

Uue tehnoloogia häirimine hoiab lihtsalt ilma põhjendatud põhjuseta paremaks

Teadlased on välja töötanud uue tehisintellekti, mis suudab videot redigeerida, et panna inimene ütlema mida iganes, lihtsalt sisestades selle, mida soovite öelda. See on järgmine samm edasi tehnoloogias, millel pole tegelikku positiivset sotsiaalset kasulikkust, välja arvatud selleks, et aidata filmistuudiotel raha kokku hoida, kuid autoritaarsed valitsused üle maailma garanteerivad selle väärkasutamise eriarvamuste diskrediteerimiseks, kättemaksuporno tekitamiseks ja sotsiaalse konflikti õhutamiseks.

SEOTUD: SEDA ISIKUT EI OLE VEEBISAIT ON PÕHJALIK VAADE TULEVIKU

Stanfordi ülikooli, Princetoni ülikooli, Max Plancki informaatikainstituudi ja Adobe Researchi teadlased on edasi läinud ja näidanud esmapilgul usutavat põhjust, miks inimesed tehnoloogiat ei usalda, arendades välja uue tarkvaraplatvormi, mis võimaldab teil redigeerida kellegi salvestatud teksti ärakirja kõne video muutmiseks, et öelda midagi, mida nad tegelikult ei öelnud.

Tehnoloogia töötab, sobitades foneemi, loomuliku keele töötlemise termini erinevate helide jaoks visimeega, näokujuga, mille need foneemid teevad, kui inimene räägib foneemi, ja seejärel tehisintellekti abil uue video genereerimiseks. mida inimene ütles. Transkripti muutmine redigeerib seejärel inimese videot, et see vastaks muudetud tekstile.

Teadlaste sõnul on meie tekstipõhine redigeerimispõhimõte filmi järeltöötluse paremate redigeerimisvahendite loomiseks. Filmitud dialoogi stseenid vajavad sageli väikeste skriptimuudatuste põhjal ajastamist või redigeerimist, mis nõuab praegu tüütut käsitööd. Meie redigeerimistehnika võimaldab ka audiovisuaalse videosisu hõlpsalt kohandada konkreetsele sihtrühmale: nt saab õppevideoid häälestada erineva taustaga publikule või jutuvestja videot saab kohandada eri vanuserühmade lastele puhtalt tekstiskriptide toimetuste põhjal. Lühidalt öeldes töötati meie töö välja jutustamise eesmärgil. "

Teadlased tunnistavad halbade näitlejate potentsiaali kasutada oma tehnoloogiat alatutel eesmärkidel ja pakuvad sellele vältimatule probleemile võimalikke lahendusi.

"Kuigi piltide ja videotega manipuleerimise meetodid on sama vanad kui meedia ise," kirjutavad teadlased [PDF], "väärkohtlemise riskid suurenevad, kui neid rakendatakse suhtlusviisile, mida mõnikord peetakse autoriteetseks tõendiks mõtetest ja kavatsustest. . Tunnistame, et halvad näitlejad võivad selliseid tehnoloogiaid kasutada isiklike avalduste võltsimiseks ja silmapaistvate isikute laimamiseks. Oleme sellise pettuse ja väärkasutuse pärast mures.

"Seetõttu," jätkavad nad, "usume, et on ülioluline, et meie tööriista abil sünteesitud video oleks selgelt sünteetiline. Video sünteesimine võib olla konteksti järgi ilmne (nt kui publik saab aru, et ta vaatab väljamõeldud filmi) , mis on otse videol märgitud või vesimärgiga signaalitud. Samuti usume, et enne saadud video laiemale publikule jagamist on esitajatel vaja muudatuste tegemiseks luba hankida. Lõpuks on oluline, et me kogukonnana areneksime edasi kohtuekspertiisi, sõrmejälgede võtmise ja kontrollimeetodid (digitaalsed ja mitte-digitaalsed) manipuleeritud video tuvastamiseks. Sellised kaitsemeetmed vähendaksid väärkasutamise võimalust, võimaldades samas meie videotöötlustehnoloogiate loovat kasutamist. "

Võtame need ükshaaval.

Esiteks näitab soovitus, et deepfakes peaksid end sellisena selgelt esitama, mis näitab propagandast nuhkivalt naiivset arusaama. Stalin oleks leidnud, et sellised manitsused on omapärased ja nii on ka tulevikus igal autoritaarsel valitsusel või poliitilisel liikumisel, kes kasutavad seda tehnoloogiat teisitimõtlejate, poliitiliste oponentide ning etniliste või usuliste vähemuste sihtimiseks.

Teiseks, kui tehisintellekt suudab luua võltsitud videoid, saab tehisintellekti võrk vesimärgi veelgi lihtsamalt eemaldada. See pole lahendus.

Kolmandaks, nõusolek oma esinejana kõne muutmiseks on filmitööstuses kindlasti positiivne, kuid see ei tähenda midagi, kui keegi kavatseb luua ebaseadusliku võltsingu. Halvad näitlejad ei küsi nõusolekut võltskuulsuse loomiseks ega pornograafia kättemaksuks ega teiste päevakorras teiste laimamiseks ja määrimiseks.

Viimaseks on võltsingute avastamiseks tööriistade loomine propaganda osas täiesti kasutu. Siioni vanemate protokollid on üle sajandi vana tsaariaegne võltsing ja sama kaua on seda võltsinguna diskrediteeritud, kuid siiski kasutatakse seda kogu maailmas antisemitismi edukaks propageerimiseks tänaseni. Kui kaua enne seda kui internetis hakkavad levima klipid, kus George Soros räägib kristlaste laste vere kasutamisest juudi küpsetiste jaoks? Kas me peaksime tegelikult uskuma, et nende videote tõestamine on ainult võltsimine, et vältida nende videote uskumatut kahju?

Selle tehnoloogia abil tapetakse terved populatsioonid

Tehnikatööstus on harjunud, et teda kummardatakse kui meie aja ja raha päästjat, kes on uhke ettevõtluseetosega, mis piirneb peaaegu Bioshock-objektivistliku-nartsissismi tasemel, kuid praod nende avalikus kuvandis on hakanud levima. Uberi ja Lyfti autojuhid on lähedal vaesuspalkade mässule. Facebook üritab meeleheitlikult naeruväärselt kaubamärki uuendada kui "privaatsusele keskendunud võrku", isegi kui ta jätkab isikuandmete levitamist maailma nagu joobes baaris, püüdes kinni hoida seda viimast pinti õlut. Nüüd saavad tehisintellekti süvavõltsidega tegelevad teadlased öelda otse, et vastus nende tehnoloogia propagandistlikule väärkasutamisele on vesimärk või muu tehnoloogia usaldamine, et päästa meid nende loodud tehnoloogia ohtude eest.

Nagu 2016. aasta USA presidendivalimised näitasid kogu maailmale, võib madalate suhteliste kuludega infotehnoloogia avaldada ülisuurt mõju ja sügavate võltsingute propagandistlik väärtus kogu maailmas on kohutav. Me ei pea ootama ka selle mängu esitamist; see võib juba juhtuda. Gaboni presidendi Ali Bongo Ondimba hiljutine aastavahetuse video põhjustas poliitilise kriisi pärast seda, kui mõned kriitikud - sealhulgas riigi sõjavägi - vaidlustasid video kui võltsingut, mille eesmärk oli varjata presidendi praegust olukorda.

Kas video on võltsitud või mitte, on ebaselge ja jääb ausalt kõrvale. Asjaolu, et see tehnoloogia on olemas, kahjustab mõlemat moodi. Võltsvideoid saab kasutada opositsioonitegelaste diskrediteerimiseks, läbikukkunud juhtide propageerimiseks või muu väärinfo levitamiseks; või saavad inimesed nüüd videodokumentatsiooni asjadest, mis neile ei meeldi, jätta "sügavateks võltsinguteks", isegi kui need on tõelised. Video autentsuse kindlakstegemine on sama kasulik kui faktide kontrollija on võltsuudiste leviku vastu võitlemisel olnud.

Uue tarkvaratehnoloogia väljatöötanud teadlased nõuavad igasuguseid kaitsemeetmeid, mis tuleks rakendada, et kaitsta maailma nende tehnoloogia tagajärgede eest, kuid kuigi nad kiirustavad tehnoloogia väljatöötamist võltsvideote tootmiseks, ei tundu keegi olla huvitatud nende kaitsemeetmete väljatöötamisest.

Selle uusima tarkvara taga olevad teadlased loodavad sisuliselt seda, et kogu maailma elanikkond - kellest enamik on oma teabeallikate suhtes eri tasemel kontrollinud - saab ise aru, kas valitsuse televisioonis äsja nähtud video oli võltsitud või mitte. Ilmselt ei saa neid viitsida seda ise teha.

Selle tehnoloogia tagajärgi ei saa alahinnata. 1994. aastal tulistati alla Rwanda presidenti kandev lennuk, tappes kõik pardal olijad. Rwanda Hutu valitsus süüdistas rünnakus tutsi mässulist armeed, põhjustades sada päeva kestnud tutsi tsiviilisikute genotsiidi, mis nõudis ligi miljon inimelu. Balkani riikide erinevad konfliktid on alates Jugoslaavia lagunemisest maksnud üle saja tuhande inimese ning valitsused on kogu inimkonna ajaloo vältel juba pikka aega valeinformatsiooni ja otseseid väljamõeldisi kasutanud juutide ja teiste tagakiusatud vähemuste vastu pogrommide õhutamiseks.

Sellised pinged on praegu kogu maailmas, oodates leekpunkti, mis need pinged sõjaks ja genotsiidiks sütitab. Silmapaistva religioosse või etnilise vähemuse juhi või tegelase, kes "tunnistab" üles mõne kohutava kuriteo, võltsimine oleks kindlam "õigustus" genotsiidi õhutamiseks, kui on tuginenud varasematele genotsiididele. Siiani ei tea keegi, kes Rwanda presidendi lennuki alla tulistas, kuid tapmise veeretamiseks kulus vaid jõuline süüdistus.

Kõik olukorrad pole 1994. aasta Rwanda, mõnikord ei piisa süüdistusest - aga kes vajab süüdistust, kui saate "pihtida"? Miski ei takista sügavat võltsimist 21. sajandiks saamisel Siioni vanemate protokollid- tegelikult on see garanteeritud, et selline võltsimine on nüüd vältimatu ja inimesed kindlasti selle tõttu surevad. Palju inimesi.

Tema oma Ema Jones lugu Gaboni sügava võltsingu vaidlusest kirjutab Ali Breland: "Kuigi enamik meedias kajastatud süvavõltsinguid on keskendunud õuduse stsenaariumidele, kus neid kasutatakse USA ja teiste lääneriikide vastu, hoiatavad eksperdid, et süvavõltsingud võivad arengumaades kõige rohkem kaost tekitada , kus elavad sageli habras valitsus ja vastse digitaalse kirjaoskusega elanikkond. Selle asemel, et võltsvideo Amazoni tegevjuhist Jeff Bezosest kuulutada välja pensionile jäämine, aktsiasukeldumise käivitamine, võib vale teave mõnes riigis põhjustada riigipöördeid, soolist või etniliselt motiveeritud vägivalda , ähvardades tervete riikide stabiilsust. "

Hiljutises New York Timesi kirjatükis usub Toronto Yorgi ülikooli filosoofiaõpetaja dr Regina Rini, et tagasi pöörduda on juba liiga hilja ja me peame end ette valmistama videot käsitlema pigem tunnistajate ütlustena kui siis dokumentaalsetena . "[Ma] pole selge, et praegused vaidlused võltsuudiste kohta on vaid maitse sellest, mis juhtub, kui helid ja pildid, mitte ainult sõnad, on kõigile manipuleerimiseks avatud korraliku arvutiga."

Eetika, šmetika

Kui selle tehnoloogia tootmisega seotud inimesed oleksid saanud korraliku eetika- või isegi ajalooõpetuse, poleks see tehnoloogia kunagi ettepanekute etapist lahkunud ja kõik, kes seda soovivad, oleksid vallandatud juhtide poolt, kes oli saanud korraliku eetilise hariduse. Kuna keegi selle tehnoloogia väljatöötanud ettevõtete ja asutuste ametiasutustest ei näi arvavat, et sellised kaalutlused puudutavad piisavalt selle tehnoloogia ehitamise takistamist, võib olla aeg, et ühiskond astuks samme ja aitaks neid inimesi reguleerimisega tagasi tuua.

Kõnealused teadlased näivad seda punkti ise hindavat, kui nad kirjutavad: "usume, et vajalik on tugev avalik vestlus, et luua asjakohased määrused ja seadused, mis tasakaalustaksid nende tööriistade väärkasutamise riskid loova, üksmeelse tähtsusega kasutamise juhtumid. " Sellega poleks aga pidanud kunagi nii kaugele jõudma, kuna "loominguliste, konsensuslikel eesmärkidel kasutamise juhtumite" tähtsus väheneb tohutu kahju kõrval, mida nende tehnoloogia "väärkasutamine" tekitab. Kaaludes üksteist, peaks mõistlik inimene olema võimeline järeldama, et mitte mingil juhul ei õigusta selle tehnoloogia kasu tööstusele selle tehnoloogia ühiskonnale tekitatavat kahju. Tundub, et tehnikatööstus on mõistlikest inimestest puudulik, kuna nad ei saa ilmselgelt ennast aidata, kui näevad mõnda muud sotsiaalset struktuuri, mida nad võivad "häirida".

Juba see tehnoloogia tähendab, et me ei saa enam usaldada seda, mida oma silmaga näeme. Võib väita, et peaksime alati valeinfo suhtes valvsad olema, kuid ka see on naiivne. Kes soovib veeta iga ärkveloleku teabe lugemise, vaatamise või seedimisega sellise kõva ninaga, kogu aeg? See nõuab haridust ja vaimset energiat, mida kõigil pole ja mida keegi ei saa igavesti ülal pidada. Ühiskond on üles ehitatud lõppkokkuvõttes teatud usaldustasemele. See tehnoloogia lihtsalt hävitab osa sellest raskesti võidetud usaldusest üksteise vastu, mida ei saa lihtsalt parandada, kui üldse.

Aga hei, kui teil on väike skripti redigeerimine ja peate 15 sekundi pikkuse dialoogi uuesti üles võtma, on see tehnoloogia sotsiaalseid kulusid täiesti väärt.


Vaata videot: Elements of AI - Free Artificial Intelligence course for beginners (Jaanuar 2022).