Ar šie dirbtinio intelekto sukurti netikri žmonės jums atrodo tikri? - Niujorko laikas

0 33



Dabar yra verslų, kurie parduoda netikrus žmones. „Generated.Photos“ svetainėje galite nusipirkti „unikalų, be rūpesčių“ padirbtą asmenį už 2.99 USD arba 1,000 1,000 žmonių už XNUMX XNUMX USD. Jei jums reikia tik kelių padirbtų žmonių - vaizdo žaidimų veikėjams arba jūsų įmonės svetainei sukurti atrodo įvairesni - nemokamai galite gauti jų nuotraukas iš „ThisPersonDoesNotExist.com“. Pagal poreikį sureguliuokite jų panašumą; padarykite juos senus ar jaunus ar pasirinktą tautybę. Jei norite, kad jūsų netikras žmogus būtų animuotas, įmonė „Rosebud.AI“ gali tai padaryti ir netgi priversti juos kalbėtis.

Šie imituoti žmonės pradeda rodytis internete, kuriuos kaip kaukes naudoja tikri žmonės, turintys piktadarystę: šnipai, kurie patrauklus veidas stengiantis įsiskverbti į žvalgybos bendruomenę; dešiniųjų propagandistų kurie slepiasi už padirbtų profilių, nuotraukų ir visko; prisijungęs priekabiautojai kurie draugišku veidu trolina savo taikinius.

Mes sukūrėme savo AI sistemą, kad suprastume, kaip lengva sugeneruoti skirtingus netikrus veidus.

PG sistema mato kiekvieną veidą kaip sudėtingą matematinę figūrą, vertybių diapazoną, kurį galima perkelti. Pasirinkus skirtingas vertybes, pavyzdžiui, tas, kurios lemia akių dydį ir formą, gali pasikeisti visas vaizdas.

Kitoms savybėms mūsų sistema naudojo kitokį požiūrį. Užuot perkėlusi reikšmes, nustatančias konkrečias vaizdo dalis, sistema pirmiausia sugeneravo du vaizdus, ​​kad nustatytų visų reikšmių pradžios ir pabaigos taškus, o po to sukūrė vaizdus.

Tokio tipo netikrų vaizdų kūrimas tapo įmanomas tik pastaraisiais metais dėl naujo dirbtinio intelekto tipo, vadinamo generatyviniu rungimosi tinklu. Iš esmės kompiuterinę programą tiekiate daugybe tikrų žmonių nuotraukų. Jis tyrinėja juos ir bando sugalvoti savo žmonių nuotraukas, o kita sistemos dalis bando nustatyti, kurios iš tų nuotraukų yra netikros.

Pirmyn ir atgal galutinis produktas tampa vis labiau neišsiskiriantis iš tikrojo. Šios istorijos portretus sukūrė „The Times“, naudodama GAN programinę įrangą, kurią viešai paskelbė kompiuterinės grafikos įmonė „Nvidia“.

Atsižvelgiant į tobulėjimo tempą, lengva įsivaizduoti ne tokią tolimą ateitį, kurioje susiduriame ne tik su netikrų žmonių portretais, bet ir su visomis jų kolekcijomis - vakarėlyje su netikrais draugais, pabendraudami su savo netikrais šunimis, laikydami savo netikrus kūdikius. Taps vis sunkiau pasakyti, kas yra tikras internete, o kas yra kompiuterio vaizduotės vaisius.

„Kai technologija pirmą kartą pasirodė 2014 m., Ji buvo bloga - atrodė simsai“, - sakė dezinformacijos tyrinėtojas Camille'as François, kurio užduotis yra analizuoti manipuliavimą socialiniais tinklais. „Tai priminimas, kaip greitai technologija gali vystytis. Laikui bėgant aptikti bus tik sunkiau “.

Veido klastojimo pažanga buvo įmanoma iš dalies dėl to, kad technologijos tapo kur kas geresnės nustatant pagrindinius veido bruožus. Galite naudoti savo veidą, kad atrakintumėte išmanųjį telefoną, arba liepkite savo nuotraukų programinei įrangai surūšiuoti tūkstančius nuotraukų ir parodyti tik jūsų vaiko nuotraukas. Veido atpažinimo programas naudoja teisėsauga, kad nustatytų ir sulaikytų įtariamuosius (taip pat ir kai kurie aktyvistai atskleisti policijos pareigūnų, kurie uždengia savo vardus, bandydami išlikti anonimais, tapatybę). Paskambino įmonė „Clearview“ AI sukrapštė milijardų viešų nuotraukų, kurias kasdieniai vartotojai laisvai dalijasi internete, tinklą ir sukūrė programą, galinčią atpažinti nepažįstamą žmogų tik iš vienos nuotraukos. Ši technologija žada supervalstybes: galimybę organizuoti ir apdoroti pasaulį taip, kaip anksčiau nebuvo įmanoma.

Tačiau veido atpažinimo algoritmai, kaip ir kitos dirbtinio intelekto sistemos, nėra tobuli. Dėl pagrindinio duomenų, naudojamų jiems mokyti, šališkumo, kai kurios iš šių sistemų nėra tokios geros, pavyzdžiui, atpažįsta spalvingus žmones. 2015 m. „Google“ sukurta ankstyvo vaizdo aptikimo sistema paženklinti du juodaodžiai, kaip „gorilos“, greičiausiai todėl, kad sistema buvo maitinta daug daugiau gorilų nuotraukų nei žmonių su tamsia oda.

Be to, kameros - veido atpažinimo sistemų akys - yra nėra taip gerai gaudyti žmones su tamsia oda; tas nelemtas standartas datuojamas ankstyvaisiais filmų kūrimo laikais, kai nuotraukos buvo sukalibruoti geriausiai parodyti šviesiaodžių žmonių veidai. Pasekmės gali būti sunkios. Sausio mėnesį buvo sulaikytas juodasis vyras Detroite, vardu Robertas Williamsas nusikaltimo, kurio jis nepadarė dėl neteisingų veido atpažinimo rungtynių.

Dirbtinis intelektas gali palengvinti mūsų gyvenimą, bet galų gale jis yra toks pat ydingas, kaip ir mes, nes mes esame už viso to. Žmonės pasirenka, kaip gaminamos dirbtinio intelekto sistemos ir kokie duomenys joms yra veikiami. Mes pasirenkame balsus, kurie moko virtualius padėjėjus girdėti, vadovauja šioms sistemoms nesuprasti žmonių su akcentais. Mes suprojektuojame kompiuterinę programą nuspėti asmens nusikalstamą elgesį, pateikdami jai duomenis apie ankstesnius žmogaus teisėjų sprendimus ir jų eigą kepimas tų teisėjų šališkumu. Mes pažymime vaizdus, ​​kurie moko kompiuterius matyti; tada jie asocijuojasi akiniai su „dweebs“ ar „nerds."

Galite pastebėti kai kurias klaidas ir modelius, kuriuos mes radome, kai mūsų dirbtinio intelekto sistema kartojo sukurdama netikrus veidus.


Žmonės, žinoma, klysta: mes nepastebime šių sistemų trūkumų arba nepaisome jų, per greitai pasitikėdami, kad kompiuteriai yra hiperacionalūs, objektyvūs, visada teisūs. Tyrimai parodė, kad situacijose, kai žmonės ir kompiuteriai turi bendradarbiauti priimdami sprendimą - atpažinti pirštų atspaudai or žmogaus veidai - žmonės nuosekliai padarė neteisingą identifikaciją, kai kompiuteris juos pamudino tai padaryti. Ankstesniais prietaisų skydelio GPS sistemų laikais vairuotojai garsiai sekė prietaisų nurodymus į kaltę, siunčiant automobilius į ežerus, nuo uolų ir į medžius.

Ar tai nuolankumas, ar hubrisas? Ar per mažai vertiname žmogaus intelektą - ar pervertiname, manydami, kad esame tokie protingi, kad vis tiek galime kurti dalykus protingesni?

„Google“ ir „Bing“ algoritmai rūšiuoja pasaulio žinias mums. „Facebook“ naujienų kanalas filtruoja atnaujinimus iš mūsų socialinių sluoksnių ir nusprendžia, kurie yra pakankamai svarbūs, kad mus parodytų. Turėdami savaiminio vairavimo funkcijas automobiliuose įdėti savo saugumą į rankas (ir akis) programinės įrangos. Mes labai pasitikime šiomis sistemomis, tačiau jos gali būti tokios pat klystančios kaip ir mes.

Daugiau straipsnių apie dirbtinį intelektą:

Veido atpažinimo mokymas kai kuriems naujiems pūkuotiems draugams: lokiai

Antikūnai geri. Mašinoje pagamintos molekulės geresnės?

Šie algoritmai galėtų užbaigti mirtiniausią pasaulyje žudiką

Šis straipsnis pirmą kartą pasirodė (anglų kalba) svetainėje https://www.nytimes.com/interactive/2020/11/21/science/artificial-intelligence-fake-people-faces.html

Komentuoti

Jūsų el. Pašto adresas nebus paskelbtas.