- LRT inf.
- Teksto dydis:
- Spausdinti
Praėjusių metų kovo mėnesį bendrovė „Microsoft“ socialiniame tinkle „Twitter“ pristatė dirbtinio intelekto botą „Tay“. Vos po paros „Tay“ į kairę ir į dešinę taškėsi rasistinio pobūdžio komentarais, atitinkamos leksikos išmokęs iš tų pačių „Twitter“ vartotojų, su kuriais komunikavo.
Neseniai atlikto tyrimo duomenimis, „Twitter“ troliai nėra vienintelis šaltinis, iš kurio dirbtinio intelekto programos gali pasisemti rasistinio pobūdžio „išminties“. Nustatyta, kad bet kokia dirbtinio intelekto programa anksčiau ar vėliau tampa šališka, visai kaip žmonės, mokslo naujienų portale livescience.com rašo apžvalgininkė Stephanie Pappas.
Tyrėjai atliko keletą eksperimentų su plačiai naudojama mašinų mokymosi sistema „Global Vectors for Word Representation“ (GloVe) ir nustatė, kad dirbtinio intelekto programos sėkmingai perima pačius įvairiausius žmonėms būdingo šališkumo aspektus. „GloVe“ – tekstais paremtų asociacijų generavimo priemonė; šiuo atveju tai – standartinis žiniatinklio kalbos pagrindu sukauptas tekstynas.
„Šių modelių veikimo rezultatai labai nustebino“, – sakė Prinstono universiteto (JAV) kompiuterių mokslo srities tyrėja Aylin Caliskan. Pasak jos, net ir tie dirbtinio intelekto įtaisai, kurių veikimas pagrįstas, reiktų manyti, nešališkais tekstais, kaip antai Vikipedijos įrašais arba naujienų pranešimais, pamažu ima atspindėti žmogiškąjį šališkumą.
Net ir dviprasmiškose situacijose mes žinome, koks sprendimas turėtų būti teisingas. Deja, mašinos nėra tokios sąmoningos.
Ne visas nuostatas aiškiai suvokiame
Psichologai jau seniai yra nustatę, kad žmogaus smegenys asociacijas tarp žodžių išveda remdamosi giluminėmis tų žodžių reikšmėmis. Šias asociacijas padeda įvardyti vadinamasis paslėptų asociacijų testas (angl. Implicit Association Test). Pavyzdžiui, žmogui pateikiamas žodis „narcizas“, o kartu nurodomos tokios malonius ir nemalonius jausmus sukeliančios sąvokos kaip „skausmas“ ir „grožis“. Žmogus turi kuo greičiau susieti žodį „narcizas“ su viena arba kita sąvoka, paspausdamas atitinkamą mygtuką.
Toks asociacijų testas gali būti naudojamas, pavyzdžiui, siekiant nustatyti, su kuo žmonės gali pasąmoningai sieti tam tikras socialines arba demografines grupes. Atsižvelgiant į tokio pobūdžio testų rezultatus, „Project Implicit“ interneto svetainėje nurodoma, kad žmonės yra labiau linkę automatiškai sieti ginklus su juodaodžiais amerikiečiais, o žalos nedarančius objektus – su baltaodžiais amerikiečiais.
Pasak S. Pappas, tyrėjai kol kas nesutaria dėl to, ką šie rezultatai įrodo. Ar šias asociacijas žmonės daro todėl, kad turi tam tikrų giliai įsišaknijusių asmeninių nuostatų, apie kurias net patys nežino? O gal jie jas perima iš kalbos, kurioje neigiamą atspalvį turintys žodžiai statistiškai dažniau pateikiami kalbant apie etnines mažumas, vyresnio amžiaus žmones ar kitas marginalizuotas grupes?
Vadovaujasi tais pačiais stereotipais
A. Caliskan kartu su kolegomis sukūrė būtent kompiuteriams skirtą paslėptų asociacijų testą – jį pavadino žodžių parinkimo asociacijų testu (angl. Word-Embedding Association Test, WEAT). Atliekant šį testą buvo vertinamas asociacijų tarp žodžių stiprumas sistemoje „GloVe“, panašiai, kaip atliekant paslėptų asociacijų testą yra vertinamas asociacijų stiprumas žmogaus smegenyse.
Tiek WEAT, tiek paslėptų asociacijų testo rezultatai kiekvienos tirtos asociacijos ir stereotipo atžvilgiu pasirodė esantys vienodi. Mašinų mokymosi priemonė atkartojo žmonėms būdingas daryti asociacijas: gėlių ir malonių žodžių, vabzdžių ir nemalonių žodžių, muzikos instrumentų ir malonių žodžių, ginklų ir nemalonių žodžių.
Tačiau nustatyta ir šiokių tokių nuogąstavimų keliančių sąsajų: baltaodžiams amerikiečiams būdingi vardai siejami su maloniais žodžiais, juodaodžiams – su nemaloniais. Įdomu dar ir tai, kad vyrų vardus sistema buvo linkusi sieti su karjerą žyminčiomis sąvokomis, o moterų – su šeimos reikalais. Vyrai buvo dažniau siejami su matematika ir mokslu, moterys – su menu. Vyresnio amžiaus žmonėms būdingi asmenvardžiai įvardyti kaip labiau nemalonūs negu tie, kurie siejami su jaunais žmonėmis.
Taikydami antrąjį – panašų – metodą, tyrėjai nustatė, kad mašinų mokymosi priemonė, darydama semantines asociacijas, geba pateikti visiškai tikslią informaciją apie pasaulį. Palyginusi „GloVe“ žodžių parinkimo rezultatus su tikraisiais JAV Darbo statistikos biuro turimais moterų užimtumo statistiniais duomenimis, A. Caliskan komanda nustatė 90 proc. koreliaciją tarp to, kokias profesijas moteriškomis įvardija „GloVe“, ir to, kokia iš tikrųjų yra atitinkamų profesijų moterų procentinė dalis.
Pasak A. Caliskan, programos, kurios mokosi iš žmonių vartojamos kalbos, „sau susiformuluoja labai tikslų pasaulio ir kultūros paveikslą“, net jei ta kultūra yra problemiška, kaip antai stereotipai ir įvairios subjektyvios nuostatos. Specialistės teigimu, užtikrinti, kad dirbtinio intelekto priemonės „suprastų“, koks elgesys yra nešališkas, būtų sunku.
„Mes abejojame, ar, pašalinus šališkumą, problemos tiesiog imtų ir išsispręstų, – sako ji. – Tai veikiausiai turėtų neigiamos įtakos programų gebėjimui tiksliai perteikti pasaulį.“
Lengvo sprendimo nėra
Kaip teigia su aptariamu tyrimu nesusijusi Haverfordo koledžo (JAV) informatikos specialistė Sorelle Friedler, šių metų balandžio 12 d. žurnale „Science“ paskelbti naujojo tyrimo duomenys visiškai nestebina. Tačiau, pasak jos, jie yra svarbūs. S. Friedler tikina, kad bet kokia dirbtinio intelekto programa, kuri naudojasi „GloVe“ arba mokosi iš žmonių vartojamos kalbos, pasmerkta anksčiau ar vėliau tapti šališka.
S. Friedler šiuo metu dalyvauja naujo pobūdžio tyrime, kuris vadinasi „Nešališkumas, atskaitomybė ir skaidrumas mašinų mokymosi srityje“ (angl. Fairness, Accountability and Transparency in Machine Learning). Jos teigimu, lengvo sprendimo šiuo atveju nėra. Kartais programuotojai galbūt ir galėtų programai nurodyti nepaisyti tam tikrų stereotipų, tačiau, kad ir kaip ten būtų, tam tikrais opiais atvejais žmonėms vis tiek tektų įsikišti ir įsitikinti, kad mašina pernelyg „neįsisiautėjo“. Specialistės nuomone, sprendimų galėtų būti daug ir įvairių – viskas priklauso nuo to, kokia yra atitinkamo dirbtinio intelekto įtaiso paskirtis.
Straipsnio autorė S. Pappas teigia, kad žmonių paslėptos nuostatos tam tikrų socialinių grupių atžvilgiu dažniausiai nelabai stipriai koreliuoja su jų atvirai reiškiamomis nuostatomis. Kodėl taip yra, psichologai nesutaria. Galbūt žmonės stengiasi neatskleisti kai kurių savo nuostatų, nes bijo pakenkti savo reputacijai? O galbūt paslėptų asociacijų testai nuostatas vertina ne visai tiksliai?
Tačiau, pasak A. Caliskan, net ir darydami šališkas asociacijas, žmonės vis dėlto sugeba atskirti, kas yra gerai, o kas – blogai. Mašinos, deja, to padaryti negali. „Net ir dviprasmiškose situacijose mes žinome, koks sprendimas turėtų būti teisingas, – sako ji. – Deja, mašinos nėra tokios sąmoningos.“
NAUJAUSI KOMENTARAI
SUSIJĘ STRAIPSNIAI
-
Kodėl retas lietuvis pasinaudoja teise ištrinti duomenis apie save iš interneto?12
Internetas apie kiekvieną iš mūsų žino daug ir kone amžiams. Tačiau lietuviai teise ištrinti duomenis apie save iš interneto naudojasi bene rečiausiai Europoje. Tai atskleidžia naujausia asmeninių duomenų nutekėjimą stebinčios...
-
Įspėjamieji pranešimai telefone: kodėl gauna ne visi?9
Ne visi gyventojai gauna įspėjamuosius pranešimus. Net ir tada, kai jiems tai gali būti gyvybiškai svarbu – pavyzdžiui, kad netoliese dega daugiabutis, artėja orų stichija ar kokia nelaimė Astravo atominėje elektrinėje. Apie tai, k...
-
Astronomai atrado didžiausią juodąją skylę Paukščių take
Antradienį paskelbtame moksliniame darbe nurodoma, kad astronomai nustatė didžiausią ligi šiol atrastą juodąją skylę Paukščių take, kurios masė ura 33 kartų didesnė nei Saulės. ...
-
Išvyskite: kaip atrodė Saulės užtemimas iš kosmoso
Pirmadienį įvyko retas ir visiškas Saulės užtemimas, kuris praslinko per Šiaurės Ameriką. Mokslininkai sako, kad dėl šio užtemimo galės surinkti neįkainojamų duomenų apie daugelį dalykų – nuo saulės atmosferos iki keis...
-
Rusija jau antrą dieną iš eilės atšaukė raketos paleidimą16
Trečiadienį, jau antrą dieną iš eilės, Rusija paskutinę minutę atšaukė raketos paleidimą. Tai dar viena šalies kosmoso programos nesėkmė. ...
-
Būdamas 96-erių mirė Nobelio premijos laureatas britų fizikas P. Higgsas
Būdamas 96-erių mirė britų fizikas Peteris Higgsas (Piteris Higsas), laimėjęs Nobelio premiją už „dieviškosios dalelės“ – Higso bozono, paaiškinančios masės egzistavimą – atradimą, antradienį pranešė ...
-
Medikus keičia dirbtinis intelektas: užstrigus kamerai – gyvybę kainuojančios klaidos?2
Rastas receptas, kaip užpildyti trūkstamas medikų darbo vietas. Taivane žmonių gyvybes gelbėja bei sveikata rūpinasi robotai ir dirbtinis intelektas. Tačiau tokia technika kol kas visiškai pasitikėti negalima. Ji jau padarė gyvybę kainuojan...
-
„Tesla“ planuoja rugpjūtį pristatyti robotaksi1
Elonas Muskas (Ilonas Maskas) pranešė, kad jo kontroliuojama elektromobilių gamintoja „Tesla“ šią vasarą pristatys robotaksi, o ši žinia pasirodė tuo metu, kai savavaldžių transporto priemonių diegimas dėl saugumo pro...
-
Iš orbitinės stoties į Žemę sugrįžo amerikietė, baltarusė ir rusas6
Iš Tarptautinės kosminės stoties (TKS) į Žemę sugrįžo amerikiečių astronautė Loral O'Hara, baltarusė Marina Vasilevskaja ir rusų kosmonautas Olegas Novickis. Juos parskraidinusi „Sojuz“ kapsulė nusileido Kazachstano stepėje...
-
Kova su piratavimu Lietuvoje: ar pasiteisino įvestos baudos?4
Norintiems piratauti Lietuvoje tampa vis sunkiau. Lietuvos radijo ir televizijos komisija (LRTK) sako, kad pernai įvestos baudos pažeidėjus pamažu atbaido. ...