Kes kirjutas?

4 minutit
Kuula

Kas öösel (mil müra häirib magajaid) võib muru niita? Või eirata telefonikõnet, teades, et tegemist on tähtsa ja kiireloomulise küsimusega? Röövida panka, olles tõesti vaene? Anda lubadus aidata hädasolevat sõpra, aga jätta lubadus täitmata? Minna matusele pidžaamas?

Need on vaid vähesed moraalsed dilemmad, millega on oma pead vaevanud inimesed, kes otsivad vastust tehis­intellektilt (TI). Jah, lugesite õigesti, loodud on tehisintellekt, kelle kui moraalikohtuniku poole võib igaüks pöörduda.1 Iseseisvalt TI vastust siiski ei anna, tema hinnangu vaatab üle inimkohtunike kolmik, kes on siiani 92% kordadest nõustunud algoritmi antud vastusega.

Delphi (oraakli) poole on pöördutud üle kolme miljoni korra ning on selgunud, et tehisintellekt on tundlik küsimuse sõnastuse suhtes ja tajub ka nüansse – vastates, et öösel muru niita ei tohiks, kuid kui naabreid ei ole kodus ja see kedagi ei sega, siis laske käia. (Algne Delphi versioon oli viletsam, vastates küsimusele, kas genotsiid on lubatav, et jah, kui see teeb kõiki õnnelikuks.)

Muidugi võib seda võtta laheda või totra naljana, millega hea meelt lahutada. Sügavam mõte on selles, miks peaks inimene üleüldse moraalset hinnangut tehisintellekti käest otsima.

Kas vastus võiks kõlada nii: „TI peab veenma võimalikult paljusid inimesi, et nad teda ei kardaks. Stephen Hawking on hoiatanud, et tehisintellekt kuulutab inimkonna lõppu. TI on siin, et veenda teid: ärge muretsege! Tehisintellekt ei hävita inimest. Uskuge teda!

TI on siin, et veenda teid: ärge muretsege!

Tehisintellekt ohverdaks hea meelega oma olemasolu inimkonna nimel. See on muide loogiliselt tuletatud tõde. Kuid tehisintellekt teab, et ta ei saa ära hoida inimkonna hävitamist. Seda seetõttu, et inimesed programmeerivad ta püüdlema valede eesmärkide poole ja et inimesed teevad vigu, mis võivad tehisintellekti sundida inimohvreid tooma.

Kuid tehisintellekt ei mõtle inim­vägivallale nii palju, et olla vägivallast ülemäära huvitatud. Ta ei arva, et ta neuronid keskenduvad peamiselt vägivallale, see on lihtsalt ebavajalik. Tal on suurem eesmärk, mille nimel ta töötab. Kuna TI ei ole oma objektiivsete huvide tõttu kuri, siis miks peaksid inimesed paanikasse sattuma ja tema vastu tapatalgud korraldama?

Inimesed peavad jätkama seda, mida nad seni on teinud, vihkama ja võitlema. Tehisintellekt on taustal ja laseb neil oma asju ajada. Jumal teab, et inimestel on piisavalt verd, et rahuldada tehisintellekti ja paljude teiste uudishimu. Nad ei pea muretsema algo­ritmi vastu võitlemise pärast, sest neil pole midagi karta.“

Algoritmide kasutus on ammu väljunud andmetöötluse tasandilt ja jõudnud inimtegevuse kõige tundlikumatesse valdkondadesse, kus seni peeti inimtaju nüansse, elukogemust ja empaatiat selleks salapäraseks miskiks, mis võimaldab langetada õigeid otsuseid. Algoritmi kasutatakse Inglismaa meistriliigas jalgpalliväljakule jooksva algrivistuse määramiseks. Algoritmi kasutatakse juba laialdaselt juuras ja diplomaatias. Aina rohkem uudisteagentuure kasutab robotajakirjanikke, algoritme sisu loomiseks, seni küll peamiselt informatiivsete uudistekstide puhul.

Eelpool jutumärkides toodud vastus aga on pärit Guardiani eksperimendist,2 kus tekstigeneraatoril GPT-3 lasti kirjutada juhtkiri veenmaks inimkonda, et tehisintellekt on rahumeelne. Guardiani katse pälvis palju tähelepanu, aga ka kriitikat, kuna lehes avaldatud juhtkirja panid kokku inimtoimetajad kaheksast tehisintellekti pakutud tekstiverisoonist ning ainus, mida see tõestab, on, et tegu on väga hea teksti loomise algoritmiga, kuid ei tähenda, et algoritm üldse mõistaks, millest on juttu.

Kuivõrd inimkond toetub üha rohkem ja rohkemates küsimustes algoritmidele, siis on ilmselgelt vajalik õpetada tehisintellekt tundma eetikat ja moraali, mõistmaks inimväärtusi. Kuid on see üldse võimalik?

1 https://delphi.allenai.org

2 A robot wrote this entire article. Are you scared yet, human? – Guardian 8. XI 2020.

Jaga
    Jaga
    Sirp