Jāzeps Baško: Kļūda, par ko cilvēkam var nākties dārgi maksāt, ir iedomāties, ka mākslīgais intelekts kaut ko "domā", "jūt" vai "sev jautā"

Martā pasaules uzmanības centrā nonāca tehnoloģiju pasaules līderu un mākslīgā intelekta (MI) pētnieku parakstītā vēstule, kurā paustas bažas par MI straujo attīstību un aicinājumi apturēt plašākus eksperimentus ar MI. Kaut uz sešiem mēnešiem, kamēr pasaules sabiedrība izstrādātu vienotu rīcības stratēģiju pret jauno apdraudējumu.
Džeimsa Kamerona 1984. gada filmā “Terminators” mākslīgā intelekta vadītais kiborgs zvana meklētajam upurim Sārai O’Konorai un viņas mātes balsī jautā, kur viņa slēpjas ©Ekrānšāviņš

Lai noskaidrotu, cik šīs bažas un apdraudējumi pamatoti un ko jaunākie tehnoloģiskie izgudrojumi pasaulei sola jau tuvākajā nākotnē, “Neatkarīgā” aicināja uz sarunu programmētāju ar lielu pieredzi evolucionārajā skaitļošanā un interesi par cilvēka attiecībām ar mašīnu - Jāzepu Baško.

Kāpēc vispār šī vēstule, kuru parakstījuši Īlons Masks (“Tesla”), Stīvs Vozņaks (“Apple”), Jāns Tallins (“Skype”) un daudzi citi, radusies? Kādi procesi to aktualizējuši?

Runas par MI draudiem nav nekas jauns. Datorzinātnieki par tiem ir brīdinājuši, kopš Alans Tjūrings tādu jēdzienu ieviesa 1950. gados, bet futurologi un rakstnieki jau ilgi pirms viņa. Mēs piedzīvojam kādu piekto vai sesto reizi, kad izskan runas - tūlīt tiks radīts MI un iznīcinās civilizāciju.

Vai ir pamats domāt, ka šoreiz šīm bažām ir lielāks pamats nekā iepriekšējās reizēs?

Vispirms jānorāda, ka pēdējās desmitgadēs par MI tomēr vairāk runā pozitīvā gaismā un šo apzīmējumu izmanto mārketinga nolūkiem. Uz MI drīzo atnākšanu lielas cerības lika jau tad, kad parādījās no šodienas skatpunkta pavisam vienkāršas determinētās programmas. Līdzīgi notika, kad parādījās runas sintēze, neironu tīkli, lielo datu apstrādes metodes. Nevienā līdzšinējā gadījumā nevar runāt par īstu MI, tās visas ir vienkārši skaitļošanas inovācijas, kuras var novest pie kādas daļas no mākslīgā intelekta, piemēram, tā rokas, acis vai ausis, bet tas vēl nav pats MI.

Piemēram, tepat Latvijā dzirdam ziņās, ka MI spēj runāt Imanta Ziedoņa balsī, Vidzemes slimnīcā atpazīst kaulu lūzumus, bet Liepājā fiksējot satiksmes pārkāpumus. Pirms dažiem gadiem ārzemēs redzēju TV reklāmu, kurā par jauniem datoriem teica, ka tie esot MI spēcināti. Bet nekas no tā nav tas MI, par ko būtu jāraksta atklāta vēstule pasaulei. Jā, liela daļa PR speciālistu, programmētāju, mākslinieki/ilustratori, komponisti, ziņu aģentūru darbinieki un citi digitālo produktu veidotāji ne pārāk tālā nākotnē zaudēs darbu, taču tas, lai cik nežēlīgi neizklausītos, nav pašreiz lielākā bēda ar MI.

Lai nerastos juceklis jēdzienos, definēsim, kas īsti ir MI?

Tjūrings to definēja kā mašīnu, kura sazinās ar cilvēku tādā veidā, ka cilvēks nevar atšķirt, vai tā ir mašīna vai cilvēks. Ja mašīnai izdodas apmānīt sarunas biedru, tā uzskatāma par MI. Šādā izpratnē var teikt, ka MI tika sasniegts pagājušogad. Es gan tik nepārprotami nevērtētu to kā tehnoloģisku sasniegumu. Ja primitivizējam izpratni par to, kas ir cilvēks, un digitalizācija to ļoti veiksmīgi dara, tad uzdevums kļūst arvien vieglāks. Nav nemaz tik viegli noteikt, vai ir darīšana ar mākslīgu intelektu vai moderno cilvēku. Ja cilvēkam šķiet, ka ir iespējamas romantiskas attiecības ar virtuālu būtni, tad droši vien šim cilvēkam otrs īsts cilvēks rādīsies kā neciešami niķīgs salīdzinājumā ar algoritmu. Daļa no mūsdienu seksuālās identitātes problēmgadījumiem ir saistīti tieši ar grūtībām veidot attiecības ar īstiem cilvēkiem, jo īpaši pretējā dzimuma. Tas sasaucas ar vispārējo cilvēka virzību uz maksimālu ciešanu mazināšanu. Jo vieglāk, jo labāk.

Atgriežoties pie MI, šodien populārie tērzēšanas roboti (tautā saukti par čatbotiem) un humanoīdi joprojām cenšas iet cilvēka imitācijas virzienā, tomēr mūsdienās ar vispārējo MI, no kura ir patiesi jābīstas, saprot ko citu. Tā ir mašīna, kura daudzkārt efektīvāk spēj risināt jebkāda tipa uzdevumus, tajā skaitā apgūt uzdevumu risināšanas metodes, un tai ir pieejami izpildmehānismi - līdzekļi, ar kuriem tā var iedarboties uz fizisko pasauli pēc saviem ieskatiem. Daži saka, ka mašīnai ir jāpiemīt pašsaglabāšanās instinktam, bet tas nav jāuztver kā kaut kādas tai piemītošas eksistenciālas bailes.

Viena no kļūdām, par ko cilvēkam var nākties dārgi maksāt, ir iedomāties, ka MI kaut ko “domā”, “jūt” vai “sev jautā”. Pašsaglabāšanās, tāpat kā citi šie apziņas komponenti, attiecībā uz mašīnām ir tikai iespaids, kas rodas vērotājam no malas. Mašīnai pašsaglabāties liek tajā iekodēto vēlamo iznākumu maksimizācijas uzdevums.

Līdzīgi kā Džeimsa Kemerona filmā “Terminators” Arnolda Švarcenegera tēlotais kiborgs bija ieprogrammēts nogalināt Sāru O’Konoru un nekas cits viņu neinteresēja, ne sekas, ne paša “liktenis”?

Jā, varētu tā teikt. Mašīna vienmēr cenšas pēc iespējas labāk izpildīt uzdoto. Pazaudējot strāvas padevi, tā nevarēs pildīt uzdevumu, tāpēc tā pretosies mēģinājumiem to izslēgt bez jebkādām garīgām pārdomām un sevis apzināšanās.

Piemērs ar “strāvas padeves” atslēgšanu ir ļoti zīmīgs tieši ar to, ka iezīmē iekodēto “pretrunu”. Tā kā cilvēks ir vienīgais, kurš var izslēgt MI, tad kādā brīdī MI var apjēgt, ka cilvēks ir tā galvenais ienaidnieks.

Vismaz pagaidām MI viltvārži vēl nenodarbojas ar “domāšanu”. Mašīnas nedomā, mašīnas rīkojas. Populāro čatbotu radītais iespaids kā par cilvēkiem ir tikai veiksmīgas mānīšanās un vērotāja uztveres rezultāts. Kad cilvēks jautā mašīnai eksistenciālus jautājumus, sniegtās atbildes nenāk no loģiskiem secinājumiem, kurus mašīna būtu ieguvusi datu apstrādes un sadarbības ar cilvēkiem rezultātā. Mašīna atbild tikai ar frāzēm, kuras tā ir saskatījusi milzīgos teksta korpusos. Iemāciet ārzemniekam pateikt komplimentu latviešu valodā, un rezultāts būs identisks. Viņš plati smaidīs un lauzītā valodā izteiks frāzi, kuras būtība viņam nebūs saprotama, bet viņš būs atstājis labu iespaidu uz klausītāju. Kad runā par robotu apmācību, ar to ir jāsaprot tieši tas - robota pakļaušana uzdevumiem, uz kuriem reaģējot tam ir jāatstāj pēc iespējas labāks iespaids uz vērotāju. Iedomājaties, kā uzvedīsies cilvēks ar īpaši attīstītu racionālo domāšanu, kurš visu savu izglītības laiku ir centies atstāt pēc iespējas labāku iespaidu uz saviem pasniedzējiem? Rezultāts varētu būt baiss.

Jūs minējāt, ka MI - īsto vai pat viltvāržu - ieviešanas rezultātā daudzi cilvēki zaudēs darbu. Pagaidām par konkrētām profesijām pāragri runāt, bet vai var ieskicēt vismaz virzienu?

Dažas konkrētas profesijas jau nosaucu. Tā dēvētos sabiedrisko attiecību (PR) speciālistus var minēt pirmajā kārtā. Nesen kādā pētījumā bija teikts, ka jaunākās inovācijas skaitļošanas metodēs vismazāk apdraud fiziskā un praktiskā darba darītājus. Tas ir diametrāli pretēji tam, ko pirms dažiem gadiem stāstīja nodarbinātības eksperti. Te gan runa ir tikai par nesenākajiem ar MI saistītajiem izrāvieniem. Tas nenozīmē, ka tālākā nākotnē automatizācija neapdraud arī visus pārējos.

Vai pēdējā laikā ir noticis kāds būtisks izrāviens MI attīstībā?

2022. gada novembrī tika publiski palaists čatbots “ChatGPT”. Tas ir rīks, kas interpretē tekstuālas instrukcijas un spēj ģenerēt, tulkot, kopsavilkt un rediģēt tekstus. Gan cilvēku valodā, primāri un vislabāk angļu valodā, gan programmēšanas valodās. Tas vēl vairāk grauj jau tā pamatīgi cietušo publiskās informācijas telpas uzticamību. Pašlaik jau ir pieejami vairāki šī čatbota konkurenti.

Tuvākās sekas šīm pārmaiņām ir tekstu rakstīšanas beigas kā zināšanu pārbaudes forma izglītības sistēmā. Jebkuru kontroldarbu var ģenerēt šis čatbots. Manuprāt, tā ir izmaiņa uz labo pusi, jo savā ziņā teksts jau pats par sevi ir tikai zīme, ar kuru mēģina apliecināt zināšanas, kuru teksta iesniedzējam var arī nebūt.

Ja runājam par apdraudējumiem cilvēcei, tad lielākās briesmas rodas no “ChatGPT” spējas analizēt, ģenerēt un apstrādāt datorprogrammu kodu. Tā kā visa attīstītā pasaule ir vairāk vai mazāk programmējama - kustināma ar programmatūru -, tad jaunais rīks vai kāda mazāk aizsargāta tam līdzīga alternatīva paver iespējas ātri, bez zināšanām un izpratnes ģenerēt potenciāli graujošas programmas. Šīs programmas savu uzdevumu izpildei var izmantot datu centru serverus, ietekmēt visur sastopamas viedās ierīces, internetam pieslēgtas industriālas iekārtas, kā arī attālinātu pakalpojumu sniegšanas platformām piesaistītus cilvēkus.

Jau kādu laiku ir iespējama arī runas atpazīšana un sintēze, foto un video ģenerēšana ar augstu ticamību. Kombinācijā ar teksta ģenerēšanu un apstrādi tas nozīmē, ka jebkāda attālināta saziņa pēc noklusējuma ir neuzticama neatkarīgi no tā, vai tie ir balss sakari vai pat video zvans.

Līdzīgi kā manis jau piesauktajā filmā “Terminators”, kur Švarcenegera kiborgs slepkava zvana meklētajai Sārai O’Konorai un viņas mammas balsī maigi lūdz atklāt, kur viņa slēpjas.

Tieši tā. Viss, ko jūs digitāli redzat un dzirdat, pavisam drīz varēs izrādīties mērķtiecīgi ģenerēts, lai izliktos par to, kas tas nav. Vienīgi, ja izmanto autoritatīvus, standarta kanālus, tad esat nosacītā drošībā. Uzsveru, nosacītā, jo 100% garantijas dos tikai tiešs, fizisks kontakts.

Ja pareizi saprotu, tad vismaz pagaidām tā dēvētā MI apdraudējumi ir vairāk teorētiski, bet kādas ir iespējas šos apdraudējumus novērst, MI tehnoloģijām attīstoties?

Lai arī “ChatGPT” rīkā cenšas iebūvēt aizsardzības mehānismus, kas traucē to izmantot apšaubāmiem nolūkiem, tas, manuprāt, ir tikai laika jautājums līdz pirmajam nelietīgajam darbiniekam vai līdz tam, kad tādu pašu rīku, bet bez ierobežojumiem, izgatavos un mēģinās pārdot citi spēlētāji. Vai arī ierobežojumi tiks radoši apieti, izmantojot valodas viltības. Daļa no algoritmiem ir atrodama zinātniskās publikācijās. Daļa no izaicinājuma ir milzīgā teksta apjoma ielāde un apstrāde, kas ir nepieciešama, lai ģenerētu lielos valodu modeļus, uz kuriem rīks balstās.

Iespējams, ka speciālisti baidās, ka “ChatGPT” vai līdzīgs rīks, saslēgts ar nepareiziem uzdevumiem un pārāk brīvu iespēju manipulēt sevi un apkārtējo pasauli, var radīt īsto, vispārējo MI. Nav iespējams paredzēt evolūciju tādam aģentam, kuram ir brīva pieeja internetam, spēja pārvērst tekstuālus aprakstus programmatūras kodā, spēja izmainīt savu kodu un tieši vai pastarpināti “uzlabot” arī savus mērķus. Lai arī “ChatGPT” pats netiek klāt internetam un tā izstrādātāji ir piesardzīgi, rīku var citi izmantot kā tekstu apstrādājošo komponenti reāla Frankenšteina būvē. Nezinu par citu rīku savienotību ar internetu, bet atbildīgiem programmētājiem vajadzētu turēties pa gabalu no tādiem risinājumiem, kuri var nekontrolēti papildināt savas “zināšanas” internetā.

Riski ir reāli, satraukumam ir pamats, bet pirms ķerties pie kārtējās ugunsgrēka dzēšanas ar pārnacionālo institūciju ieviešanas metodēm, uz ko aicina minētā vēstule, ir jāsaprot problēmas daba. Jāsaprot, ka šādi rīki ir tikai līdzekļi - ieroči. Tāpēc jau minētajā vēstulē runā par nekontrolētu sāncensību. Jebkuru līdzekli var izmantot gan labiem, gan sliktiem nodomiem. Nav iespējams uzlikt sejas atpazīšanas programmu revolvera galā, kas noteiks, vai tiek šauts uz “labu” vai “sliktu” cilvēku. Visa atbildība gulstas uz ieroča lietotāju.

Līdzšinējā pasaules prakse liecina, ka morālie faktori, lai arī darbojas kā būtiski ierobežotāji, nespēj garantēt 100% drošību.

Cilvēks mēģina radīt tehnoloģiskus risinājumus morāles uzturēšanas problēmai, kas kopā ar nespējīgo nodrošināšanas problēmu kļūst arvien akūtāka atsvešinātu indivīdu sabiedrībās, kuras diemžēl būvējam. Bet, manuprāt, nav cita risinājuma, kā vien priekšplānā izvirzīt morālo audzināšanu un izglītošanu. Tas, protams, kombinācijā ar fizisko un virtuālo robežu uzturēšanu. Tāpat kā kuģiem un zemūdenēm ir nodalījumi, lai mazinātu viena bojājuma ietekmi, tā sabiedrībām ir jāuztur spēkā nodalījumi. Tehnoloģiski risinājumi morāles uzturēšanai ir nolemti Černobiļai līdzīgam iznākumam, ja cilvēki, kas tehnoloģijas pārvaldīs, gļēvuma dēļ nespēs laikus atzīt savas kļūdas. Kovida pandēmijas apkarošanas metodes kārtējo reizi parādīja, ka lielās katastrofās cilvēciskā faktora graujošākā komponente ir nevis nolaidība vai nekompetence, bet morālās stājas iztrūkums.

Vai drīzumā MI nekļūs par jauno “klimata krīzi”? Ko nozīmē Itālijas aizliegums izmantot “ChatGPT”?

Kā jau teicu, apdraudējums ir reāls. Ir jāuzmanās, lai mēģinājumi ierobežot satura ģenerēšanas rīkus nekļūst par attaisnojumu varai, īpaši pārnacionālai, pārņemt savā kontrolē publiskās informācijas telpu. Tas mani visvairāk uztrauc šajā vēstulē. Būs mēģinājumi ieviest dažāda līmeņa autoritāšu verificēšanas institūcijas, mazināt nereģistrētu spēlētāju iespējas izteikties. Vārda brīvībai priekšā ir ļoti grūti laiki.

Viens pozitīvs alternatīvais iznākums ir, ka cilvēki no jauna atklās savas fiziskās atrašanās vietas un diendienā satikto cilvēku uzticēšanās nozīmi viņu dzīvē. Ja nekam internetā nevar ticēt, varbūt var ticēt kaimiņa veidotajai pilsētas avīzei, jo kaimiņam tepat vien būs jādzīvo. Tāds iznākums nav iespējams dabiskā brīvgaitā, pie tā ir jāstrādā.

Fakts, ka Itālija aizliedz tādu lietu, apliecina, ka tur pie varas ir politiķi, kas saprot, ka viņiem ir tiesības pašiem noteikt pār sevi. Gribētu piedzīvot dienu, kad Latvija viena pati uzdrīkstētos par kaut ko iestāties pretēji Eiropai. Un nevis par kaut ko etnoromantiski vai ekonomiski nacionālu, bet par kaut ko objektīvi cilvēcisku. Lūk, tajā dienā, kad tas notiks, mēs varēsim sākt sevi pieskaitīt Rietumeiropai. Kamēr tas regulāri nenotiks, mēs būsim vienkārši mazliet iepalikusi province.

Uzzini pirmais, kas interesants noticis Latvijā un pasaulē, pievienojoties mums Telegram vai Whatsapp kanālā