Ieva Ilvesa: Eiroparlamenta mākslīgā intelekta regulējums vēl ir filozofisks dokuments

Ir labi, ka liels valstu bloks pēc divu gadu diskusijām ir vienojies, ka pastāv nepieņemamas lietas, kas apdraud cilvēku tiesības un neatkarību; liela nozīme būs tam, cik efektīvi tiks uzraudzīta MI sistēmu atbilstība jaunajām prasībām gan Eiropas, gan valsts līmenī – šādus viedokļus par MI aktu “Neatkarīgajai” pauž Ukrainas digitālās transformācijas lietu ministra ārštata padomniece Ieva Ilvesa un Latvijas Universitātes Juridiskās zinātnes institūta pētniece Irēna Barkāne.
©Gints Ivuškāns/F64

Trešdien Eiropas Parlaments apstiprināja Mākslīgā intelekta aktu - pasaulē pirmo visaptverošo MI regulējumu, kurā lasāmi centieni līdzsvarot mākslīgā intelekta radītās iespējas un riskus. Regulējums varēs kalpot par orientieri arī starptautisku normu veidošanai šajā jomā. Regulu, par kuru EP pērn vienojās sarunās ar dalībvalstīm, deputāti atbalstīja ar 523 balsīm par, 46 pret un 49 atturoties, ziņo EP preses dienests.

Mākslīgais intelekts (MI), kas agrāk bija fantastika, mūsdienās tiek plaši izmantots visos cilvēka darbības virzienos. MI lieliski palīdz, kad vajag apstrādāt milzīgu datu apjomu, kas agrāk prasīja daudz laika. Paredzams, ka tas aizvien vēl vairāk attīstīsies.

Līdztekus priekšrocībām, kuras sniedz mākslīgā intelekta laikmets, pastāv arī daudz risku - to, piemēram, var izmantot kāda orveliska diktatūra sabiedrības kontrolēšanai. Arī demokrātiskā sabiedrībā ir bijis ne mazums situāciju, kad nepamatoti tiek pārkāpts ļaužu privātums un cilvēktiesības.

Velni slēpjas detaļās. Normatīvais akts vēl būs jāīsteno dzīvē

I. Ilvesa “Neatkarīgajai” sacīja, ka tehnoloģijas uz sabiedrību atstāj ļoti lielu ietekmi un ar to kaut kas ir jādara. “Pēdējie divdesmit gadi rāda, ka nav pamata domāt, ka viss jāatstāj pašplūsmā un tirgus pats visu atrisinās brīvprātīgi. Kopš lielās tehnoloģiju platformas ir uzsākušas savu dzīvi, mēs redzam, ka problēmas pašas nerisinās. Pastāv kiberdrošības riski un dezinformācijas kampaņas. Biznesa videi un lielajiem spēlētājiem, protams, primārais mērķis ir peļņa, viņi nerisina tās blaknes, kas no tehnoloģijām rodas sabiedrībai.

Saprotams, ka normatīvie akti paši par sevi neveicina ne inovācijas, ne attīstību, taču kādam ir jārisina riski, kas saistīti ar tehnoloģijām. Es uz Eiropas Parlamenta aktu vairāk skatos kā uz tādu filozofisku dokumentu, jo tas glīti sadala riskus četros plauktiņos un definē cilvēktiesību un pamatbrīvību principus, kurus ar MI izmatošanu nedrīkst pārkāpt. Ir tātad augsta riska MI tehnoloģijas, kuras Eiropā netiks pieļautas - tādas kā Ķīnā ir, piemēram, kredītreitings, un, ja cilvēks ir parādā bankai vai valstij, tad viņš nevar nopirkt vilciena biļeti, ja nav norēķinājies. Tāda veida kontrole Eiropā nav pieļaujama.

Ir labi, ka liels valstu bloks pēc divu gadu diskusijām ir vienojies, ka pastāv nepieņemamas lietas, kas apdraud cilvēku tiesības un neatkarību.

Protams, velni slēpjas detaļās, un jautājums ir, kā šī filozofiskā pieeja tiks īstenota dzīvē. Lielākā cīņa par ideju realizāciju praksē vēl ir priekšā,” sacīja I. Ilvesa.

Jaunā regula neattieksies uz valsts drošību un policijas darbu, taču, kā sacīja I. Ilvesa, ir tomēr diezgan precīzi noteikts, kad policija var un kad nevar lietot MI. Esot kādi 16 nosacījumi, kad ko var un ko nevar. Nevar, piemēram, lietot sejas atpazīšanas sistēmas dzīvajā režīmā, lai novērotu sabiedrību, piemēram, kādos masu pasākumos. Bet var patīt video atpakaļ un ar tiesas akceptu lietot sejas atpazīšanas sistēmu, ja ir noticis kāds noziedzīgs nodarījums.

Četras MI riska klases

"Eiropas Savienība pamatoti skaidri norāda, ka tik spēcīgai tehnoloģijai kā mākslīgais intelekts ir nepieciešamas aizsargmargas," Eiropas Patērētāju organizācijas BEUC ģenerālsekretāra vietnieci Ursulu Pahlu citē Zviedrijas televīzijas portāls SVT. Jaunie noteikumi nozīmē, ka MI ir klasificēts četrās dažādās riska klasēs atkarībā no tā, kā to var izmantot. Uzskata, ka tādas sistēmas kā "sociālā vērtēšana" ir pakļautas nepieņemamam riskam, un tās tiks aizliegtas. Tas ir tāpēc, ka tās apdraud cilvēktiesības.

Arī tam, ko sauc par “ģeneratīvo MI”, jāievēro vairāki noteikumi. Uzņēmumiem, kas veido ģeneratīvo MI, ir jāsniedz detalizēts kopsavilkums par to, ar kādiem attēliem, videoklipiem un citiem datiem viņi apmācīja MI sistēmas. Attēli, video un audio, kas veidoti no reāliem cilvēkiem, vietām un notikumiem, arī ir jāatzīmē kā mākslīgi manipulēti. Paredzams, ka daļa no jaunā likuma stāsies spēkā 2026. gada maijā un pilnībā tas stāsies spēkā 2026. gadā. Uzņēmumiem, kas pārkāps likumu, draud naudas sods līdz septiņiem procentiem no to globālā apgrozījuma. Visām ES valstīm, tajā skaitā Latvijai, ir jāizveido uzraudzības institūcijas ar kompetentiem kadriem un pietiekamiem resursiem. Tur iedzīvotājiem jābūt iespējai iesniegt sūdzības, ja viņi uzskata, ka ir bijuši pakļauti jauno noteikumu pārkāpumiem. Nepieņemams risks attiecas uz gadījumiem, kad mākslīgais intelekts "tiek uzskatīts par tādu, kas apdraud cilvēku drošību, iztikas līdzekļus un tiesības", un tiks aizliegts. Piemēram, MI sistēmas "sociālajai vērtēšanai". MI sistēmas, ko izmanto kritiskā infrastruktūrā, izglītībā, nodarbinātībā vai saistībā ar migrāciju, patvērumu un robežkontroli, tiek uzskatītas par "augstu risku". Uz šīm mākslīgā intelekta sistēmām attieksies stingras saistības, pirms tās tiks laist tirgū. Tiek uzskatīts, ka tiesībaizsardzība ir augsta riska līmenī. “Ierobežots risks” attiecas, piemēram, uz tērzēšanas robotiem, kur lietotājiem pašiem ir jāapzinās, ka viņi mijiedarbojas ar iekārtu.

"Minimāla riska" gadījumi ir, piemēram, MI atbalstītas videospēles vai surogātpasta filtri.

Uz valsts drošību regula neattieksies

MI akts neattiecas uz militāriem, aizsardzības un valsts drošības mērķiem radītām sistēmām, taču nosaka minimālās prasības personas pamattiesību aizsardzībai, kas paredz valstīm ieviest atļauju un uzraudzības procedūras.

Kopumā MI akts nodrošinās sabiedrības interešu aizsardzību, stiprinot atbildīgu mākslīgā intelekta lietojumu attīstību. Vienlaikus tiks atbalstīta pētniecības attīstība, šai jomai nosakot atsevišķus izņēmumus un atvieglojumus, kā arī paredzot mākslīgā intelekta “testēšanas smilškastu” ieviešanu.

Gan uzņēmējiem, gan valsts iestādēm tiks nodrošināti skaidri un vienoti noteikumi MI izstrādes, ieviešanas un lietošanas procesos, atbilstoši tam, kāda riska MI sistēmas tiks izstrādātas un laistas tirgū vai izmantotas pakalpojumu sniegšanā, raksta “LV” portāls.

Kas ir MI?

“Nepastāv viena universāla mākslīgā intelekta definīcija, bet gan daudzas definīcijas, kas cenšas skaidrot mākslīgā intelekta jēdzienu. Turklāt tās attīstās līdz ar tehnoloģiju progresu,” savā monogrāfijā “Cilvēktiesību nozīme mākslīgā intelekta laikmetā. Privātums, datu aizsardzība un regulējums masveida novērošanas novēršanai” norāda

Latvijas Universitātes Juridiskās zinātnes institūta pētniece Irēna Barkāne. “MI akta mērķis ir veicināt uz cilvēku orientēta un uzticama MI izmantošanu, vienlaikus aizsargājot pamattiesības, drošību, veselības, drošuma, pamattiesību, demokrātijas un tiesiskuma, un vides aizsardzības līmeni pret MI sistēmu radītām kaitīgām sekām. MI akts noteiks saskaņotus noteikumus MI sistēmu izmantošanai ES, noteiktas MI prakses aizliegumus, konkrētas prasības augsta riska MI sistēmām, pārredzamības noteikumus dažām MI sistēmām, saskaņotus noteikumus par vispārīga lietojuma MI modeļu laišanu tirgū, uzraudzības uz izpildes nodrošināšanas noteikumus, kā arī pasākumus inovāciju atbalstam,” intervijā “Neatkarīgajai” skaidroja šīs monogrāfijas autore, juridisko zinātņu doktore, lektore un pētniece I. Barkāne.

“Mākslīgā intelekta akts paredz visaptverošu horizontālu regulējumu, kas piemērojams visās nozarēs, un ir īpaši paredzēts, ka tā mērķis nav ietekmēt spēkā esošos ES tiesību aktus, jo īpaši attiecībā uz datu aizsardzību, patērētāju aizsardzību, pamattiesībām, kurus tas papildina. Vienlaikus likumdošanas pēdējā posma sarunās, kurās tika meklēts kompromiss, tika arī daudz zaudēts attiecībā uz cilvēktiesību aizsardzību. MI akts aizliedz daudzus nepieņemamus MI prakses veidus, jo tie ir pretrunā ar pamattiesībām un Eiropas vērtībām. Tajā pašā laikā to apjoms atsevišķos gadījumos ir ierobežots un ir paredzēti izņēmumi. Piemēram, lai gan ir aizliegta biometrisko attālinātās identifikācijas sistēmu izmantošana sabiedriskās vietās, tomēr ir paredzēti vairāki izņēmumi, kad tā tomēr ir atļauta. Vienlaikus MI aktā ir ietverti arī nozīmīgi jauni mehānismi, piemēram, ietekmes uz pamattiesībām novērtējums.

Priekšā ir ilgs un sarežģīts ceļš, lai iedzīvinātu MI akta noteikumus praksē. Liela nozīme būs tam, cik efektīvi tiks uzraudzīta MI sistēmu atbilstība jaunajām prasībām gan Eiropas, gan valsts līmenī. MI akts stāsies spēkā tuvākajos mēnešos un būs piemērojams visās ES dalībvalstīs pēc diviem gadiem, atsevišķi noteikumi agrāk, piemēram, aizliegumi - pēc sešiem mēnešiem, noteikumi attiecībā uz vispārīga lietojuma MI modeļiem - pēc viena gada,” sacīja I. Barkāne.

Starp daudzām un dažādajām definīcijām viņa izceļ to, ka Eiropas Komisija mākslīgo intelektu ir ieteikusi uzskatīt par sistēmu, kas spēj demonstrēt inteliģentu rīcību, analizējot apkārtējo vidi, un ar zināmu autonomiju veikt darbības, lai sasniegtu konkrētus mērķus. Šī Eiropas Komisijas definīcija ir izmantota Eiropas Parlamenta priekšlikumā Regulai par mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādes, ieviešanas un izmantošanas ētikas principiem, kurā mākslīgais intelekts ir definēts kā “sistēma, kura darbojas, pamatojoties uz programmatūru, vai ir iestrādāta tehnikas ierīcēs un kuras rīcība liecina par intelektu, inter alia vācot, apstrādājot, analizējot un interpretējot datus par tā apkārtējo vidi un ar zināmu autonomijas pakāpi veicot darbības, ar kurām tā sasniedz konkrētus mērķus”.

Uzzini pirmais, kas interesants noticis Latvijā un pasaulē, pievienojoties mums Telegram vai Whatsapp kanālā