Tag Archives: tehisintellekt

Olulisemad turvanõrkused 2024. aasta 26. nädalal

Google Chrome parandas neli kriitilist haavatavust

Google andis välja neli Chrome’i turbeuuendust, parandamaks turvanõrkused tähistega CVE-2024-6290 kuni CVE-2024-6293. Haavatavused mõjutavad populaarse brauseri Dawni ja Swiftshaderi komponente. Ettevõtte ei maininud, kas haavatavusi on rünnete läbiviimisel proovitud ära kasutada, ent soovitame uuendada Chrome’i esimesel võimalusel. Google Chrome tuleks Windowsi ja macOSi kasutajatel uuendada versioonile 126.0.6478.126/127 ja Linuxi kasutajatel versioonile 126.0.6478.126 (SW).

Juniper Networks paikas kriitilise turvavea

Juniper Networks paikas kriitilise turvavea tähisega CVE-2024-2973, mis võimaldab ründajal autentimisest mööda minna ja saada kontroll seadme üle. Viga on paigatud Session Smart Routeri versioonides 5.6.15, 6.1.9-lts ja 6.2.5-sts ning WAN Assurance Routersi versioonides SSR-6.1.9 ja SSR-6.2.5.

Kuna Juniperi seadmed ja haavatavused on varasemalt olnud ründajate sihtmärgiks, siis soovitame tarkvara uuendada niipea kui võimalik. Näiteks eelmisel aastal rünnati sama ettevõtte haavatavusi, mis mõjutasid EXi lüliteid ja SRXi tulemüüre (BC, Juniper).

Apple paikas AirPodside turvanõrkuse, mis võimaldab pealtkuulamist

Turvaviga tähisega CVE-2024-27867 mõjutab Apple Airpodsi kõrvaklappide versioone AirPods (2nd generation ja uuemad), AirPods Pro, AirPods Max, Powerbeats Pro ja Beats Fit Pro. Turvavea eduka ärakasutamise korral võib ründaja võltsida ühendatavat Bluetoothi seadet ja saada ligipääsu ohvri kõrvaklappidele ning seejärel kõnesid pealt kuulata. Kõigil Apple’i kõrvaklappide kasutajatel tuleks tarkvara uuendada. Haavatavuse parandamiseks tuleks rakendada AirPodsi tarkvara uuendus 6A326 või 6F8 ja Beatsi tarkvara uuendus 6F8 (HN, Apple).

Rünnak nimega GrimResource kasutab võrkude murdmiseks MSC-faile ja Windows XSS-i viga

GrimResource’i rünnak algab pahatahtliku MSC (Microsoft Saved Console)-failiga, mis kasutab ära juba aastast 2018 teada olevat XSS-i haavatavust ‘apds.dll’ teegis. MSC (.msc) failitüüpi kasutatakse Microsofti halduskonsoolis (MMC) operatsioonisüsteemi haldamiseks või tööriistade kohandatud vaadete loomiseks. Ründajate levitatav pahatahtlik MSC-fail sisaldab StringTable-viidet haavatavale APDS-i ressursile ning kui sihtmärk selle avab, on võimalik käivitada URL-i kaudu suvalist JavaScripti (BC).

Ollama tehisintellekti infrastruktuuri tööriistas avastati kriitiline koodi kaugkäivitamist võimaldav haavatavus

Ollama on teenus suurte keelemudelite (LLM) pakendamiseks, juurutamiseks ja käitamiseks Windowsi, Linuxi ja macOSi seadmetes. Kriitiline haavatavus tähisega CVE-2024-37032 võimaldab ründajal kirjutada üle suvalisi serveris olevaid faile ning kaugkäivitada koodi. Viga on paigatud tarkvara versioonis 0.1.34 (HN).

Kriitiline GitLabi turvaviga võimaldab ründajal saada kõrgemad õigused

Kriitiline GitLabi turvaviga mõjutab teatud GitLab Community ja Enterprise Editioni tooteid ning võimaldab kasutajal saada kõrgemad õigused. Turvanõrkus tähisega CVE-2024-5655 on hinnatud kriitilise CVSS skooriga 9.6/10. Haavatavus mõjutab GitLabi versioone CE/EE alates 15.8 kuni 16.11.4, 17.0.0 kuni 17.0.2 ja 17.1.0 kuni 17.1.0. Viga on parandatud GitLabi versioonides 17.1.1, 17.0.3 ja 16.11.5. Lisaks nimetatud haavatavusele paigati veel 13 turvaviga, millest kolm on hinnatud suure mõjuga nõrkuseks. GitLab soovitab kõigil kasutajatel uuendada tarkvara esimesel võimalusel (BC). 

Tehisintellekt ja tehnoloogiline singulaarsus

Riigi Infosüsteemi Ameti arendus- ja uurimistegevuse osakonna juhataja Priit Roosimägi arvates võib tehisintellekti kontrollimatu arendamise ja arenguga saabuda tehnoloogiline singulaarsus, mis võib seada kahtluse alla inimkonna tuleviku. Selle vältimiseks tuleb saavutada tehisintellektiga rahulik ning vastastikku kasulik kooseksisteerimine.

No sensible decision can be made any longer without taking into account not only the world as it is, but the world as it will be. This, in turn, means that our statesmen, our businessmen, our everyman must take on a science fictional way of thinking.

— Isaac Asimov, 1978

Tehisintellekt ja meediakajastus

8. juunil 2014 ilmus The Telegraphis artikkel, milles väideti, et Londoni Royal Society’s läbis „superarvuti“ „maailmas esmakordselt“ nn Turingi Testi, mis oli korraldatud Readingi Ülikooli professori Kevin Warwicki juhtimisel. Artikkel tekitas küllalt palju kõmu nii tehisintellektiga (artificial intelligence, AI) tegelevates ringkondades kui laiemalt tavameedias. Ei läinud aga palju aega, kui nimetatud „saavutus“ akadeemilises ringkonnas ja AI-spetsialistide poolt kahtluse alla seati (artikkel 10. juuni The Telegraphis, 11. juuni The Guardianis, 12. juuni Business Insideris jne). Küsimusi on tekitanud nii testi korralduslikud küljed kui väide, et taoline test on arvuti poolt läbitud „esimest korda“.

Üldjoontes tundub, et tegemist oli Kevin Warwicki järjekordse publicity stunt-iga, mille eesmärk oli enda tegemistele üldsuse tähelepanu tõmmata. 2002. aastal sai sama mees näiteks kuulsaks sellega, et istutas oma kehasse mikroskeemi, mis ühendati tema närvisüsteemiga. Selle kaudu oli tal võimalik liigutada Readingu Ülikoolis asuvat robootilist kätt.

Nii või teisiti näib, et teatud eesmärgi see pressiteade täitis. Viimase kuu-poolteise jooksul on tavameedias senisest enam lahatud tehisintellekti temaatikat: juureldud selle üle, mis see AI ikkagi on, kui kaugel ollakse tõelise AI leiutamisega, kes selle arendamisega tegelevad ning mis võiksid olla selle leiutamise pikemaajalised tagajärjed. Teemad, mis iseenesest pole ju uued, kuid arvestades tehnoloogia arengut ning viimase aja märksõnu nagu „Big Data“, „pilveteenused“ jne, on muutumas üha aktuaalsemaks.

Tehisintellekt, singulaarsus ja inimkond

Millal siis ikkagi n-ö tõelise tehisintellektini jõutakse? See on küsimus, millele ei oska keegi kuigi kindlat vastust anda. Üldjoontes aga kipuvad eksperdid arvama, et inimestega võrreldava tasemega tehisintellekt võiks saada reaalsuseks lähima 50 aasta jooksul, võibolla ka varem. Kui USA matemaatiku ja ulmekirjaniku Vernor Vinge’i käest küsiti, kas arvutid võivad kunagi saada sama targaks kui inimesed, vastas ta: „Jah, aga ainult lühikeseks ajaks.“ Sellega viitas ta asjaolule, et pole mingit põhjust eeldada, nagu inimtase oleks intelligentsi lõplik mõõdupuu. Kui tehisintellekt juba nii kaugele areneb, et saavutab inimtaseme, tõuseb ta sellest ka kiiresti kõrgemale. Sellist hetke, kui tehisintellekt saavutab inimestega sama taseme ning siis ületab selle, nimetatakse tehnoloogiliseks singulaarsuseks (või lihtsalt singulaarsuseks). See tähistab hetke, mil edasine inimkonna areng on ettearvamatu.

Asjaolu, et isemõtlevad tehisorganismid (arvutid, robotid) võivad inimestele või lausa inimkonnale tervikuna ohtlikud olla, pole just kuigi originaalne mõttekäik. Suur osa ulmekirjandusest ning ‑filmindusest on sellele ohule üles ehitatud (jah, kõige kulunum näide on ühe Austria päritolu näitleja poolt kuulsaks mängitud Terminaatori saaga, aga võib mõelda ka Matrixi peale). Vastukaaluks ohtudele on levinud ka mõttekäik nn Robootika Kolmest Seadusest, mille sõnastas kirjanik Isaac Asimov 1942. aastal üllitatud lühijutus „Runaround“ ning millel tugines suur osa tema edasisest ulmekirjandusest. Lühidalt öeldes on Kolm Seadust Asimovi robootika universumis sellised, mis on robotite tehisajju tugevalt ja vältimatult sisse kirjutatud ning mis tagavad selle, et robotid ei saaks inimestele kahju tekitada (Esimene Seadus).

Antud käsitluse puudujääk on see, et taolised Seadused pole reaalelus kuidagi iseenesest mõistetavad või vältimatud. Mitte miski ei garanteeri, et arendatav tehisintellekt inimkonna ülimuslikkust peaks kuidagi arvestama või et need, kes tehisintellekti arendavad, neid seadusi rangelt järgiks. Isegi kui nad neid järgivad, ei kindlusta miski, et Seadusi oleks võimalik 100-protsendilise kindlusega tehisintellekti kodeerida (inimesed teevad vigu, ükski kood pole 100% murdmiskindel, keerulisuse tõusuga kasvab kontrollimatute ristmõjude arv jne).

Kogu senise evolutsiooni vältel on iga elusorganismi esmaseks instinktiivseks eesmärgiks olnud ellujäämine, sh paljunemine. Kunagi pole üks elusorganism teise liigi esindajaid endast olulisemaks pidanud, et oma püsimajäämist teise liigi kasuks ohtu seada. Inimkonna kasuks on rääkinud see, et tänu oma mõistusele oleme tõusnud nö looduse tippu, kus teised liigid ei suuda meie püsimajäämist liigina ohustada. Vastupidi – enda eksisteerimise ja paljunemise huvides kasutab inimkond loodusressursse just nii, nagu tal endal vaja on, suretades vajadusel teadlikult või hoolimatusest välja teisi loomaliike (rääkimata taimeliikidest), kui need samadele ressurssidele peaks konkureerima (vihmametsad, põllumaad, veevarud jne). Tehnoloogilise singulaarsuse hetkel oleme aga taolise loodusliku tipp-positsiooni minetanud.

Tehisorganismide adapteerumine piiratud ressursside puhul

2009. aastal viidi küllalt lihtsakoeliste robotitega, mille puhul tehisintellektist sai rääkida ainult väga piiratud algelisel tasemel, läbi huvitav eksperiment. Väikesed iseliikuvad robotid pandi suletud alale, kus teatud punktis asumine andis robotitele plusspunkte (nö energia-alad), teises punktis aga sai iga robot miinuspunkte (nö mürgitatud alad). Alade ära tundmiseks olid robotitel sensorid ning omavahel said nad energia-ala leidmisel kommunikeerida valgusmärguandega.

Kasutatud programmeerimiskeel oli nö „geneetiline“, st pärast igat katset oli võimalik edukamate robotite „geneetilist koodi“ omavahel „ristata“. Lisaks tekitati „geneetilisse koodi“ juhuslikke harvasid „mutatsioone“. Selle tulemusena toimus loodusega sarnane „geneetilise koodi“ evolutsioon.

Pärast esialgseid katseid ja „ristamisi“ muutusid robotid energia-alade leidmisel üha osavamaks. Mõne aja pärast toimusid aga veel huvitavamad arengud – kuivõrd robotid hakkasid „aru saama“, et energia-alad on piiratud suurusega ja mida rohkem roboteid korraga neid üritab okupeerida, seda väiksem on tõenäosus, et iga konkreetne robot alale ära mahub, siis hakkasid osad robotid teistele „valetama“! Energia-ala leidmisel ei lülitanud nad enam sisse valgusmärguannet ning teised üritasid petta lausa sellega, et lülitasid märguande sisse kohas, kus energiast polnud haisugi. Selle tulemusena muutus ka robotite reaktsioon valgusmärguande nägemisele, kuivõrd see ei pruukinud enam sugugi midagi kasulikku tähistada.

Pärast 500 „põlvkonda“ oli tulemuseks see, et umbes 60% robotitest ei näidanud energia-alal valgusmärguannet kunagi, ca kolmandik robotitest olid valgusmärguandele tugevalt vastuvõtlikud (vurasid seda nähes kohale), kolmandik näitas üles ainult piiratud huvi valgusmärguande vastu ning kolmandik hoidis valgusmärguannetest lausa eemale.

Antud eksperiment näitas väga baastasemel, kuidas isegi kõige lihtsamal juhul hakkavad organismid tegutsema selle nimel, et ressursse kõige optimaalsemalt endale haarata ja kui vaja, siis selleks teisi ressurssidest eemale hoidma. Võib ainult arvata, kui nutikalt võib sama mehhanism toimida olukorras, kus ressursse soovib endale saada mitte enam väike rumal valgust plinkiv karbike, vaid tehisintellekt, mis on ületanud inimvõimed. Sel momendil loota, et me suudame tehisintellekti kuidagi kontrollida ning talle selgeks teha, et inimesed on ikka tähtsamad, tundub pehmelt öeldes naiivne.

Tehisintellekt ja eksistentsiaalne risk

Seega, selleks, et vähemasti üritada tehisintellekti evolutsiooni mõjutada nii, et see inimkonnale ohtlikuks ei saaks, tuleb teemaga tõsiselt tegeleda enne, kui singulaarsus uksele koputab. Üheks taoliseks ettevõtmiseks on Cambridge’i Ülikooli juurde hiljuti loodud Eksistentsiaalse Riski Uurimise Keskus (Centre for the Study of Existential Risk, CSER). CSER on eksistentsiaalsete ehk inimkonda tervikuna ohustavate riskidena defineerinud need, mis tulenevad (a) bio(tehno)loogiast, (b) molekulaarsest nanotehnoloogiast, (c) kliimamuutustest, (d) haavatavatest võrgustikest ja (e) tehisintellektist. Eestiga seob CSERi asjaolu, et üheks kolmest asutajast on Jaan Tallinn (Skype’i kunagine kaasasutaja), kes CSERi tegemisi käis RIAs tutvustamas kaks aastat tagasi. Keskuse eesmärgiks on eksistentsiaalse riski kui teadusharu loomine ja kontseptualiseerimine, et välja töötada tehnoloogiast tulenevate eksistentsiaalsete riskide uurimise ja haldamise alused.

Tehisintellekti puhul leiab CSER, et tänaseks probleemiks on tehisintellekti arendamisega tegelevate osapoolte vähene omavaheline suhtlus ning pea olematu ohutus- ja kontrollmehhanismide alane uurimistegevus tehisintellekti arendamisel. CSER üritab suhelda kõigi oluliste osapooltega selleks, et mõista tekkivaid ohtusid ning riskiteadlikkust tõsta. Eesmärgiks on oluliselt edasi arendada tehisintellektiga seonduvate ohutusprotokollide ja riskide uurimistegevust ning informeerida nii tööstussektori juhtfiguure kui poliitikakujundajaid sobivatest strateegiatest ja regulatsioonidest, et tagada tehisintellekti alane turvalisus tulevikus.

Mida siis ikkagi teha, et tehisintellekt inimkonnale saatuslikuks ei saaks? Nagu Jaan Tallinn koos CSERi teise kaasasutaja Huw Price’iga 2012. aastal avaldatud artiklis „A.I. – Can We Keep It In The Box?“ ütleb: „Me arvame, et hea esimene samm võiks olla lõpetada intelligentsetest masinatest kui teadusfantastikast mõtlemine, ning käsitleda neid kui osa reaalsusest, millega me ise või meie järglased peavad tõepoolest varem või hiljem silmitsi seisma.

Käesoleva artikli autor leiab, et parim võimalik lõpptulemus oleks see, kui inimkond suudaks pärast singulaarsust tehisintellektiga niimoodi koos-eksisteerida, et me vastastiku teineteisele kasulikud oleksime (ja seda viisil, mis oleks etem, kui Matrixi-laadne olukord, kus inimkonna kasulikkus seisneks ainult energiakonverteriks olemises). Vastasel juhul ei pruugi tehisintellekt inimkonna suhtes küll otseselt vaenulik olla (a la Terminaator), kuid ei pruugi lihtsalt meie eksisteerimise vastu huvi tunda. See tähendab, et AI kasutaks oma üliinimlikke võimeid ressursside endale suunamiseks, olenemata sellest, kas ka inimkonnal neid vaja läheb või mitte. Paraku on aga küllalt tõenäoline, et inimkond liigina võib tehisintellektile tunduda ohtlik. Nagu füüsik ja kirjanik Louis Del Monte on 5. juulil 2014 avaldatud artiklis öelnud: „[Tehisintellekt] võib suhtuda meisse sama moodi, nagu meie suhtume kahjulikesse putukatesse. Inimkond on liigina ebastabiilne, algatab sõdu, tal on relvi, et hävitada kogu maailm kahekordselt, ja ta loob arvutiviirusi. Mitte just kuigi veetlev toakaaslane.“

Kokkuvõte

Tehisintellekt pole veel otseselt käeulatuses, kuid arvestades tehnoloogilist üha kiirenevat arengut, peavad eksperdid tõelise tehisintellekti saavutamist, mis vastaks inimintellekti tasemele, lähima 50 aasta jooksul realistlikuks. Pärast sellist tehnoloogilise singulaarsuse hetke, mil tehisintellekti tase hakkab ületama inimvõimekust, on aga inimkonna edasine tulevik ettearvamatu.

Selleks, et singulaarsusest ei saaks inimkonnale hukatuslik sündmus, on vaja tõusetuvatele eksistentsiaalsetele riskidele juba nüüd tähelepanu pöörata. Mitte miski ei kindlusta seda, et tehisintellekt n-ö iseenesest peaks inimkonna heaolu ning ressursside vajadust enda omast ülimuslikumaks pidama.

Parim, mida inimkond võib saavutada, on tehisintellektiga rahulik ning vastastikku kasulik kooseksisteerimine. Sellisel juhul on lootust, et tehisintellekt ei haara endale kõiki inimkonnale vajalikke ressursse ning ei suhtu meisse kui ohtlikesse putukatesse. Tehisintellekti kontrollimatu arendamise ja arenguga võib aga tehnoloogilise singulaarsuse saabumisel inimkonna edasine eksisteerimine tõsise kahtluse alla langeda.