Cybernetica toetab Eesti riiki turvalise tehisintellekti kasutuselevõtmisel ja arendamisel

Majandus- ja Kommunikatsiooniministeerium
Digiriik
Published in
2 min readMay 3, 2024

--

Liina Kamm

Selle aasta algusest on Cybernetica AS astunud strateegilisi samme, et toetada Eesti riiki turvalise tehisintellekti juurutamisel digiühiskonda. Selle tulemusel valmis esimese kvartali lõpus Riigi Infosüsteemi Ametile (RIA) tehtud tehisintellekti küberturvet käsitlev uuring. Samuti teeb Cybernetica koostööd äsja moodustatud Eesti tehisintellekti tippkeskusega.

Cybernetical on tulevateks aastateks laiem tehisintellekti strateegia, mida toetab jaanuaris moodustatud ning seitsme miljoni euroga finantseeritud tippkeskus. Tippkeskuse roll on arendada uuenduslikke meetodeid, mis aitavad luua usaldusväärseid tehisintellektisüsteeme. Tippkeskuse juures teevad uurimistööd Cybernetica, TalTech ning Tartu Ülikool, viimane on ka projekti koordinaator.

Tippkeskuse privaatse ja turvalise tehisintellekti uurimisrühma juht, Cybernetica vanemteadur Liina Kamm, sõnas, et tehisintellektil on suur potentsiaal aidata lahendada ühiskondlikke probleeme. „Tehisintellekti abil on võimalik efektiivsemalt tõlgendada keerulisi andmeid, kasutades suuri keelemudeleid,“ rääkis Kamm. „Tippkeskuse ülesannete hulgas on nii alusmudelite loomine kui erinevate meetodite rakendamine selleks, et tehisintellekti võimekus suureneks mitmes võtmesektoris nagu e-valitsus, tervishoid, äriprotsesside modelleerimine ning küberturve,“ lisas ta.

Uus tippkeskus keskendub põhiliselt neljale ülesandepüstitusele:

- Alusmudelite arendus usaldusväärsete analüüsi- ning prognoosisüsteemide ehitamiseks,

- Juhtimis- ja kaitsemehhanismide rakendamine, et tagada edasijõudnud tehisintellektisüsteemide vastavus nende nõuetele,

- Tehisintellekti süsteemide kohendamine ja täiustamine efektiivsuse parandamiseks sihitud rakenduskontekstis,

- Tehisintellektisüsteemide turvalisuse ja privaatsuse tagamine.

Samuti andis Cybernetica hiljuti RIA-le üle tehisintellekti riskihalduse metoodikat kirjeldava aruande, kus käsitletakse ka leevendusmeetmeid. Aruanne annab ülevaate 2024. aastal kehtivast tehisintellekti õigusruumist, sealhulgas Euroopa Liidu algatustest ja ettepanekutest. Aruande juurde kuulub tehisintellekti süsteemi rakendajale mõeldud kiirjuhis, mis aitab ettevõtetel aru saada, millises süsteemi arhitektuurses osas peaks ühele või teisele riskile mõtlema. Lisaks tuleb kaasa tööleht, mis juhendab, kuidas leida ettevõtte süsteemile vastav levitusmudel, et täpsemalt hinnata oma riske ja vajadusi.

„AI kasutamine ei ole pelgalt juturobotilt nõu küsimine, et kuidas koodi kirjutada, või nunnude kutsikavideote genereerimine. Ettevõtted üle maailma uurivad võimalusi, kuidas rakendada AI ja masinõppe lahendusi tööstuses ja digiarendustes, et muuta tootmist ja teenuseid personaalsemaks ning kiiremaks,“ ütles RIA küberturvalisuse keskuse teadus-arendusjuht Lauri Tankler. „Meie huvi RIAs on see, et uute tehnoloogiate rakendamisega ei kaasneks tarbetuid riske inimeste andmetele, rahale või veel hullem — elule ja tervisele,“ rääkis Tankler.

„Tehisintellektisüsteemide turvalisus tähendab ühelt poolt tehnilisi meetmeid — näiteks, et võõras isik või konkureeriv ettevõte ei saaks juurdepääsu andmetele — aga ka seda, et rakendaja mõtleks sotsiaalsetele mõjudele, nagu diskrimineerimise vältimine või AI arvutusvõimsuse ökoloogiline jalajälg,“ selgitas uuringu üks autoreid, teadlane ja teaduste akadeemia liige, Cybernetica infoturbeinstituudi direktor Dan Bogdanov. „Teadus- ja arendustegevus ning poliitikakujundamine peaksid püüdlema selle poole, et tehisintellekti süsteemide kasutamine toetaks ühiskonna üldist heaolu, kaasamist ja säästvat arengut,“ lisas Bogdanov.

Dan Bogdanov
direktor
Cybernetica teadusinstituut

--

--