Hvorfor snakker alle om maskinlæring?

Håvard Bjurholt
Systek
Published in
5 min readAug 23, 2017

--

Altså, jeg forstår det godt. Jeg har vært interessert i det lenge selv. Spørsmålet er vel heller hvorfor alle fra toppledere til naboen plutselig snakker om det, at roboter snart vil gjøre at vi mister jobbene våre og at datamaskinene straks vil bli smartere enn oss (“var det ikke i 2025?”). Eller var det kunstig intelligens som skulle gjøre det? Eller er alt bare en suppe av teknologioptimise og dommedagsprofeti?

Hva er maskinlæring?
Veldig tørt er maskinlæring definert ved:

“Et dataprogram kan sies å lære fra erfaring E i henhold til en type oppgaver O og ytelsesmål Y, hvis ytelsen ved oppgaver O, som målt ved Y, forbedres ved erfaring E.”

Sagt med egne ord ville det blitt noe sånt som at maskinlæring er kunsten å få programvare til å forbedre resultatet av en gitt oppgave basert på tidligere løste oppgaver.

Det interessante er at den delen av maskinlæringsfaget som det snakkes varmt om nå er hovedsakelig fra den subsymbolske leiren, også kalt adaptiv maskinlæring. I motsetning til den symbolske leiren hvor man prøver å representere kunnskap med logikk og symboler, så er man i den subsymbolske leiren ikke så opptatt av hvordan kunnskap representeres og den handler i dag nesten utelukkende om bruken av nevrale nett med ett eller flere skjulte lag, også kalt — buzzordalarm — deep learning.

Hva er kunstig intelligens?
Fagfeltet kunstig intelligens er tverrfaglig av natur, og har vokst fram med bidrag fra blant annet informatikk, matematikk, statistikk, psykologi, nevrologi og lingvistikk, men definisjonen av intelligens knyttes nok mest til psykologi og Store Norske Leksikon definerer intelligens slik:

“Intelligens, i psykologien brukt som et fellesnavn på menneskers evner til oppfattelse, tenkning og problemløsning, og da spesielt på de områder hvor en finner individuelle ulikheter.”

Grenen kunstig intelligens innen informatikk blir definert som studiet og utviklingen av intelligente agenter, der en intelligent agent er et system som observerer sitt miljø og tar avgjørelser for å maksimere sin egen suksess.

Maskinlæring sees på som en gren av kunstig intelligens, men det utgjør således et ganske liten del av AI-feltet. De litt større spørsmålene som prøver å modellere bevissthet og sunn fornuft o.l. med logisk oppbygde symboler (også kalt Good Old Fashioned AI, GOFAI) kan ikke vise i nærheten av de samme fremskrittene som maskinlæringsfeltet de siste årene og interessen for dette har bare dalt siden 80-tallet.

Spørsmålet blir fort dermed:

Hvor intelligent er egentlig en algoritme som ikke er i stand til å resonnere utover de oppgavene den har blitt programmert til å løse?

For meg er det åpenbart at en streng definisjon av intelligens bør inneholde noe om tankens frihet. Muligheten til å fritt kunne resonnere og dagdrømme om mulige løsninger er jo ofte trukket frem som særskilte egenskaper ved intelligente arter. Men kan dette egentlig gjenskapes med programvare?

Hva er nytt?
AI og maskinlæring hadde sitt forrige høydepunkt på 80-tallet og de fleste av algoritmene som brukes i dag ble oppfunnet allerede da, men den store forskjellen er utviklingen i tilgang på data, regnekraft og lagring. Ved å la algoritmene få jobbe på dataene kan man mye raskere trene (og forkaste) modeller til man får noe som funker.

I tillegg har adaptiv maskinlæring med suksess blitt brukt på oppgaver som går ut på å kjenne igjen mønstre i dataene. Mønstergjenkjenning er et eksempel på en type oppgave som datamaskiner overgår mennesker på, og vi har sett en eksplosjon i bruken av det i forbindelse med bildegjenkjenning, stemmegjenkjenning, naturlig språk prosessering m.m. For eksempel er en stor del av systemet til selvkjørende biler basert på dette.

Ulempen med adaptiv maskinlæring
Den store ulempen med denne typen maskinlæring er at vi ikke forstår hvorfor den tar de beslutningene den tar. Riktignok kan algoritmene si noe om hvor sikre de er på svaret ved å anslå sannsynligheten for at de har rett, men vi kan ikke forstå f.eks hvorfor en pasient blir diagnosert med leverkreft av maskinlæringsalgoritmen basert på inputdataene vi ga den. Da må vi til med symbolske algoritmer, og da er vi tilbake i GOFAI-leieren hvor stemningen ikke er så god.

Nå må det nevnes at noen forskere mener at denne type algoritmer bygger sin egen oppfattelse av en verden og problemstilling ganske likt som vi mennesker gjør det, og at den således må kunne sies å være intelligent til tross for at vi ikke kan forklare hva som skjer (slik det jo også er med menneskehjernen). Andre forskere utfordrer dette igjen med å påstå at selv om vi klarer å fylle en slik hjerne med teoretiske kunnskap og fakta, så er vi langt unna og simulere en ekte menneskehjerne fordi vi ikke er i stand til å trene den på praktisk kunnskap som å kunne ta vare på en kanarifugl, simpelthen fordi vi ikke bruker prøv-og-feil metoden på nettopp det.

Her er det ikke annet å si enn at diskusjonen er særdeles interessant og for den interesserte leser anbefaler jeg å lese “Common Sense, the Turing Test, and the Quest for Real AI: Reflections on Natural and Artificial Intelligence” av Hector Levesque for en introduksjon til temaet.

Så jeg blir ikke erstattet av en robot allikevel?
Joda! Men det har vi blitt i mange år allerede. Hvor mange kjenner du som har egen sekretær i dag? Når betalte du sist bompenger til et levende menneske? Og hvor mange så du sist bak skranken i banken? Ja, når var du egentlig sist fysisk i banken. Industriarbeidere har blitt erstattet siden Spinning Jenny ble oppfunnet i 1764, aksjetradere har for lengst lagt ned våpnene i kampen mot algoritmene og nå har nok turen kommet til sjåfører, regnskapsførere, revisorer og forhåpentligvis advokater og eiendomsmeglere. Hvis arbeidsoppgavene dine følger et eller flere flytskjema kan du anta at en robot en dag kommer til å gjøre jobben din.

Trøsten er allikevel at historien viser at når dette skjer, så oppstår det nye jobber og nye muligheter. Det er ingen grunn til å tro at så ikke skjer denne gangen heller, men det er ingen forunt å vite svaret helt sikkert. Hvis du har lyst til å se hvor ille det kan gå når vi alle har sluttet å jobbe, kan du jo ta en titt på episode 2 i sesong 1 av Black Mirror på Netflix.

Black Mirror S1 E2 “Fifteen Million Merits” — “In a world where people’s lives consist of riding exercise bikes to gain credits, Bing tries to help a woman get on to a singing competition show.” Kilde: http://www.imdb.com

Hvor galt kan det egentlig gå?
Den visjonære trioen Elon Musk, Stephen Hawking og Steve Wozniak har alle sagt at vi bør være veldig oppmerksomme på konsekvensene av AI, og at vi bør søke å regulere bruken av det. Det de frykter er at en skruppelløs AI-algoritme vil gjøre hva som helst for å oppnå eller forbedre ytelsesmålet (Y i definisjonen på toppen) — som å poste fake news, hacke sentraler for infrastruktur eller starte en atomkrig — hvis den tror det hjelper.

“In short, the rise of powerful AI will be either the best, or the worst thing, ever to happen to humanity. We do not yet know which.”
- Stephen Hawking

Og så er spørsmålet: Hvis vi kan tilføre sunn fornuft til disse algoritmene, vil vi da kunne styre dem mot å ta fornuftige beslutninger? Kanskje er det ikke kunstig superintelligens vi bør frykte. Kanskje er det de dummere adaptive maskinlæringsalgoritmene som tar avgjørelser uten tilgang på sunn fornuft som er problemet?

--

--