Photo by Franck V. on Unsplash

Singulariteten… Är det verkligen den mest angelägna frågan?

AI i framtidens hållbara städer, del 4

Hedvig Kjellström
Viable Cities
Published in
6 min readFeb 5, 2020

--

Som professor i AI på KTH blir jag ofta inbjuden att tala populärvetenskapligt om AI. Det kan vara på andra universitet och högskolor, eller på evenemang som till exempel Parkteaterns föreställning Framtiden med samtal om AI som anordnades i somras. Det är nästan utan undantag otroligt intressant och stimulerande, och jag gillar det verkligen eftersom jag alltid får nya idéer av oväntade frågor från publiken.

Men… så kommer frågan om Singulariteten. Det händer på varje seminarium. Vad händer när autonoma agenter blir intelligentare än människor, kommer de förgöra mänskligheten?

Det är en hisnande tanke, och frågan är förstås viktig, eftersom den påverkar hur vi utvecklar AI-metoder så att de följer etiska riktlinjer vi människor tycker är viktiga. Science-fictionförfattaren Isaac Asimov började redan på 1940-talet fundera på detta, och formulerade ett antal lagar för hur robotar (d.v.s. artificiella agenter med kropp) ska bete sig så att de inte skadar människor. I takt med att AI-metoder blir allt kraftfullare och överträffar mänsklig förmåga vid vissa begränsade uppgifter som brädspelet Go, ökar intresset för frågan. Flera framstående forskare, som Nick Bostrom i Oxford och Max Tegmark på MIT, ägnar den stort fokus — och det är bra. Men det är inte den enda viktiga frågan kring AI.

Så, nästa gång jag får chansen att tala populärvetenskapligt — då ska jag trycka hårt på att diskussionen styrs undan från filosoferande om Singulariteten och fokuserar på två andra frågor som är mer jordnära och i mina ögon mycket mer angelägna här och nu.

Vi borde oroa oss mer för vad människor kan göra mot oss med hjälp av AI-metoder, och oroa oss mindre för vad AI-agenter kan göra mot oss

1 Den första frågan handlar om hur människor kan använda AI som ett instrument för att genomföra saker som tidigare inte var möjliga.

Ännu är det långt kvar innan datorer kan utrustas med den typ av generell intelligens människor besitter; kreativitet, fantasi och förmåga att komma på nya saker, alltså det som skulle kunna leda till Singulariteten. Men redan idag kan människor — med hjälp av sin kreativitet, fantasi och förmåga att komma på nya saker — åstadkomma ganska kraftfulla effekter.

Ett exempel är Kina, där ledningen har satt i system att övervaka alla invånare på ett mycket detaljerat sätt med hjälp av AI. Ett annat är så kallade trollfabriker, där falska nyheter och inlägg i sociala medier produceras strukturerat för att påverka människors åsikter och beteende genom att kartlägga och dra slutsatser från spridda data som människor lämnar efter sig på nätet och i sociala medier.

Detta debatteras mer och mer idag, och fler och fler människor blir medvetna om hur mycket data man kan få tag på om dem, och hur mycket man kan få reda på om deras åsikter, privatliv och hemligheter. Men jag tycker att det är väl värt att ägna det ännu mer utrymme när man pratar populärvetenskapligt om AI.

Vi borde fokusera mer på hur AI-metoder kan hjälpa oss människor att göra saker på ett bättre sätt, och fokusera mindre på hur AI-agenter kan göra saker på egen hand

2Den andra frågan handlar om hur AI kan användas i människans tjänst; hur AI-metoder kan göra oss mer kompetenta genom att hjälpa till med det som vi har svårt för och låta oss fokusera på det vi har lätt för.

Datorer är oöverträffat bra på inferens, det vill säga att gå igenom stora mängder data och hitta svaga mönster, och prediktion, att förutsäga hur en serie siffror kommer utveckla sig härnäst givet tidigare delar av samma serie. Man kan säga att datorer är bra på väldefinierade uppgifter som ska utföras väldigt många gånger eller som innebär att väga samman många data. Däremot är datorer — även med dagens kraftfulla AI-metoder — ganska dåliga på just det vi tänker på som mänsklig intelligens: att göra helhetsbedömningar, använda sig av erfarenheter från liknande men inte likadana situationer tidigare, att dra generella slutsatser från ett specifikt exempel. Det är helt enkelt jättesvårt att bygga en artificiell agent som kan resonera på ett människolikt sätt. För att koppla till den första frågan som jag diskuterar ovan, så är detta anledningen till att jag bedömer att Singulariteten är långt borta.

I motsats till datorer är ju människor istället ganska dåliga på att göra exakt inferens och prediktion från stora mängder data, men å andra sidan oerhört bra på att resonera och göra helhetsbedömningar, och också att lösa problem med hjälp av vad man kan kalla intuition eller magkänsla.

Ett väldigt viktigt område inom AI är Intelligence Augmentation /Amplification (IA), på svenska intelligensförstärkning. IA, som också kan ses som en alternativ synvinkel på AI, handlar om att utveckla AI-metoder som arbetar tillsammans med en människa för att hjälpa denna att lösa problem. Tanken är att AI-metoden bidrar med de delar av problemlösningen som handlar om dataanalys, medan människan bidrar med resonerande, erfarenhet, intuition och magkänsla. Helt enkelt är idén med IA att inte försöka replikera mänsklig intelligens, utan istället använda sig av den “äkta varan”, människan, och låta datorn utföra de delar den är bra på, och kommunicera med människan medan uppgiften utförs.

Ett framgångsrikt exempel på IA i verkligheten är system för medicinskt beslutsstöd, där AI-metoder i allt högre grad används för att väga ihop stora mängder undersökningsdata av olika sorter och visualisera och presentera dem för en läkare som sen gör bedömningen. Sådana system används till exempel i demensdiagnostik och cancerbehandling. Det AI-metoden bidrar med är alltså själva datacrunchandet, medan läkaren kan fokusera på det han eller hon är bäst på: resonerande, erfarenhet, intuition och magkänsla.

Ett annat exempel är bilar med automatik. Man kan säga att AI-synsättet är att utveckla självkörande bilar, som helt på egen hand navigerar i trafiken. Om man istället tar på sig IA-glasögonen så finns det en (i mina ögon intressantare) snabb utveckling av metoder för att göra bilar halvautomatiska. Många av dessa finns redan i bilar på vägarna, till exempel parkeringshjälp, funktioner för att känna av när bilen kan styra själv på motorvägen och när föraren bör ta över, och kontrollfunktioner när bilen kommer för nära andra fordon. Vinsterna är inte bara säkerhet utan också lägre bränsleförbrukning och ökad komfort. Dessa metoder ger alltså nytta långt innan vi når det mer långtgående AI-målet med helt självkörande bilar.

Ett bra IA-system måste alltså kunna kommunicera med människan det ska förstärka. Det ställer krav på forskning och utveckling inom språkteknologi och dialogsystem, datorseende och perception, och i människa-datorinteraktion och interaktionsdesign. Håll ögonen på dessa områden, där kommer det hela tiden ut mängder av intressant forskning som ofta får mindre medieuppmärksamhet än mer ren AI.

Jag skulle vilja att samhällsdebatten om AI blev lite mer jordnära — lite tråkigare om man så vill. Jag vill att vi diskuterar riskerna med att människor använder AI-metoder på sätt som missgynnar andra människor, och hur man kan utveckla IA-metoder, alltså AI-metoder som ger människor ökad förmåga att lösa olika uppgifter.

Det här är ett inlägg i bloggserien AI i framtidens hållbara städer som skärskådar löften om att artificiell intelligens (AI) ska göra framtidens hållbara smarta städer möjliga. I inläggen tittar vi särskilt på Sverige och den ambition många av våra städer har i linje med Viable Cities mission att vara klimatneutrala år 2030, som en del i uppfyllandet av FN:s 17 hållbarhetsmål i Agenda 2030. Serien pekar också på relevanta och lyckade satsningar på AI världen över och gör intervjuer med särskilt intressanta personer i sammanhanget.

Serien tar sikte på att analysera det gap som skribenterna tror finns mellan AI som idé och AI tillämpat i verkligheten. Idén diskuteras oftast (men inte alltid) av icke-experter som läst sig till vad AI kan göra genom att läsa populärbeskrivningar, medan tillämpningarna diskuteras av experter som är djupt försjunkna i snäva teknikutmaningar och mest läser specialistlitteratur. När de som bestämmer över vad som ska hända i en stad kring AI i framtiden tar fram och nyttjar beslutsunderlag kan detta gap skapa felaktiga förväntningar och i värsta fall leda till felaktiga beslut. Förhoppningen är att belysa och bidra till att förbättra den här situationen.

Bloggserien görs inom ramen för Viable Cities av AI-professorerna Hedvig Kjellström och Magnus Boman (båda KTH) och kommunikatören Marcus Törncrantz. Ta gärna kontakt med hedvig@kth.se, mab@kth.se, eller marcustorn@gmail.com. Tack för att du läser!

--

--