Den envisa myten om intelligenta maskiner
Att datorn ska bli intelligentare än människan
och rentav ta kommandot över oss är varken tekniskt eller filosofiskt sannolikt. Så varför låter sig så många skrämmas av science fiction artade spekulationer?
Om det finns något att oroa sig över är det snarast de moraliska följderna av
denna övertro på teknik.
År 1936 publicerade den 24-årige matematikern
Alan Turing uppsatsen ”Beräkningsbara tal och avgörbarhetsproblemet”. Den
riktade sig mot försöken att hitta en logisk metod för att avgöra om ett
godtyckligt matematiskt påstående var sant eller falskt. Turings slutsats var:
det finns ingen sådan universell procedur. För att bevisa detta utformade han i
teorin en ”universell maskin”, senare känd som ”Turingmaskinen”. Den ses idag
som det teoretiska fundamentet för datalogin.
Under det följande decenniet tog utvecklingen
enorma kliv. Turing själv värvades till det hemliga Bletchley Parkprojektet som
byggde maskinen som knäckte tyskarnas Enigma-kod. Redan 1948 proklamerade
matematikern John von Neumann att datorn snart skulle överträffa människans
intelligens. Två år senare publicerade Turing en artikel där han hävdade att
maskiner snart skulle kunna tänka som människor. För att avgöra när det sker
föreställde han sig en ”imitationslek” – senare känd som ”Turingstestet” – där
en domare får kommunicera med en maskin och en människa utan att veta vem som
är vem. När det inte längre går att avgöra skillnaden är maskinen intelligent.
Ytterligare några år senare myntade von Neumanns elev John McCarthy termen
”artificiell intelligens”. Banan var nu sopad för ett projekt av kosmiska
dimensioner: människan stod i begrepp att återskapa den förmåga som genom
årtusenden av filosofi och teologi betraktats som hennes mest unika egenskap och
rentav bandet till Gud: hennes intellekt.
Därmed aktualiserades också frågan: Vad
betyder denna upptäckt för människans framtid? De litterära och konstnärliga
svaren lät inte vänta på sig. Ja, i själva verket hade de redan förberetts
länge. Inom den
moderna litteraturen blev det Mary Shelleys ”Frankenstein” (1818) som fångade
den teknologiska epokens fascination och fasa inför konstgjort liv. Den
viktorianske författaren Samuel Butlers bok ”Erewhon” (1872) beskriver hur en
ny ras av maskiner i Darwinsk anda uppnår medvetande och tar över världen. Men
det var den tjeckiske författaren Karol Capek som i sin pjäs ”R.U.R” från 1920
kom att mynta begreppet ”robot” som namn på en maskinvarelse som där revolterar
mot sina herrar (från ett slaviskt ord för livegen arbetare).
De tekniska genombrotten från 40-talet och
framåt gav fantasierna ny fart, också bland forskarna själva. En fascinerande
person är Irving John Good, kollega till Turing i Bletchley Park. 1965
publicerade han en artikel i The New Scientist där han föreställde sig
uppkomsten av en ”ultraintelligent maskin” som kunde alstra nya maskiner. I
varje maskin-generation skulle den utvidga sina förmågor, vilket snabbt skulle
resultera i en ”intelligensexplosion”, en händelse som von Neumann redan
omtalat som ”singulariteten”. När Stanley Kubrick och Arthur Clarke tillsammans
skapade filmen ”År 2001 – ett rymdäventyr” (1968) var det Good de kontaktade som
vetenskaplig rådgivare. Filmens (och bokens) superdator Hal 9000 kom att bli
den paradigmatiska gestaltningen av en maskinintelligens som i ett avgörande
ögonblick inte lyder människan utan vänder sig emot henne.
Bland filosofer fanns dock röster som ställde
sig frågande inte bara till de konkreta förutsägelserna, utan också till själva
idén om intelligens inom AI. En pionjär var Martin Heidegger, som tidigt intresserade sig för
cybernetiken. I en inflytelserik uppsats från 1953, ”Teknikens väsen”,
argumenterade han för hur vår förståelse av teknik leder till en teknisk
förståelse av oss själva. När allt omstöps till ”information” ser vi inte
längre vad det innebär att existera i världen som ändligt historiska varelser.
Hans sätt att resonera låg delvis till grund för den amerikanske filosofen
Hubert Dreyfus ”What computers can’t do” (Vad datorer inte kan göra) från 1972,
som visar hur AI-forskningen vilar på en
alltför snäv bild av intelligens som bara abstrakt symbolhantering, utan
koppling till kropp och livssammanhang.
Det blev dock inte Dreyfus utan hans kollega
på Berkeley John Searle som framför allt kom att förknippas med den filosofiska
kritiken mot AI. I explicit polemik mot Turings kriterium menade han att det inte finns någon anledning att
tillskriva maskiner mänskliga egenskaper, annat än i metaforiskt hänseende. En
dator må prestera fantastiska schackdrag, korrekta översättningar eller vettiga
svar i en konversation, men i slutändan finns det ingen där som vet att hen är
inbegripen i någon av dessa aktiviteter.
Searles kritik handlade om på vilka grunder vi
kan definiera någon eller något som intelligent. För majoriteten av praktiskt
sinnade ingenjörer och dataloger var dessa frågor egentligen ovidkommande. När
det gäller att konstruera en maskin som kan göra det ena eller andra,
översätta, diagnosticera, köra fordon eller spela schack, handlar det om att
leverera resultat. Att kritiken ändå provocerade AI-forskningen visar att många
av dess företrädare gärna ville känna att de var den mänskliga intelligensen på
spåren, ibland av genuint intellektuella skäl men sannolikt även av ekonomiska skäl.
Att hävda att AI har en filosofisk relevans för vår självförståelse eller att den
är på väg att frambringa en ny högre kiselbaserad livsform skapar uppmärksamhet
och drar till sig pengar. Att Ray Kurzweil, utvecklingschef på Google, i sin
uppmärksammade bok från 2004, ”The singularity is Near”, ägnar flera sidor åt
att försöka vederlägga Searles argument vittnar om vad som står på spel.
Under 80-talet prövades nya modeller för att
vidga maskinernas funktion, framför allt så kallade neurala nätverk som man
tänkte sig bättre imiterade den mänskliga hjärnans funktion. Men även om
maskinernas prestanda stegrades uteblev de stora genombrotten och kommersiella
framgångarna. I efterhand framstår 80- och 90-talet som en svacka för AI.
Förloppet beskrivs kärnfullt i den utmärkta översiktsbok som sammanställdes
förra året av tidskriften New Scientist, med titeln ”Machines that think: Everything
you need to know about the coming age of artificial intelligence” (Tänkande
Maskiner: Allt du behöver veta om framtidens Artificiella Intelligens). När
IBM:s Deep Blue besegrade Kasparov 1997 var det förvisso omtumlande för
schackvärlden och det bidrog till att på nytt dra uppmärksamhet till
forskningen. Men ingen kunde hävda att
programmet var ”intelligent” i någon väsentlig mening. Det saknade strategi och
förmåga att lära eller dra slutsatser och det var odugligt för alla andra
aktiviteter än att räkna fram schackdrag.
Idag är AI återigen på allas läppar. Det har
sina profeter, såväl evangelister som domedagspredikanter. Gestaltningar av
ömsom välvilliga, ömsom hotfulla intelligenta robotar flockas på nytt i
litteratur och film. Det kommersiella intresset är glödhett. Vad är det som har
hänt? Förklaringen rymmer en filosofisk skruv. Så länge AI trodde sig återskapa
eller förklara mänsklig intelligens stod den och stampade. Det verkliga genombrottet kom när man gav upp idén om att bygga
modeller av mänskligt tänkande och istället satsade på att skapa maskiner som
kunde ”lära sig själva” genom att via enklare algoritmer statistiskt processa
enorma mängder växande data.
Idén illustreras kanske bäst av översättningsprogrammen.
De utlovades redan på 50-talet och stora ansträngningar ägnades åt att skapa
algoritmer för hur en ideal mänsklig översättare arbetar, men förgäves.
Genombrottet kom i stället på 2000-talet genom skapandet av program som utifrån
en enorm och ständigt växande textdatabas genererar en statistiskt framräknad
sannolikhet för att en viss konstruktion i målspråket svarar mot den i
källspråket. Dessa program vittnar om en
imponerande intelligens hos deras skapare. Men ingen kan rimligen hävda att dessa
maskiner förstår de språk de hanterar eller att de skulle vara intelligenta.
Likväl uppmålas på nytt dramatiska scenarier
av hur intelligenta maskiner står i begrepp att ta över världen. Bland de mest
namnkunniga forskarna i genren finns två svenskar, filosofen Nick Bostrom och
fysikern och matematikern Max Tegmark. Deras bästsäljande ”Superintelligens”
(2014) och ”Liv 3.0”
(2017) utgår båda från premissen att dagens självlärande maskiner inom en nära
framtid kan alstra en ”intelligensexplosion”. Genom att hänvisa till hjärnans
oerhört komplexa uppbyggnad av neuroner och synapser menar de att super
intelligens endast är en fråga om när maskinerna närmar sig en jämförbar
komplexitet i beräkningskapacitet. Men hur och varför dagens högt
specialiserade program enligt något slags evolutionär logik skulle alstra en
superhjärna med egna avsikter återstår att visa. Utifrån den teknik vi har idag är det varken tekniskt eller filosofiskt
sannolikt. Det är en bland många ”esoteriska möjligheter” för att citera
The New Scientist, som menar att hela fältet är i starkt behov av en ”reality check”. Det hindrar inte att
hotbilderna har ett djupt estetiskt och religiöst sug, som sannolikt förklarar
deras genomslag.
De apokalyptiska 50-talsvisioner som nu dammas
i ljuset av nya tekniska framgångar riskerar till sist att avleda
uppmärksamheten från mer angelägna frågor. En av dem är de politiska och etiska
konsekvenserna av den förestående robotifieringen av både arbets- och privatliv.
En annan är kontrollen av tekniken.
Det
land som satsar mest på AI just nu är Kina, en kommunistisk diktatur som
uppenbart ser det också som ett instrument för ekonomisk och politisk styrning.
Slutligen är det viktigt att också hålla den
fråga levande som Heidegger en gång ställde, nämligen vad uppkomsten av
maskinell intelligens gör med människans självförståelse. En tilltagande
expert- och konsultkultur bidrar redan nu till en försvagning av individens
etiska och professionella ansvar. Om
människan tror sig vara i färd att ersättas av maskiner som är intelligentare
än hon själv riskerar hon att lättare avsäga sig ansvar och omdömesförmåga.
Snarare än oro över ”superintelligens” borde vi kanske oroa oss över den
”superdumhet” som hotar när människan inte längre anser sig behöva tänka för
att hon tror att hennes verktyg gör det åt henne.
Hans Ruin Professor i
filosofi vid Södertörns högskola. (SvD understreckare 28 december 2018)
Inga kommentarer:
Skicka en kommentar