torsdag 24 januari 2019


 Den envisa myten om intelligenta maskiner

 Att datorn ska bli intelligentare än människan och rentav ta kommandot över oss är varken tekniskt eller filosofiskt sannolikt. Så varför låter sig så många skrämmas av science fiction artade spekulationer? Om det finns något att oroa sig över är det snarast de moraliska följderna av denna övertro på teknik.

 År 1936 publicerade den 24-årige matematikern Alan Turing uppsatsen ”Beräkningsbara tal och avgörbarhetsproblemet”. Den riktade sig mot försöken att hitta en logisk metod för att avgöra om ett godtyckligt matematiskt påstående var sant eller falskt. Turings slutsats var: det finns ingen sådan universell procedur. För att bevisa detta utformade han i teorin en ”universell maskin”, senare känd som ”Turingmaskinen”. Den ses idag som det teoretiska fundamentet för datalogin.
 Under det följande decenniet tog utvecklingen enorma kliv. Turing själv värvades till det hemliga Bletchley Parkprojektet som byggde maskinen som knäckte tyskarnas Enigma-kod. Redan 1948 proklamerade matematikern John von Neumann att datorn snart skulle överträffa människans intelligens. Två år senare publicerade Turing en artikel där han hävdade att maskiner snart skulle kunna tänka som människor. För att avgöra när det sker föreställde han sig en ”imitationslek” – senare känd som ”Turingstestet” – där en domare får kommunicera med en maskin och en människa utan att veta vem som är vem. När det inte längre går att avgöra skillnaden är maskinen intelligent. Ytterligare några år senare myntade von Neumanns elev John McCarthy termen ”artificiell intelligens”. Banan var nu sopad för ett projekt av kosmiska dimensioner: människan stod i begrepp att återskapa den förmåga som genom årtusenden av filosofi och teologi betraktats som hennes mest unika egenskap och rentav bandet till Gud: hennes intellekt.
 Därmed aktualiserades också frågan: Vad betyder denna upptäckt för människans framtid? De litterära och konstnärliga svaren lät inte vänta på sig. Ja, i själva verket hade de redan förberetts länge. Inom den moderna litteraturen blev det Mary Shelleys ”Frankenstein” (1818) som fångade den teknologiska epokens fascination och fasa inför konstgjort liv. Den viktorianske författaren Samuel Butlers bok ”Erewhon” (1872) beskriver hur en ny ras av maskiner i Darwinsk anda uppnår medvetande och tar över världen. Men det var den tjeckiske författaren Karol Capek som i sin pjäs ”R.U.R” från 1920 kom att mynta begreppet ”robot” som namn på en maskinvarelse som där revolterar mot sina herrar (från ett slaviskt ord för livegen arbetare).
 De tekniska genombrotten från 40-talet och framåt gav fantasierna ny fart, också bland forskarna själva. En fascinerande person är Irving John Good, kollega till Turing i Bletchley Park. 1965 publicerade han en artikel i The New Scientist där han föreställde sig uppkomsten av en ”ultraintelligent maskin” som kunde alstra nya maskiner. I varje maskin-generation skulle den utvidga sina förmågor, vilket snabbt skulle resultera i en ”intelligensexplosion”, en händelse som von Neumann redan omtalat som ”singulariteten”. När Stanley Kubrick och Arthur Clarke tillsammans skapade filmen ”År 2001 – ett rymdäventyr” (1968) var det Good de kontaktade som vetenskaplig rådgivare. Filmens (och bokens) superdator Hal 9000 kom att bli den paradigmatiska gestaltningen av en maskinintelligens som i ett avgörande ögonblick inte lyder människan utan vänder sig emot henne.
 Bland filosofer fanns dock röster som ställde sig frågande inte bara till de konkreta förutsägelserna, utan också till själva idén om intelligens inom AI. En pionjär var Martin Heidegger, som tidigt intresserade sig för cybernetiken. I en inflytelserik uppsats från 1953, ”Teknikens väsen”, argumenterade han för hur vår förståelse av teknik leder till en teknisk förståelse av oss själva. När allt omstöps till ”information” ser vi inte längre vad det innebär att existera i världen som ändligt historiska varelser. Hans sätt att resonera låg delvis till grund för den amerikanske filosofen Hubert Dreyfus ”What computers can’t do” (Vad datorer inte kan göra) från 1972, som visar hur AI-forskningen vilar på en alltför snäv bild av intelligens som bara abstrakt symbolhantering, utan koppling till kropp och livssammanhang.
 Det blev dock inte Dreyfus utan hans kollega på Berkeley John Searle som framför allt kom att förknippas med den filosofiska kritiken mot AI. I explicit polemik mot Turings kriterium menade han att det inte finns någon anledning att tillskriva maskiner mänskliga egenskaper, annat än i metaforiskt hänseende. En dator må prestera fantastiska schackdrag, korrekta översättningar eller vettiga svar i en konversation, men i slutändan finns det ingen där som vet att hen är inbegripen i någon av dessa aktiviteter.
 Searles kritik handlade om på vilka grunder vi kan definiera någon eller något som intelligent. För majoriteten av praktiskt sinnade ingenjörer och dataloger var dessa frågor egentligen ovidkommande. När det gäller att konstruera en maskin som kan göra det ena eller andra, översätta, diagnosticera, köra fordon eller spela schack, handlar det om att leverera resultat. Att kritiken ändå provocerade AI-forskningen visar att många av dess företrädare gärna ville känna att de var den mänskliga intelligensen på spåren, ibland av genuint intellektuella skäl men sannolikt även av ekonomiska skäl. Att hävda att AI har en filosofisk relevans för vår självförståelse eller att den är på väg att frambringa en ny högre kiselbaserad livsform skapar uppmärksamhet och drar till sig pengar. Att Ray Kurzweil, utvecklingschef på Google, i sin uppmärksammade bok från 2004, ”The singularity is Near”, ägnar flera sidor åt att försöka vederlägga Searles argument vittnar om vad som står på spel.
 Under 80-talet prövades nya modeller för att vidga maskinernas funktion, framför allt så kallade neurala nätverk som man tänkte sig bättre imiterade den mänskliga hjärnans funktion. Men även om maskinernas prestanda stegrades uteblev de stora genombrotten och kommersiella framgångarna. I efterhand framstår 80- och 90-talet som en svacka för AI. Förloppet beskrivs kärnfullt i den utmärkta översiktsbok som sammanställdes förra året av tidskriften New Scientist, med titeln ”Machines that think: Everything you need to know about the coming age of artificial intelligence” (Tänkande Maskiner: Allt du behöver veta om framtidens Artificiella Intelligens). När IBM:s Deep Blue besegrade Kasparov 1997 var det förvisso omtumlande för schackvärlden och det bidrog till att på nytt dra uppmärksamhet till forskningen. Men ingen kunde hävda att programmet var ”intelligent” i någon väsentlig mening. Det saknade strategi och förmåga att lära eller dra slutsatser och det var odugligt för alla andra aktiviteter än att räkna fram schackdrag.
 Idag är AI återigen på allas läppar. Det har sina profeter, såväl evangelister som domedagspredikanter. Gestaltningar av ömsom välvilliga, ömsom hotfulla intelligenta robotar flockas på nytt i litteratur och film. Det kommersiella intresset är glödhett. Vad är det som har hänt? Förklaringen rymmer en filosofisk skruv. Så länge AI trodde sig återskapa eller förklara mänsklig intelligens stod den och stampade. Det verkliga genombrottet kom när man gav upp idén om att bygga modeller av mänskligt tänkande och istället satsade på att skapa maskiner som kunde ”lära sig själva” genom att via enklare algoritmer statistiskt processa enorma mängder växande data.
 Idén illustreras kanske bäst av översättningsprogrammen. De utlovades redan på 50-talet och stora ansträngningar ägnades åt att skapa algoritmer för hur en ideal mänsklig översättare arbetar, men förgäves. Genombrottet kom i stället på 2000-talet genom skapandet av program som utifrån en enorm och ständigt växande textdatabas genererar en statistiskt framräknad sannolikhet för att en viss konstruktion i målspråket svarar mot den i källspråket. Dessa program vittnar om en imponerande intelligens hos deras skapare. Men ingen kan rimligen hävda att dessa maskiner förstår de språk de hanterar eller att de skulle vara intelligenta.
 Likväl uppmålas på nytt dramatiska scenarier av hur intelligenta maskiner står i begrepp att ta över världen. Bland de mest namnkunniga forskarna i genren finns två svenskar, filosofen Nick Bostrom och fysikern och matematikern Max Tegmark. Deras bästsäljande ”Superintelligens” (2014) och ”Liv 3.0” (2017) utgår båda från premissen att dagens självlärande maskiner inom en nära framtid kan alstra en ”intelligensexplosion”. Genom att hänvisa till hjärnans oerhört komplexa uppbyggnad av neuroner och synapser menar de att super intelligens endast är en fråga om när maskinerna närmar sig en jämförbar komplexitet i beräkningskapacitet. Men hur och varför dagens högt specialiserade program enligt något slags evolutionär logik skulle alstra en superhjärna med egna avsikter återstår att visa. Utifrån den teknik vi har idag är det varken tekniskt eller filosofiskt sannolikt. Det är en bland många ”esoteriska möjligheter” för att citera The New Scientist, som menar att hela fältet är i starkt behov av en ”reality check”. Det hindrar inte att hotbilderna har ett djupt estetiskt och religiöst sug, som sannolikt förklarar deras genomslag.
 De apokalyptiska 50-talsvisioner som nu dammas i ljuset av nya tekniska framgångar riskerar till sist att avleda uppmärksamheten från mer angelägna frågor. En av dem är de politiska och etiska konsekvenserna av den förestående robotifieringen av både arbets- och privatliv. En annan är kontrollen av tekniken.
 Det land som satsar mest på AI just nu är Kina, en kommunistisk diktatur som uppenbart ser det också som ett instrument för ekonomisk och politisk styrning.
 Slutligen är det viktigt att också hålla den fråga levande som Heidegger en gång ställde, nämligen vad uppkomsten av maskinell intelligens gör med människans självförståelse. En tilltagande expert- och konsultkultur bidrar redan nu till en försvagning av individens etiska och professionella ansvar. Om människan tror sig vara i färd att ersättas av maskiner som är intelligentare än hon själv riskerar hon att lättare avsäga sig ansvar och omdömesförmåga.
 Snarare än oro över ”superintelligens” borde vi kanske oroa oss över den ”superdumhet” som hotar när människan inte längre anser sig behöva tänka för att hon tror att hennes verktyg gör det åt henne.

 Hans Ruin Professor i filosofi vid Södertörns högskola. (SvD understreckare 28 december 2018)

Inga kommentarer:

Skicka en kommentar