Datorns existentiella ångest: Därför har Stephen Hawking fel

2014-06-22

Maria Gunther skriver i Dagens Nyheter 2014-06-22 (prenumeration krävs) om en framtid då forskningsfältet Artificial Intelligence (AI) lyckas nå sitt mål: En dator som är intelligent och självmedveten. Artikeln diskuterar farhågorna om att en sådan maskin skulle försöka "ta över" från människan. Resonemanget bygger på fysik, matematik och datalogi, medan det biologiska tänkandet är helt frånvarande. Därför blir det fel.

Utvecklingen drivs på mot alltmer självständigt agerande datorer. Vi vill ha de tjänster som de intelligenta systemen utför, men samtidigt oroas vi av skräckscenarier som i Terminator-filmerna (The Terminator och Terminator 2 - Judgment Day, eller nu senast filmen ”Transcendence”.

Gunther refererar till en artikel av Stephen Hawking med flera i The Independent 2014-05-01 som undrar om vi tar det (påstått) förestående genombrottet inom AI på det allvar som det förtjänar:

[...] it's tempting to dismiss the notion of highly intelligent machines as mere science fiction. But this would be a mistake, and potentially our worst mistake in history.
[...]
Success in creating AI would be the biggest event in human history. Unfortunately, it might also be the last, unless we learn how to avoid the risks.

Hawking målar upp ett scenario där AI-maskinerna uppnår en så kallad singularitet, då de kan börja bygga egna, ännu intelligentare maskiner.

One can imagine such technology outsmarting financial markets, out-inventing human researchers, out-manipulating human leaders, and developing weapons we cannot even understand. Whereas the short-term impact of AI depends on who controls it, the long-term impact depends on whether it can be controlled at all.

Hawking undrar till slut varför vi inte funderar mer på vad som skulle kunna hända. Om vi visste att främmande varelser från en annan planet var på väg till Jorden skulle vi förmodligen förbereda oss på alla möjliga sätt. Hawking menar att situationen med utvecklingen inom AI är snarlik.

De djupa problemen kring tänkandet och medvetandet har varit centrala inom västerländsk filosofi sedan åtminstone Platon. De frågor utvecklingen inom AI ger upphov till är alltså inte helt nya. Att resonera kring detta är att ge sig in i ett intellektuellt getingbo, men låt mig ändå försöka kasta fram en kritisk tanke om Hawkings domedagsscenario.

Det är slående hur hans resonemang helt fokuserar på förmågan att räkna ut lösningar på problem. Alltså en tämligen strikt matematisk infallsvinkel. Intelligens och medvetande diskuteras uteslutande i termer av algoritmer.

Men de intelligenser vi känner till, alltså människan, och till varierande grad vissa andra djurarter, har alla frambringats genom biologisk evolution. Det är ett enkelt faktum vars betydelse gärna underskattas. Intelligens har uppkommit som ett av många resultat av miljarder år av evolutionär kamp för existensen. Detta är, vill jag påstå, av avgörande betydelse för hur man ska förstå intelligens och självmedvetande.

I Gunthers artikel citeras Olle Häggström, professor i matematisk statistik vid Chalmers i Göteborg:

– Maskinen varken älskar dig eller hatar dig. Men du är uppbyggd av atomer som den kan ha annan användning för. Och dessutom av en samling atomer som har benägenhet att göra motstånd.

Den springande punkten här är orden "kan ha en annan användning för". Jag ställer mig frågan: Vem, eller vad, bestämmer denna användning, detta syfte? För en maskin är det alltid maskinens design som avgör vad den "strävar" efter. Det är konstruktören, det vill säga, vi människor, som avgör det. Det finns inga maskiner som själva kan formulera syften, önskemål eller värderingar. Det finns, mig veterligen, inte ens ansatser inom AI till hur en sådan maskin skulle se ut.

Många skulle svara: Men det är väl självklart vad en intelligent maskin skulle ha för mål? En självmedveten maskin vill ju hålla sig själv vid liv, föröka sig och ta över, om den bara kunde!

Men detta, hävdar jag, är ett felslut. Det är inte alls självklart att en självmedveten maskin skulle vilja det.

Vi tycker det vore självklart därför att vi, som biologiska organismer, genetiskt präglade av ca 3,6 miljarder års evolution, är så hårt programmerade att se överlevande och förökning som självklart goda saker. Om vi kunde spåra alla våra släktingar i rakt nedstigande led till de första cellerna, så skulle vi se att det som förenar samtliga anfäder och anmödrar var önskan och förmågan att fortplanta sig. Av de organismer som tappade lust eller förmåga att fortplanta sig, så har ingen avkomma överlevt. Trivialt, men samtidigt fundamentalt!

Evolutionens mekanismer fungerar alltså så att den organism som sammantaget har största drivkraften och förmågan att föröka sig och ta över så mycket som möjligt av sin miljö, är den som i det långa loppet har bäst chans att överleva. Följden är att vi har livsdriften bokstavligt talat kodad i våra gener. Endast de organismer som har generna för denna obändiga vilja till liv och expansion är de som faktiskt överlever. Alla andra försvinner.

Inget av detta gäller AI-maskiner. De har aldrig utsatts för evolution på så sätt att en maskin som, på något rudimentärt sätt, uppvisat en förmåga att motstå att bli avstängd har gynnats genom att man tillverkat flera sådana maskiner. En dator som inte stänger av sig på kommando rycker vi ut sladden på. Vi tillverkar inte fler av dom. Viljan till liv finns alltså inte alls hos maskiner.

Men skulle inte en självmedveten maskin kunna begripa detta sammanhang, och därför kunna inse att den ska försöka överleva? Det är just det som är Terminator-filmernas premiss: När Skynet blivit medvetet om sin egen existens, och att människorna försöker stänga ner den, så kommer det till insikt att det måste försvara sig självt genom att bekämpa människorna.

Men detta är ett bio-centriskt felslut, menar jag. Exakt vad är det som säger att en maskin som blivit självmedveten vill fortsätta att vara det? Vi tror att det är självklart därför att vi, som evolutionära varelser, har det inpräntat i oss att det måste vara självklart. Men det är det inte alls.

Vad är meningen med att leva? Det är en typiskt mänsklig fråga. Inga lägre stående varelser tycks anfäktas av de existentiella frågorna, de kämpar på så länge de kan. I de anekdotiska fall med till exempel hundar som tappar livslusten efter att deras ägare dött, så ser vi detta gärna som ett tecken på intelligens, kanske också som en slags självmedvetenhet. Kanske är förmågan att ställa de existentiella frågorna ett kriterium på självmedvetenhet? Och omvänt, måste inte varje självmedveten varelse någon gång ställa sig de frågorna?

Rent objektivt finns det ju ingen mening med att leva. Allt vi känner till kommer att utplånas någon gång. Solen kommer att slockna. Enligt den kunskap vi har idag kommer universum att expandera i oändligheten, och alla stjärnor dö. Det bästa vi kan hoppas på är något slags omvänd Big Bang, men då kommer alla tidigare spår av vår existens att utplånas, så det vore inte till någon räddning.

Om nu maskinerna kommer att uppnå självmedvetande och hyperintelligens, exakt vad är det som säger att inte även de skulle komma till denna insikt om existensens inneboende meningslöshet? Och varför skulle de i så fall försöka föröka sig och ha ihjäl människan? Det spelar ju i slutändan ändå ingen roll?

Låt mig påminna om roboten Marvin i Douglas Adams The Hitchhiker's Guide to the Galaxy, som är 50.000 gånger intelligentare än människan. Och som är kliniskt svårt deprimerad. Tanken att även hyperintelligenta varelser kan vara sårbara för existentiella funderingar är alltså inte helt ny.

Den dagen människan ger maskinerna medvetandets gåva, då ger vi dom också den existentiella ångestens förbannelse.