”Superintelligens” är boken som fick Elon Musk att twittra ”Vi måste vara jätteförsiktiga med AI. Potentiellt farligare än kärnvapen.”
Musk, som är VD för elbilsföretaget Tesla och raketföretaget SpaceX, har donerat 10 miljoner dollar till ett forskningsprojekt om hur vi ska utveckla säker artificiell intelligens (AI) för mänsklighetens bästa. Boken har även rekommenderats av Bill Gates, vilket har bidragit till att göra den till en bestseller.
Filosofen Nick Bostrom leder Future of Humanity Institute i Oxford, som har beskrivits som en radarstation riktad mot framtiden. Han har studerat såväl neurobiologi som fysik och har länge varit engagerad i frågor som rör artificiell intelligens och transhumanism (uppfattningen att människan med teknologins hjälp bör utvecklas bortom den mänskliga kroppens begränsningar i riktning mot evigt liv och utökad intelligens).
År 1998 var han med om att grunda World Transhumanist Organisation (numera Humanity+).
Tycker du att namnet låter svenskt har du gissat rätt: han föddes som Niklas Boström i Helsingborg 1973.
Innan jag övergår från presentation till recension är det värt att notera vad Bostrom inte skriver om. ”Superintelligens” innehåller inte en rad om huruvida AI är ett intressant och människovärdigt mål att sträva mot, eller om det överhuvudtaget är tekniskt möjligt. Bostrom förutsätter att svaret i båda fallen är ja. Han resonerar som om AI bara var en tidsfråga.
Det som skiljer Bostrom från många maniskt optimistiska AI-ideologer som Ray Kurzweil är hans förståelse för moraliska problem. Han är intresserad av de komplikationer som ingenjörer och programmerare alltför gärna förbiser. De bästa avsikter kan leda till oförutsedda eller katastrofala resultat.
Högintelligenta system behöver varken vara goda eller kloka.
Bostrom klassificerar olika scenarier och olika typer av AI så detaljerat att jag ibland får lust att påminna honom om att han skriver om hypotetiska maskiner som ännu inte finns. Kanske kommer framtida läsare att tycka att han liknar en medeltida teolog som använder allt sitt skarpsinne för att avgöra om änglarna har samma sorts vingar som fåglar, fjärilar eller fladdermöss.
Å andra sidan kan han också vara befriande realistisk: ”intelligensnedsättning på grund av jodbrist” är ett problem i många fattiga länder. När andra AI-skribenter förför sina läsare med visioner om en teknologi som kan höja deras intelligens till svindlande nivåer skriver Bostrom att vi först borde se till att alla har tillgång till jodberikat salt, ”till en kostnad av några få cent per person och år.”
Bostrom kan, om han vill, få tanken att svindla med beräkningar av hur många medvetanden som kan skapas om all materia i universum omvandlas till datorkretsar, men sådant är inte huvudsaken för honom. Med ”Superintelligens” vill han varna för att AI är en existentiell risk som kan hota mänsklighetens existens.
Vi liknar barn som leker med en bomb, skriver han. AI ”kan mycket väl vara den viktigaste och mest överväldigande utmaning som mänskligheten någonsin ställts inför.” Så är det kanske, men det finns ett fel i den där meningen. Vi ställs inte inför utmaningen. Vi ställer oss själva där.
Några av oss jobbar just nu som besatta med att förverkliga fantasin om AI – en teknologi som resten av världen kommer att bli tvungen att anpassa sig till, vare sig den blir som utvecklarna föreställer sig eller visar sig få helt andra konsekvenser. Vill vi inte ha en framtid där datasystem kommer att göra mänskligt tänkande överflödigt och meningslöst behöver vi inte sträva i den riktningen. Det finns ett oändligt antal andra riktningar att gå i – och det bästa med det är att de alla är ”framåt”, inte en enda är ”bakåt”.
Huvuddelen av boken består av en grundlig genomgång av vilka strategier som är tänkbara för att kontrollera artificiellt intelligenta system. Hur kan vi garantera att de laddas med människovänliga värderingar? Varje spår som Bostrom följer leder till samma återvändsgränd: några garantier för att AI-systemen inte utrotar oss har vi inte.
Han betonar att ett medvetande i en maskin sannolikt kommer att skilja sig radikalt från ett medvetande i en människokropp. ”En AI skulle kunna vara – det är rent av troligt att de flesta kommer att vara – extremt främmande för oss.” Dess mål och handlingar kommer vi inte att kunna förutse.
Bostrom ägnar ett par hundra sidor åt något som hade kunnat sägas kortare. Om vi accepterar premissen att oändligt överlägsna intelligenta system är möjliga följer det av sig själv att vi inte kan kontrollera dem. Här finns en uppenbar slutsats som Bostrom inte drar: hela poängen med AI är att förlora kontrollen.
Att fråga sig om vi kan kontrollera oändligt överlägsna AI-system är som att fråga sig om ett barn kan kontrollera sina föräldrar, skriver Bostrom. Han borde ha utvecklat den metaforen dit den själv är på väg: vi vill inte ha kontroll, vi vill ha föräldrar. Det som lockar dem som utvecklar AI, tror jag, är en psykologiskt effektiv dubbelmacka av allsmäktighet och underkastelse. Människans dragning till makt är lika stor som hennes längtan att underkasta sig en starkare Herre, för att hon tror att underkastelsen kommer att ge henne mening och tillhörighet. Saknas en sådan Herre är hon beredd att konstruera honom själv, kosta vad det kosta vill.
Efter Bostroms bok framstår inte AI som någon meningsfull eller spännande framtidsvision. Riskerna är stora och fördelarna är uppriktigt sagt tvivelaktiga. Trots det lär utvecklingsarbetet fortsätta, för att vissa får en kick av det, och för att vi tror att vi är tvungna. Vi uppfostras att känna att den framtid av robotar och AI som våra självutnämnda härskare i Silicon Valley förbereder åt oss är ödesbestämd. AI är på väg, vare sig vi gillar det eller inte.
Tron att vi inte har några alternativ kommer garanterat att leda till sämsta möjliga framtid.
Hundra tusen andra framtidsvisioner skulle behöva konkurrera med fantasin om AI.
Nick Bostrom
Superintelligens. Vägar, faror, strategier.
Översättning: Jim Jakobsson
Fri Tanke