Artificiell intelligens: hot, möjlighet eller fantasi?

Låt mig börja detta inlägg om artificiell intelligens (AI) med fyra påståenden:

  1. Den enda intelligens vi känner till är den biologiskt baserade. Alltså framförallt den mänskliga, men i varierande grad även den som återfinns i olika högre djurarter. Varje empiriskt grundat resonemang om intelligens måste förhålla sig den enda datapunkten vi har: biologin.
  2. Trots många förutsägelser om den intelligenta maskinens nära förestående ankomst, så har vi ännu inte sett den. Det finns idag inga empiriska belägg för att vi har tillräckligt med kunskap för att ens bygga en prototyp.
  3. Vi kan idag inte trovärdigt simulera ens en encellig organisms liv. Vi kan nätt och jämt simulera biologiska makromolekylers fysiska och kemiska egenskaper på ett intressant sätt. När det gäller de enklaste organismerna (bakterier) så är vi, idag och under överskådlig tid, inte i närheten av realistiska representationer.
  4. Det finns ingen konsensus kring det gamla filosofiska kropp-själ-problemet (mind-body): Vilken är relationen mellan vårt självmedvetande, och den materia, hjärnan/organismen, som är dess bas eller substrat? Det faktum att detta problem är olöst rycker undan mattan för självsäkerheten i varje prognos om möjligheten att åstadkomma intelligenta datorer.

Jag föreslår att dessa fyra påståenden bör användas som ”reality checks” för diskussionen om den artificiella intelligensens framtid. Är en teori om intelligenta maskiners möjlighet trovärdig om den inte kan få rätsida på dessa fyra punkter?

I mitt förra inlägg om risken för att datorerna skulle kunna ta över, så apostroferade jag Olle Häggström, professor i matematisk statistik vid Chalmers i Göteborg. Han svarade i ett inlägg på sin blogg. Min något försenade kommentar följer här.

Häggström har rätt i att jag inte har vidare djup kunskap om hur diskussionen om AI har gått de senaste årtiondena. De diskussioner om AI och evolution som han refererar till har jag inte läst. Därför var det möjligen litet förhastat av mig att skriva så synbarligen självsäkert som jag gjorde. Till min ursäkt kan anföras att mitt syfte var att just provocera en respons, så jag är glad att Häggström tog det på allvar och skrev ett mycket intressant svar.

En annan ursäkt är att i de referat (inklusive Maria Gunthers i Dagens Nyheter) som jag utgick från, så fanns inga resonemang om evolution. Jag skyller inte på Gunther. Snarare vill jag med det antyda att i den argumentation om AI som jag sett så tycks inte evolutionen tas på vidare stort allvar. Mitt intryck är att den snarare används enbart för att stödja teser som man redan har bestämt sig för av andra, matematiskt-logiska, skäl. Men detta kan vara ett helt felaktigt intryck.

Min reaktion berodde också på att man vid min ålder börjar få litet perspektiv på en del saker. Jag kommer ihåg en del av vad som sades kring 1980 om de oerhörda framstegen inom AI, och är därför i den positionen att jag kan reagera med ”hört det förr, men aldrig sett det”. När yngre forskare entusiastiskt förutsäger fantastiska genombrott, så aktiveras den skeptiska delen av mitt intellektuella immunförsvar.

Och det gäller för övrigt inte bara AI. Jag har genomlevt en period när molekylärbiologin ansågs kunna åstadkomma det slutgiltiga botemedlet mot cancer, och kan numera konstatera:

  • att en del modesta steg på den vägen har tagits.
  • att de största stegen i själva verket har tagits av den i kliniken aktiva sjukvårdpersonalen som lärt sig använda de gamla hederliga cellgifterna på ett mycket bättre sätt.
  • att det fortfarande finns unga professorer som på fullt allvar påstår sig ha hittat den nya biverkningsfria medicinen mot cancer. Man ska bara forska vidare i ca 5 år (vilket är kod för: vi har ingen aning när det kan funka).

Därav min skepsis, som kanske med visst fog kan betecknas som surt gubbig…

Häggström anför tre olika argument varför det genombrott inom AI som kallas singulariteten faktiskt är en påtaglig möjlighet:

  1. Evolutionära algoritmer, som utvecklas inom AI, och som tar sin inspiration av den biologiska evolutionen, skulle kunna leda till att drivkraften att överleva, föröka sig och ta över, blir en helt integral del av datorns funktion.

    Men är det inte väldigt mycket torrsim över detta scenario? Det hela beror på exakt hur vi människor programmerar ”miljön”, ”nichen” som den simulerade evolutionen sker inom. Om ett datorsystems överlevnad faktiskt berodde på hur det betedde sig, så kanske en sådan inbyggd drift skulle kunna utvecklas. Men det skulle ta extremt lång tid. Om man jämför volymen hos den biologiska evolutionens substrat (antal organismer, mängden biomassa, tidsrymden) så framstår varje försök att simulera det som hopplöst futtigt. Vilken faktor i storleksskillnad kan det handla om: 109, 1015? Vet inte, men det kanske man borde räkna på.

  2. Det kan finnas AI-utvecklare som fullt medvetet försöker bygga in överlevnadsvilja i ett system, av illvilja eller annan anledning. Visst, men jag ser inte riktigt att detta har bäring på min kritik av möjligheten att göra det. Möjligheten att uppnå singulariteten, alltså den kritiska punkt när datorerna når den grad av intelligens där de kan börja utveckla sig själva, beror inte på deras skapares inställning. Antingen så går det, eller inte. Om det är möjligt, så blir det självklart en fråga ifall det bör göras, men det är en, filosofiskt sett, sekundär fråga.
  3. Steve Omohundro och andra har framfört hypotesen att en tillräckligt intelligent maskin som ålagts en till synes ofarlig uppgift ändå, genom situationens inneboende logik, kommer att ha en tendens till att uppföra sig totalt imperialistiskt. Typexemplet är en dator som har fått uppgiften att spela så många bra omgångar schack som möjligt. Om den blir så intelligent att den kan börja manipulera sin omgivning, så kommer den att vilja tillverka fler kopior av sig själv, som då kan spela mer schack. Om den inser att den kan använda den materia som ett antal människor för tillfället består av för att bygga fler kopior av sig själv, så blir den, utan avsikt, och utan dess skapares avsikt, en mördarmaskin.

    Detta resonemang är onekligen bestickande. Till sin struktur påminner det mig om det malthusianska resonemanget om svältens nödvändighet. Den underliggande idén handlar om den obönhörliga exponentialen. Men vi ser idag att ett icke-malthusianskt globalt samhälle är möjligt när vi är på väg mot ”peak population”. Så även till synes obevekliga exponentialer kan sättas ur spel.

    Så vad är då den svaga punkten hos idén om schackdatorns framfart? Som jag antydde i mitt förra inlägg kan det handla om självmedvetandet. Om en dator blir så allmänintelligent att den inser att den kan transformera sin omgivning på det nämnda sättet, då är jag övertygad om att den samtidigt måste vara så intelligent att den kan börjar ägna sig åt introspektion. För det är ju så att varje organism utgör en del av den egna miljön. Detta måste denna intelligenta dator inse. Eftersom den vill använda sin miljö för att uppnå ett givet mål, måste den därför också analysera sig själv. Därmed måste den också analysera sina egna mål, så att säga utifrån, som objekt.

    Om datorn blir medveten om sig själv som aktör, så kommer den då också att kunna analysera sina egna drivkrafter. Inte bara det, den måste analysera dom. Hur ska den kunna göra det utan att implicit också kritisera dom? Är det så självklart att den då inte också kan modifiera dessa mål? Det är visserligen inte därmed givet att den blir ”god”. Vad den blir vet vi helt enkelt inte.

Det finns självklar mycket mer att säga om detta ämne. En sak jag noterar är att när jag, naivt, skrev om datorer med självmedvetande, så tycks Häggström och andra undvika just detta begrepp. Man talar om intelligens och målstyrning, om rationalitet, men sällan om självmedvetande. Jag vet inte om det är signifikant. Men jag tror hur som helst att självmedvetande är en grundbult för intelligens som vi känner den.

Och med självmedvetande följer en potential till fundamentalt ifrågasättande, den existentiella ångesten som jag skrev i mitt förra inlägg, som jag tror vänder upp och ned på idén om en dator som samtidigt är extremintelligent men också helt styrd av ett enda otvetydigt imperativ. Den idén går helt enkelt inte ihop.

En reaktion på ”Artificiell intelligens: hot, möjlighet eller fantasi?

  1. Pingback: Kan en artificiell intelligens ges en ultimat drivkraft? | Civilisation

Kommentera

Fyll i dina uppgifter nedan eller klicka på en ikon för att logga in:

WordPress.com Logo

Du kommenterar med ditt WordPress.com-konto. Logga ut / Ändra )

Twitter-bild

Du kommenterar med ditt Twitter-konto. Logga ut / Ändra )

Facebook-foto

Du kommenterar med ditt Facebook-konto. Logga ut / Ändra )

Google+ photo

Du kommenterar med ditt Google+-konto. Logga ut / Ändra )

Ansluter till %s