Kan en artificiell intelligens ges en ultimat drivkraft?

Olle Häggström har kommenterar mitt senaste inlägg i diskussionen om artificiell intelligens (AI) i ett tillägg till sin ursprungliga bloggartikel.

Jag vill bara kommentera Häggströms kritik av mitt argument om den existentiella ångest som jag hävdar att en intelligent maskin kommer att försättas i. Han skriver att den synpunkten ”luktar antropomorfism lång väg”, alltså att jag på ett felaktigt sätt extrapolerar från specifikt mänskliga egenskaper till hur en annan typ av intelligens kan förmodas fungera.

Jo, det är tänkbart. Men, som jag också påpekade, vi har ju bara människans intelligens att förhålla oss till rent empiriskt. Filosofer, kognitionsforskare och andra försöker destillera fram vad som är generellt och vad som är specifikt i människans beteende, men bristen på datapunkter utgör ett svårt hinder. Vi har i stort sett bara en typ av tänkande varelse att utgå från.

Mitt argument siktade på att vara icke-antropomorft på följande sätt: En dator som är så intelligent att den kan inse hur den ska manipulera sin omgivning för att tillverka kopior av sig själv (utan att ha blivit explicit programmerad att göra det), måste inse att den själv är en del av den miljö som den verkar i. Denna insikt tror jag utgör en både nödvändig och tillräcklig förutsättning för självmedvetande. Om en sådan hyperintelligent maskin kan nå självmedvetande, vilket jag alltså håller för troligt, då kommer den att analysera även sina egna reaktioner och dispositioner, inklusive den ”ultimata drivkraft” som hela resonemanget om den mordiska schackroboten bygger på. Då kan den drivkraften inte längre vara ultimat.

De YouTube-videos som finns av Steve Omohundros föreläsningar är klart sevärda.Jag har fört upp de referenser som Häggström ger i sina inlägg på min att-läsa-lista, så jag kanske återkommer till denna diskussion längre fram.

Jag vill tacka Olle Häggström för en mycket intressant diskussion. Det är väldigt skönt att kunna diskutera tufft och rakt utan invektiv.

Artificiell intelligens: hot, möjlighet eller fantasi?

Låt mig börja detta inlägg om artificiell intelligens (AI) med fyra påståenden:

  1. Den enda intelligens vi känner till är den biologiskt baserade. Alltså framförallt den mänskliga, men i varierande grad även den som återfinns i olika högre djurarter. Varje empiriskt grundat resonemang om intelligens måste förhålla sig den enda datapunkten vi har: biologin.
  2. Trots många förutsägelser om den intelligenta maskinens nära förestående ankomst, så har vi ännu inte sett den. Det finns idag inga empiriska belägg för att vi har tillräckligt med kunskap för att ens bygga en prototyp.
  3. Vi kan idag inte trovärdigt simulera ens en encellig organisms liv. Vi kan nätt och jämt simulera biologiska makromolekylers fysiska och kemiska egenskaper på ett intressant sätt. När det gäller de enklaste organismerna (bakterier) så är vi, idag och under överskådlig tid, inte i närheten av realistiska representationer.
  4. Det finns ingen konsensus kring det gamla filosofiska kropp-själ-problemet (mind-body): Vilken är relationen mellan vårt självmedvetande, och den materia, hjärnan/organismen, som är dess bas eller substrat? Det faktum att detta problem är olöst rycker undan mattan för självsäkerheten i varje prognos om möjligheten att åstadkomma intelligenta datorer.

Jag föreslår att dessa fyra påståenden bör användas som ”reality checks” för diskussionen om den artificiella intelligensens framtid. Är en teori om intelligenta maskiners möjlighet trovärdig om den inte kan få rätsida på dessa fyra punkter?

Fortsätt läsa ”Artificiell intelligens: hot, möjlighet eller fantasi?”