Kim Michelsen’s Weblog

Et spadestik dybere – afmystificer myterne

Kunstig intelligens, bevidsthed eller simuleret intelligens

with 2 comments

Jeg var i går aftes involveret i en diskussion omkring kunstig intelligensingeniørens debat. Der er meget faste meninger på området og meget få har sat sig ind i emnet eller forsøgt at gennemtænke problemstillingen, hvilket giver en række skud fra hoften, der sjældent bidrager med noget nyt.

I første del giver jeg en oversigt over kilder til forståelse af menneskets bevidsthed og om computerens begrænsninger, derefter kommenterer jeg nogle af de vigtigste punkter.

Kilder

For at kunne forstå problemstillingen er man nødt til at have noget basal viden om emnet og der er to områder, der er nødvendige for den dybe forståelse: Menneskelig bevidsthed og computerens begrænsninger.

Den ene er en forståelse af, hvordan den menneskelige hjerne tænker og opbygger det billede vi ser, når vi ser på verden. Teoretisk, kan man læse om det i Erich Harth’s bog “The Creative Loop, How the Brain Makes a Mind” der virkelig er læseværdig og nu er blevet en klassiker; rent praktisk kan man observere hvordan ens eget syn fungerer og opbygger det billede vi ser. Det nærmeste computeren kommer på dette, er det billede den viser på skærmen, men den har ikke noget tilbageløb fra skærmen på samme måde som mennesket har fra sin ‘lystavle’. En sammenfatning af forskningen indtil da og videreudbygning findes i bogen: Stairways to the Mind by Alwyn Scott.

En psykologisk behandling af bevidstheden findes i “Psykologiens videnskabsteoriaf Gerd Christensen, men niveauet er ikke så dybt som Alwyn Scotts og Erich Harths.

Den anden er computerens fysiske begrænsninger som Gödel opsætter i sit ufuldstændighedsteorem (BBC programmet ‘Dangerous Knowledge (part 9/9)’:

Den teoretiske fysiker Roger Penrose skriver i “The Large, the Small and the Human Mind” om emnet, med eksempler på computerens begrænsninger og idéer til forståelse af bevidstheden. Roger Penrose berører også lige begrebet i dette Hard Talk interview omkring det cykliske univers:

I Ingeniøren kom Jens Kolberg med følgende referencer:

  • “Hjernen i computeren – Computeren i hjernen Af Benny Lautrup og Lars Kai Hansen”.
    En ganske god populær gennemgang, med nogle lidt uvidenskabelige konklusioner til sidst.
  • “Penrose om Bevidsthed Af Benny Lautrup”
    Tre Meget læseværdige artikler i information efter et foredrag holdt på Niels Bohr instituttet. Det der gør Penroses arbejde så revolutionerende er at vi endelig forlader det Newtonsk mekanistiske verdensbillede på det mentale område.
  • “Om Gödel’s sætning” af Thomas Bolander og Helge Elbrønd Jensen. En afhandling.

Turing-test

Der tales en del om Turing-testen (Alan Turing), der er meget benyttet i Science Fiction, som man påstår skulle kunne bevise om en computer er intelligent eller bevidst. I WikiPedia er Turing-testen defineret som:

Turing-test er en måde til at afgøre, om en maskine udviser intelligens på menneskeligt niveau, uden at man på samme tid er nødt til at definere, hvad (menneskelig) intelligens så reelt er for en størrelse. Det er således ikke en måde til at afgøre, om en maskine reelt er intelligent.

Fordi man kan simulere bevidsthed så godt at man kan snyde et menneske i en given kontekst, så gør det jo ikke computeren mere bevidst af den årsag.
Med en matematisk funderet maskine, som en computer er, bør man kunne fremlægge en velfunderet matematisk teori for computerbevidshed med bevisførelse for dens rigtighed. Jeg kan faktisk ikke forestille mig at man kan programmere en bevidst computer uden en konkret teori.

Gödels teorem

Gödels teorem fortæller at ikke alle virkelighedens sider kan beskrives matematisk, men da computeren er en matematisk begrænset maskine vil den ikke kunne håndtere disse ikke beskrivbare sider af virkeligheden, i modsætning til mennesket, der ikke har den begrænsning.
Hvis nu at den menneskelige hjerne benytter principper fra kvantemekanikken til at komme ud over begrænsningen, så kan man ikke bare overføre vores bevidsthed til en von Neuman maskine (en computer som vi kender den i dag).

I den engelske WikiPedia står:

The incompleteness theorems also imply that not all mathematical questions are computable.

Erich Harth:

The brain presents two seemingly irreconcilable aspects: It is a material body, exhibiting all the physical properties of matter, and it possesses a set of faculties and attributes, collectively called mind, that are not found in any other physical system.

Windows on the Mind, 1982

Ada Lovelace, Lord Byrons datter, formulerede hvad der i dag kendes som Lady Lovelace’s Objection:

The Analytical Engine has no pretensions to originate anything. It can do whatever we know how to order it to perform.
Med andre ord kan maskiner kun udføre det de er programmeret til.

Computer bevidsthed

Det er mig fuldstændig uforståeligt at man stadig kan snakke om bevidste computere, ikke alene lever computeren efter Gödels teorem, men enhver edb-mand med kendskab til hvordan en CPU virker kan tænke sig til at en computerbevidsthed ikke er mulig. Det nærmeste en computer når bevidsthed er skærmbilledet (a la Erich Harth beskrivelse af ‘lystavlen’), det eneste sted hvor data ses i sammenhæng, men det er kun forståeligt for et menneske, ikke for computeren selv.

Når man som menneske ser ud i verden, så bliver det man ser bogstavelig talt sendt ind på en lystavle, jvnf. Harth’s bog. Denne lystavle får frontallapperne billedet fra og de sender modifikationer tilbage til lystavlen, så vi får det billede vi ‘ser’ uden blinde spots mm. Vi ser alle bit’sne i billedet på én gang og tilmed med en hjerne med begrænset hastighed. Selvfølgelig involverer det parallelprogrammering i meget stort omfang, men det der er interessant er at billedet kan opfattes i vores hjerne på én gang og det løser parallelprogrammeringen ikke.

Hvis man nu tager et billede af den virkelighed vi ser og fodrer det ind i en computer og får vist det på skærmen, så vil vi aldrig kunne få en von Neuman computer til at se på mere end én bit af billedets informationsmængde ad gangen, dvs. når der indgår mange farvebits pr. pixel, vil den ikke en gang kunne have én pixels fulde informationsværdi i sin 1-bits lystavle på én gang.

Med en 32 bit CPU ser computeren 32 enkeltbit hver for sig og med 4 CPU’er er det 4 gange så mange enkeltbit, men på intet tidspunkt ses en helhed. I stedet for at tale om cpu’ens begrænsning kan vi tage turingmaskinen (teoretisk maskine, brugt i bevisførelse), der jo specifikt kun har 1 bit at arbejde på ad gangen. Alle operationer er diskrete operationer og øget beregningshastighed ændrer ikke ved den kendsgerning.

Mange tror at man på et tidspunkt kan lave nogle algoritmer der kan give computeren bevidsthed, men det er ikke et programmeringsmæssigt problem, det er en banal hardware begrænsning og ingen nok så fancy programmering kan løse det problem.

Det interessante er faktisk at hvis jeg siger til en udvikler at han skal lave det eller det, så varer det ikke mange sekunder inden han har en idé om hvordan det skal laves, men hvis man spørger ham om lige at lave en bevidst maskine, ja så er det noget nogen nok finder ud af en gang i fremtiden. Det burde vække til eftertanke!

Fremtidsudsigten

Jeg har fulgt rimelig godt med i AI siden jeg legede med det på universitetet og jeg har af og til kunnet benytte nogle af resultaterne, fx sprogforståelse og spilteori. Alle disse redskaber giver nogle fantastiske muligheder, men det ændrer ikke ved at computeren stadig er en von Neuman maskine, hvis bevidsthed kan være i en bit og at det ikke kan løses med nogen algoritme, hvor sofistikeret man end laver den.

Det der med at vi nok en gang kan lave et program, der kan noget revolutionerende er ikke særlig sandsynligt. Ind til firserne var der en utrolig hastighed på softwarefronten, men siden hen er udviklingen gået uendelig langsomt, det meste er en kogen suppe på gamle algoritmer, med forbedringer i promilleklassen. Vores mest ‘intelligente’ operativsystem er Linux, der bare er en shinet up version af den gamle unix version 7 jeg voksede op med.
Relationsdatabasen gav et kraftigt skub i databehandlingen; men derefter er der ikke kommet noget egentlig epokegørende på databaseområdet.
Teknisk set er internettet også en gammel dreng, der er intet væsentligt nyt der, kun at der nu er mange der bruger det.
Objekterne og komponentbegrebet hævede abstraktionsniveauet, men det løste ikke opgaver der ellers havde været umulige.
Fra starten af firserne blev der forsket meget i parallelprogrammering, men det er der egentlig ikke kommet så meget ud af. Lang tid før det, startede man på kunstig intelligens, og det er der kommet mange gode værktøjer ud af, men i de sidste 25 år er der stort set kun sket forbedringer i allerede eksisterende algoritmer og de kan måles i promille.

Ingen af disse værktøjer bringer computeren i nærheden af noget, der kan kaldes intelligens, højst simuleret intelligens. Det er intelligens når et menneske ser på et kort og lynhurtigt finder den omtrent hurtigste vej. Maskinen skal hive værktøjet Operationsanalyse (OR) frem og beregne den omtrendt hurtigste vej, på en langt mere omstændelig måde, der ikke på nogen måde minder om bevidsthed og intelligens.

Det at hardwaren er blevet så meget hurtigere gør at mange af AI’s beregningsintensive metoder, lige pludselig kan benyttes. Det er interessant at mennesker kan ‘beregne’ væsentlig vanskeligere problemer ved en meget lavere clockfrekvens. Det computeren er bedst til er faktisk det mennesket er dårligst til: Regning, hukommelse og bearbejdning af store datamængder og det benyttes i vidt omfang inden for AI.

Den største udvikling er sket på hardware siden, hvor den øgede hastighed og regnekraft fået gennem flere transistorer pr. sqr (og cubic) inch, har gjort det muligt at løse flere komplekse problemstillinger, der ikke var praktisk at løse før i tiden på grund af de langsommere maskiner. Den trådløse datakommunikation har åbnet op for nye anvendelser, men egentlig revolutionært kan det ikke påstås at være.

For at kunne komme videre må vi have et helt nyt paradigme og her ser jeg kun kvantekomputeren som en potentiel mulighed, med dens entanglement  til at komme ud over turingmaskinens 1-bit begrænsning.

Se foriøvrigt Turings stoppeproblem.

Written by Kim Michelsen

7 oktober 2008 hos 15:58

2 kommentarer

Subscribe to comments with RSS.

  1. “Gödels teorem fortæller at ikke alle virkelighedens sider kan beskrives matematisk, men da computeren er en matematisk begrænset maskine vil den ikke kunne håndtere disse ikke beskrivbare sider af virkeligheden, i modsætning til mennesket, der ikke har den begrænsning.”

    Øh bøh hva’?!?

    Hvor ved du fra at mennesker ikke har den begrænsning?😉

    “Vores mest ‘intelligente’ operativsystem er Linux, der bare er en shinet up version af den gamle unix version 7”

    Og Ariane 5 er blot en forfinet nytårsraket.

    “men derefter er der ikke kommet noget egentlig epokegørende på databaseområdet.”

    Er der ikke? Jeg synes fx det er ret fedt at man har opdaget at det kan lade sig gøre at søge i komprimeret tekst uden at pakke det ud først. Jeg synes også at shift-and approksimativ søgning er ret cool. Og alt det vi har fundet ud af at gøre med rå tekst og beskidte data. Og at vi er blevet helt ferme til at håndtere databaser der IKKE har et helt konsistent billede over for alle brugere på en gang og som kan leve med en smule snavsede data (se Michael Stonebrakers nyere artikler).

    “Fra starten af firserne blev der forsket meget i parallelprogrammering, men det er der egentlig ikke kommet så meget ud af.”

    Længere, sådan set. Men vi har lært noget. Erlang viser hvordan man kan styre rigtigt mange processer ad gangen. (Software) transactional memory har vist sig at være meget nemmere at arbejde med end traditionelle låse — og der er hardware support på vej. Faktisk har Suns nyeste Niagara 2 chip hardware support. Google har også vist hvor langt man kan komme med map/reduce paradigmet (google efter sawzall).

    “Lang tid før det, startede man på kunstig intelligens, og det er der kommet mange gode værktøjer ud af, men i de sidste 25 år er der stort set kun sket forbedringer i allerede eksisterende algoritmer og de kan måles i promille.”

    Er det nu rigtigt? Man er kommet meget langt med SAT solvers og med modelcheckere, for eksempel. Rigtigt, rigtigt langt! Man har også bedre sproganalyseværktøjer der i højere grad bruger statistik og store korpora. Google er gode til det men de er ikke de eneste. Man er også kommet langt med robotter der klarer sig i den virkelige verden (Roomba og bilerne i DARPAs konkurrencer). Rodney Brooks’ artikler og hans subsumption architecture ændrede AI-forskningen totalt.

    “her ser jeg kun kvantekomputeren som en potentiel mulighed, med dens entanglement til at komme ud over turingmaskinens 1-bit begrænsning.”

    Betyder at mængden af beregnelige funktioner så kan blive udvidet eller er der “kun” tale om ændrede kompleksitetsklasser? Så vidt jeg ved er det kun det sidste…

    Peter Lund

    5 marts 2009 at 20:33

  2. Selve beviset er lavet af et menneske, det kan computeren ikke.

    Alt hvad du nævner er forbedringer af eksisterende teknologi, nogle er større end andre, men egentlig ikke noget man kan kalde reel nytænkning. Mange idéer er blevet mulige at gennemføre pga. af bedre og billigere hardware, men idéen eksisterede allerede.

    Inden for matematik arbejder du med forskellige klasser af uendeligheder, og kvantekomputeren svarer til et skift op i en større uendelighed.

    Med entanglement sker der det at et antal bits er del af én operation i modsætning til vores nuværende cpu’er, der allesammen er 1’bits Turingmaskiner. Lad os tage et tænkt eksempel: Da menneskekroppen starter som en enkel celle, så kunne man forestille sig at cellerne indeholder entanglement på tværs af hjernens celler, således at der kan dannes store sammenhængende bevidsthedsbilleder. Det samme kunne tænkes i kvantekomputere, dvs. et billede kun være et entangled net, hvor et billede i dag højst har 1 bits bevidshed.

    Det jeg savner er en matematisk-datalogisk model af en bevidst komputer og det at man endnu ikke har lavet det, men kun snakker om Turing Test’s er et godt tegn på at opgaven ikke kan lade sig gøre med den nuværende teknologi.

    Kim Michelsen

    5 marts 2009 at 21:39


Skriv et svar

Udfyld dine oplysninger nedenfor eller klik på et ikon for at logge ind:

WordPress.com Logo

Du kommenterer med din WordPress.com konto. Log Out / Skift )

Twitter picture

Du kommenterer med din Twitter konto. Log Out / Skift )

Facebook photo

Du kommenterer med din Facebook konto. Log Out / Skift )

Google+ photo

Du kommenterer med din Google+ konto. Log Out / Skift )

Connecting to %s

%d bloggers like this: