Kim Michelsen’s Weblog

Et spadestik dybere – afmystificer myterne

Archive for the ‘IT’ Category

Turings stoppeproblem

with 2 comments

I Ingeniøren poppede Turingtesten op igen, men her med understregning af stoppeproblematikken, som Benny Lautrup beskriver i sin artikel i Politiken om Penroses foredrag på Niels Bohr instituttet:

I 1935 opstillede den engelske matematiker Alan Turing en helt generel model for computerberegning, som klargjorde præcist, hvad der menes med et program. I denne model fører Gödels bevis til, at der må findes størrelser, der ikke kan beregnes i en computer. Lidt populært sagt vil computeren løbe løbsk og aldrig stoppe og aflevere et resultat, når den forsøger at beregne sådanne ting. Eksistensbeviset går ligesom før ud på at danne en selvrefererende beregning. Turing antog ganske praktisk, at det var muligt at skrive et superprogram, der på forhånd kunne afgøre, om et vilkårligt program ikke ville stoppe. Superprogrammet skulle altså fodres med et program og først selv stoppe, når det havde fundet ud af, at det program, det var blevet fodret med, ikke stoppede. Men superprogrammet er selv et program. Ved groft sagt at fodre superprogrammet med sig selv, havde Turing konstrueret et program, som, hvis det stoppede, ville have regnet ud, at det ikke stoppede! Han sluttede heraf, at et generelt program, der løser den omtalte opgave, ikke kan skrives. Der findes opgaver, der ikke kan løses af en computer.

Yderligere henvisninger, video om Gödel teoremet og Turing, samt kommentarer til den anden Ing.dk debat, findes i “Kunstig intelligens, bevidsthed eller simuleret intelligens“.

Programmer computere har problemer med

I Penroses bog “The Large, the small, and the Human Mind” nævner han en række problemer som computere enten har svært ved eller overhovedet ikke kan løse, hvor mennesker ikke har nogen problemer. Jeg vil give et par eksempler fra hans bog. De to første er simple skakproblemer men som computere har meget svært ved, specifikt Deep Thought.


I den viste situation er hvids stilling meget svag i forhold til sorts, men hvid har en fordel i at have en barriere mod sort. Deep Thought begik her en kæmpebrøler, som hvid, da den tog det sorte tårn med bonden, hvorved forsvarsværket blev åbnet og sort vandt. Intet menneske ville begå den dumhed.

Samme sted har Penrose vist en endnu mere sofistikeret version.

Problemer der ikke kan løses af computer

En berømt sætning af attenhundredetals matematikeren Lagrange siger at ethvert tal kan udtrykkes som summen af fire kvadrater:

x = a*a + b*b + c*c + d*d

Problemet er nu for computeren at finde et tal der ikke er en sum af fire kvadrater.

Andre eksempler på opgaver der ikke kan beregnes er Polyomino-universer hvor polyominer skal lægges så de dækker en flade.

Spørgsmålet er her om du kan dække planen, uden huller, med de angivne polyominer. Reglerne er simple, faktisk banale, men selvom udviklingen er fuldstændig deterministisk er det ikke beregnbart (følger bevis af Robert Berger). På de efterfølgende sider i hans bog er der flere eksempler med disse Polyominouniverser.

Differentiering og Integration

Det er let at lave et program der kan differentiere kontinuerte funktioner på symbolsk form, der er simple regler hele vejen, men at lave et program der kan gå den modsatte vej, det er ikke let, da der ikke er simple regler for integration på samme måde som for differentiering. Computeren har ikke andet end heuristikker at sætte i stedet for menneskets intuition.

Yderligere

For en bredere og grundigere behandling af Kunstig Intelligens se “Kunstig intelligens, bevidsthed eller simuleret intelligens“, hvor der også er en BBC udsendelse omkring Bevidste computere med udgangspunkt i Gödels teorem.

Reklamer

Written by Kim Michelsen

14 oktober 2008 at 16:27

Lagt i Bevidsthed, IT

Tagged with ,

Computerspil gør ikke teenagere asociale, eller?

leave a comment »

Det er også en af de her uunderbyggede overskrifter der dukker op med jævne mellemrum og hvor det er en god idé at grave et spadestik dybere. Og hvis man læser artiklen og evt. rapporten, ja så betyder det faktisk at computerspil er skadelige for børn hvis man ikke sørger for at de spiller de rigtige spil.

Artiklen “Computerspil gør ikke teenagere asociale” er skrevet af Niels Ebdrup i http://www.videnskab.dk.

Forældre behøver ikke at være urolige for, om deres børn udvikler sig til asociale særlinge af at spille computer.

»Tre fjerdedele af teenagerne spiller faktisk med andre mennesker. Enten online eller sammen fysisk. Og teenagere, der dagligt spiller computer, taler lige så meget i telefon, e-mailer og bruger tiden efter skole sammen med en ven ansigt til ansigt, som dem der bruger mindre tid på spil,« siger seniorforsker Amanda Lenhart

Undersøgelsen involverer 1102 teengere i alderen 12-17 år. Den viser, at 99 procent af drengene og 94 procent af pigerne, uanset social baggrund, spiller computerspil.

Spillene, som engagerer teenagerne socialt, er både belærende spil som ‘Food Force’ og ‘Dafur is Dying’, såvel som populære, klassiske spil som ‘Civilzation’.

  • 52 procent af teenagerne spiller spil, hvor de skal tage stilling til moralske spørgsmål.
  • 47 procent spiller spil, hvor de tager stilling til, hvordan et samfund skal fungere.
  • 40 procent spiller spil, hvor de lærer om sociale forhold.

Men selvom computerspil kan være et positivt indslag i hverdagen, er ikke alle spil lige gode for unge at spille. Det er især de voldelige spil, som børnene bør undgå, mener Amanda Lenhart. Hun anbefaler derfor, at forældre involverer sig i, hvilke spil deres børn spiller.

»De spil som er vurderet til at være til store børn eller voksne indeholder generelt intens vold, blod og grumhed.« siger Amanda Lenhart.
»Vi siger til forældre, at de skal være opmærksomme på de spil, deres børn spiller. De skal holde øje med, hvad der foregår i spillene og forsøge købe deres børn spil, som giver mulighed for, at de gør sig samfundsmæssige erfaringer,« siger Amanda Lenhart.

Den originale artikel er her Computer games drive social ties

Hvis man ser i teksten er der ikke dækning for overskriften, selv om den forsøges drejet hen til at det er socialt lærerigt at spille computerspil.

De konstaterer »Tre fjerdedele af teenagerne spiller faktisk med andre mennesker.«, det er da glædeligt, men også forventeligt, men hvordan står det så til med de resterende? Indsat i en normalfordeling, er det et meget stort tal, hvorfor der burde være nogle kraftige ekstremer.

Det kunne være interessant at vide hvordan de ovennævnte procenter er fordelt:

Et gæt kunne være at det er den samme gruppe der bevæger sig inden for disse spil, mens Warcraft entusiaster bevæger sig i et andet segment.

Umiddelbart er der en række spørgsmål der melder sig:

  • Kan et og samme spil være klassificeret i mere end en gruppe?
  • Er der en vurdering af kvaliteten i disse spil?
  • En anden ting er, kan vi stole på de svar undersøgelsen bygger på? Børn er ikke dumme og er særdeles dygtige til at give de svar de ved de voksne er mest glade for, hvilket er en af årsagerne til at det kan være svært at være ‘opdrager’.
  • Findes der en videnskabelig undersøgelse der følger børn senere i livet?
  • Er der nogen forklaring på det relativt nye fænomen hvor unge mennesker dræber sine klassekammerater og lærere?

Undersøgelsen

Umiddelbart er der intet i “Summary of Findings at a Glance” der siger at teenagere ikke bliver asociale. Undersøgelsen giver nogle iagttagelser, som at voldsspil og lavindkomst hænger sammen, men der er ikke nogen egentlig bevisførelse for at computerspil ikke påvirker grupper af børn i negativ retning.

Amanda Lenharts rapport om computerspil og teenagere fra ‘Pew Internet & Amarican Life Project’ (på engelsk) (pdf)

Konklusion

Ud fra artiklen, der fortæller at forældre skal sikre sig at spillene er ok, må vi konkludere at

Hvis børnene kun spiller de pædagogisk rigtige spil, tager de ikke skade.

Siden det er nødvendigt at forældrene skal vælge spillene ud må vi konkludere at

Børnene kan tage skade af de pædagogisk uforsvarlige spil.

Anden litteratur

Computerspil ødelægger sociale relationer

Der er en klar sammenhæng, mellem den tid unge mennesker bruger på at spille computer, og hvor godt et forhold de har til venner og familie. Jo mere spillen computer, jo ringere forhold til venner og familie. Eller i hvert fald, jo mindre tid til at pleje forholdene.

Written by Kim Michelsen

9 oktober 2008 at 15:21

Lagt i IT, Samfund & Politik

Tagged with , , , ,

Samlebåndsorganisationen

leave a comment »

I Computer World skriver Thomas Holm Jensen om samlebåndsorganisationen kontra holdspil. Jeg er helt enig i hans konklusioner, det var kun hans eksempel

For halvtreds år siden var medarbejderindflydelse en by i Rusland, og mange arbejdspladser fungerede som samlebåndsdiktaturer. Medarbejderen kom, stemplede ind, arbejdede, og lederen var en cigarrygende, autoritetsfigur i jakkesæt.

jeg ikke var helt enig i.

Arbejderkultur kontra Håndværkerkultur

Den gamle arbejderkultur var et brud med den endnu ældre håndværkerkultur, der bedre kunne være model for den moderne IT-kultur. En gammeldags håndværker havde folk under sig som havde en uddannelse som ham selv, muligvis med mindre erfaring, men de var ligemænd vidensmæssigt set og kunne agere selvstændigt uden at skulle spørge mester om alle mulige detaljer. Målet er at have medarbejdere der kan handle selvstændigt for virksomhedens bedste.

Samlebåndsorganisationen

Fortiden er ikke så sort som den gøres til; problemet er at vi har taget det værste i fabrikskulturen (Matrixorganisationen) og indført det overalt i den offentlige sektor (eks. sygehussektoren, politiet, fængselsvæsenet, fødevarestyrelsen, militæret, hjemmeplejen,…) samt i en række af vore større virksomheder.  Alt kører som på et samlebånd, upersonligt og styret af personnummer. På trods af en stadig strøm af økonomiske midler optræder der dagligt den ene skandale efter den anden. Penge hjælper ikke, medmindre man får skabt en virksomhedskultur, der er beslutningsdygtig og ansvarlig på ethvert niveau i organisationen.

Ledelsesstruktur

En artikel i Ingeniøren Vis medarbejderne tillid – eller gå på pension af Annika Ipsen, omtaler en bog af professor Sverre Raffnsøe, lektor Steen Valentin og lektor Niels Thygesen “Tilliden & magten – om at lede og skabe værdi gennem ledelse“, som handler om det samme emne.

Ethvert lag i en virksomhed har sine kompetencer og det er sund fornuft at beslutningerne tages hvor kompetencen er.

I Business.dk Topstyring svækker effektiviteten berøres samme problemstilling

Historien om den succesfulde topleder, der fra sit udkigstårn dirigerer virksomheden sikkert i havn, er en myte, skriver nyhedsbrevet ledelsesidag.dk, der udgives af Ledernes hovedorganisation.

Topstyrede virksomheder har dårligere præstationsudvikling, lavere motivationsniveau og dårligere intern samarbejdsevne. Det viser en Ph.D.-afhandling af lektor Elmer Fly Steensen fra handelshøjskolen i Århus.

Fra Handelshøjskolen i Århus kommer en bog der rammer centralt ind i det offentliges ledelsesproblem:

Samfundsforsker tager livtag med velfærdsstaten

I sin nye bog “Vildveje i Velfærdsstaten” hævder docent Verner C. Petersen, at det i dagens Danmark er blevet vigtigere at have regler end at tænke sig om. Derfor gør vi det, vi bliver målt på – og ikke altid det, vi betragter som vigtigt og rigtigt.

Verner C. Petersen mener, at udveje væk fra disse vildveje og en bevarelse af fællesskabet skal findes ved at skabe frihed for det enkelte menneske, den selvstændige tanke og ved at kræve en højere grad af selvstændig, personlig ansvarlighed – i stedet for mere styring og regulering.

Et styringsmæssigt monster

De nye reformer bidrager til at skabe et styringsmæssigt monster – et vrangbillede af rationalitet og fornuft. Med udgangspunkt i et verdensbillede, der projicerer naturvidenskabelig og økonomisk metode ind over velfærdsstaten og de offentlige institutioner, ødelægger vi en værdifuld forståelse og indsigt, der er baseret på tavs viden og uudtalelige værdier. Resultatet bliver en halvering af verden: alt, der ikke kan udtrykkes eksplicit, er ikke viden og alt, der ikke kan målsættes og måles, er værdiløst.

Ingeniøren har en artikel “Københavns Universitet har skandinavisk rekord i bureaukrati” af Jens Ramskov, der går tæt på universitetet, men også nævner at sundhedssektoren har de samme problemer, at bureaukratiet har en eksponentiel vækst i forhold til antallet af akademiske medarbejdere.

Naturlov for bureaukrati
Ud fra datamaterialet har de norske forskere kunnet fastlægge en slags ”naturlov” for, hvordan universiteternes bureaukrati vokser i takt med deres størrelse. Den siger, at antallet af støttemedarbejdere Ns i forhold til antallet af akademiske medarbejdere Na er givet ved denne formel:

Ns = 0,07 x Na^1,3

Det betyder, at hver gang antallet af akademiske medarbejdere bliver fordoblet, kommer der 2,5 gange så mange medarbejdere i supportfunktioner. Tidobles antallet af akademiske medarbejdere, vil antallet af supportmedarbejdere blive 20-doblet.

Den originale artikel er her: Scaling properties of European research units skrevet af Bjørn Jamtveit, Espen Jettestuen, and Joachim Mathiesen.

Udviklingsmodellernes fallit

leave a comment »

Den ene udviklingsmodel følger den anden og lige lidt hjælper det, er der ikke en løsning?

I Computerworld spurgte Stine Osted

Og åbent at spørge; Findes der ikke en kunde, en forretnings ledelse, en it-chef, en projektleder, en afdelingsleder som bare ikke længere vil acceptere at skulle bruge/høre de samme forklaringer, som bare ikke længere vil være reaktiv tilskuer til og prygelknabe for gentagne nødlidende projekter – og selv vil tage ansvar for det? Hvor er de kunder, it-chefer og ledere, som har turdet gøre noget andet for at få et andet resultat – som har været parat til at ændre egen adfærd for at kunne ændre andres? Vi vil så gerne høre om det.

Manglende forberedelse under indførelse

Jeg tror der er mange af dem, men de har afprøvet så mange udviklingsmodeller uden at det har hjulpet. Problemet kan være at man ikke har forberedt sig ordentligt, fx med en erfaren udvikler på sidelinien og uden at have brugt modellen længe nok til at have høstet nogle brugbare erfaringer.

Hvis de endelig har fundet en god model, så fungerer den måske kun med en enkelt projektleder, eller kun for nogle projekter. Dygtige projektledere kan få en hvilken som helst projektmodel til at fungere, sålænge projektlederen kan bøje reglerne og målet i øvrigt er muligt.

Formindsk kompleksiteten på alle områder

For at et projekt skal lykkes kræver det at projektet kan overskues, at man ikke drukner i dokumentation, som ingen kan overskue. Der er en række årsager til uoverskueligheden, fx at projektet er for stort (man vil lave super deluxe udgaven i første hug), at der er for mange udviklere på opgaven (for mange kommunikations forbindelser = n!), har en udviklingsmodel der kræver uanede mængder af redundant information, for mange novicer i projektgruppen, udskiftning af medlemmer af projektgruppen til nye strategiske projekter (dvs. benspænd fra linieorganisationen), man benytter en udviklingsmodel der ikke svarer til udviklingværktøjet, demokratiske beslutningsprocesser der ikke bygger på faglige overvejelser, mmm.

Ikke to projekter er ens,

forskellige platforme, forskellige emner, forskellige kunder og brugere, og ikke mindst forskellige udviklere. Min erfaring har været at man er nødt til at tilpasse metoden efter projektet og ikke projektet efter metoden, for ikke at ende i en Never Ending Story.

Ethvert projekt er en individuel opgave hvor mange interesser mødes. Den kan ikke presses ind i en stiv løsningsmodel, der er opfundet under helt andre betingelser. Udgangspunktet må i ethvert projekt være sund fornuft og erfaring. En projektleder skal have fuldt ledelsesansvar for projektet, med mulighed for at skræddersy den udviklingsmodel, der benyttes, hvis det skal lykkes. Der skal primært være erfarne udviklere i projektet, eventuelt med en enkelt novice tilknyttet. Der skal være en fast kerne af udviklere igennem alle faser af projektet, ellers tabes der viden.

Tab af viden

er forøvrigt et centralt problem. Den populære matrixorganisation har en tendens til at udrydde forretningsviden i it-organisationen, i modsætning til den projektorienterede, hvor der altid er specialister tilknyttet et system, hvis viden øger overskueligheden i projekter omkring systemet.

Den hellige Gral

Der har været en kamp mellem de ‘gamle’ udviklingsmodeller og de nye Agile metoder, ingen af dem er dog den hellige gral, men alle har elementer, der kan benyttes i forskellige projekter, afhængig af projektets karakter, mens ortodoks anvendelse af dem ikke kan give andet end problemer og frustrationer.

Det stiller selvfølgelig krav til projektlederen, man kan ikke bare smide en uprøvet projektleder ud på dybt vand og tro de kan svømme i land ifølge planen. Man havde selvfølgelig håbet at udviklingsmodellerne kunne være brugt til at sætte projekterne på skinner så selv uerfarne projektledere kunne færdiggøre projekterne til tiden, men det fungerede lige modsat, idét projektlederens muligheder for at redde uforudsete hændelser blev desavoueret af usikkerhed og af snærende bånd.

Written by Kim Michelsen

8 oktober 2008 at 18:06

Kunstig intelligens, bevidsthed eller simuleret intelligens

with 2 comments

Jeg var i går aftes involveret i en diskussion omkring kunstig intelligensingeniørens debat. Der er meget faste meninger på området og meget få har sat sig ind i emnet eller forsøgt at gennemtænke problemstillingen, hvilket giver en række skud fra hoften, der sjældent bidrager med noget nyt.

I første del giver jeg en oversigt over kilder til forståelse af menneskets bevidsthed og om computerens begrænsninger, derefter kommenterer jeg nogle af de vigtigste punkter.

Kilder

For at kunne forstå problemstillingen er man nødt til at have noget basal viden om emnet og der er to områder, der er nødvendige for den dybe forståelse: Menneskelig bevidsthed og computerens begrænsninger.

Den ene er en forståelse af, hvordan den menneskelige hjerne tænker og opbygger det billede vi ser, når vi ser på verden. Teoretisk, kan man læse om det i Erich Harth’s bog “The Creative Loop, How the Brain Makes a Mind” der virkelig er læseværdig og nu er blevet en klassiker; rent praktisk kan man observere hvordan ens eget syn fungerer og opbygger det billede vi ser. Det nærmeste computeren kommer på dette, er det billede den viser på skærmen, men den har ikke noget tilbageløb fra skærmen på samme måde som mennesket har fra sin ‘lystavle’. En sammenfatning af forskningen indtil da og videreudbygning findes i bogen: Stairways to the Mind by Alwyn Scott.

En psykologisk behandling af bevidstheden findes i “Psykologiens videnskabsteoriaf Gerd Christensen, men niveauet er ikke så dybt som Alwyn Scotts og Erich Harths.

Den anden er computerens fysiske begrænsninger som Gödel opsætter i sit ufuldstændighedsteorem (BBC programmet ‘Dangerous Knowledge (part 9/9)’:

Den teoretiske fysiker Roger Penrose skriver i “The Large, the Small and the Human Mind” om emnet, med eksempler på computerens begrænsninger og idéer til forståelse af bevidstheden. Roger Penrose berører også lige begrebet i dette Hard Talk interview omkring det cykliske univers:

I Ingeniøren kom Jens Kolberg med følgende referencer:

  • “Hjernen i computeren – Computeren i hjernen Af Benny Lautrup og Lars Kai Hansen”.
    En ganske god populær gennemgang, med nogle lidt uvidenskabelige konklusioner til sidst.
  • “Penrose om Bevidsthed Af Benny Lautrup”
    Tre Meget læseværdige artikler i information efter et foredrag holdt på Niels Bohr instituttet. Det der gør Penroses arbejde så revolutionerende er at vi endelig forlader det Newtonsk mekanistiske verdensbillede på det mentale område.
  • “Om Gödel’s sætning” af Thomas Bolander og Helge Elbrønd Jensen. En afhandling.

Turing-test

Der tales en del om Turing-testen (Alan Turing), der er meget benyttet i Science Fiction, som man påstår skulle kunne bevise om en computer er intelligent eller bevidst. I WikiPedia er Turing-testen defineret som:

Turing-test er en måde til at afgøre, om en maskine udviser intelligens på menneskeligt niveau, uden at man på samme tid er nødt til at definere, hvad (menneskelig) intelligens så reelt er for en størrelse. Det er således ikke en måde til at afgøre, om en maskine reelt er intelligent.

Fordi man kan simulere bevidsthed så godt at man kan snyde et menneske i en given kontekst, så gør det jo ikke computeren mere bevidst af den årsag.
Med en matematisk funderet maskine, som en computer er, bør man kunne fremlægge en velfunderet matematisk teori for computerbevidshed med bevisførelse for dens rigtighed. Jeg kan faktisk ikke forestille mig at man kan programmere en bevidst computer uden en konkret teori.

Gödels teorem

Gödels teorem fortæller at ikke alle virkelighedens sider kan beskrives matematisk, men da computeren er en matematisk begrænset maskine vil den ikke kunne håndtere disse ikke beskrivbare sider af virkeligheden, i modsætning til mennesket, der ikke har den begrænsning.
Hvis nu at den menneskelige hjerne benytter principper fra kvantemekanikken til at komme ud over begrænsningen, så kan man ikke bare overføre vores bevidsthed til en von Neuman maskine (en computer som vi kender den i dag).

I den engelske WikiPedia står:

The incompleteness theorems also imply that not all mathematical questions are computable.

Erich Harth:

The brain presents two seemingly irreconcilable aspects: It is a material body, exhibiting all the physical properties of matter, and it possesses a set of faculties and attributes, collectively called mind, that are not found in any other physical system.

Windows on the Mind, 1982

Ada Lovelace, Lord Byrons datter, formulerede hvad der i dag kendes som Lady Lovelace’s Objection:

The Analytical Engine has no pretensions to originate anything. It can do whatever we know how to order it to perform.
Med andre ord kan maskiner kun udføre det de er programmeret til.

Computer bevidsthed

Det er mig fuldstændig uforståeligt at man stadig kan snakke om bevidste computere, ikke alene lever computeren efter Gödels teorem, men enhver edb-mand med kendskab til hvordan en CPU virker kan tænke sig til at en computerbevidsthed ikke er mulig. Det nærmeste en computer når bevidsthed er skærmbilledet (a la Erich Harth beskrivelse af ‘lystavlen’), det eneste sted hvor data ses i sammenhæng, men det er kun forståeligt for et menneske, ikke for computeren selv.

Når man som menneske ser ud i verden, så bliver det man ser bogstavelig talt sendt ind på en lystavle, jvnf. Harth’s bog. Denne lystavle får frontallapperne billedet fra og de sender modifikationer tilbage til lystavlen, så vi får det billede vi ‘ser’ uden blinde spots mm. Vi ser alle bit’sne i billedet på én gang og tilmed med en hjerne med begrænset hastighed. Selvfølgelig involverer det parallelprogrammering i meget stort omfang, men det der er interessant er at billedet kan opfattes i vores hjerne på én gang og det løser parallelprogrammeringen ikke.

Hvis man nu tager et billede af den virkelighed vi ser og fodrer det ind i en computer og får vist det på skærmen, så vil vi aldrig kunne få en von Neuman computer til at se på mere end én bit af billedets informationsmængde ad gangen, dvs. når der indgår mange farvebits pr. pixel, vil den ikke en gang kunne have én pixels fulde informationsværdi i sin 1-bits lystavle på én gang.

Med en 32 bit CPU ser computeren 32 enkeltbit hver for sig og med 4 CPU’er er det 4 gange så mange enkeltbit, men på intet tidspunkt ses en helhed. I stedet for at tale om cpu’ens begrænsning kan vi tage turingmaskinen (teoretisk maskine, brugt i bevisførelse), der jo specifikt kun har 1 bit at arbejde på ad gangen. Alle operationer er diskrete operationer og øget beregningshastighed ændrer ikke ved den kendsgerning.

Mange tror at man på et tidspunkt kan lave nogle algoritmer der kan give computeren bevidsthed, men det er ikke et programmeringsmæssigt problem, det er en banal hardware begrænsning og ingen nok så fancy programmering kan løse det problem.

Det interessante er faktisk at hvis jeg siger til en udvikler at han skal lave det eller det, så varer det ikke mange sekunder inden han har en idé om hvordan det skal laves, men hvis man spørger ham om lige at lave en bevidst maskine, ja så er det noget nogen nok finder ud af en gang i fremtiden. Det burde vække til eftertanke!

Fremtidsudsigten

Jeg har fulgt rimelig godt med i AI siden jeg legede med det på universitetet og jeg har af og til kunnet benytte nogle af resultaterne, fx sprogforståelse og spilteori. Alle disse redskaber giver nogle fantastiske muligheder, men det ændrer ikke ved at computeren stadig er en von Neuman maskine, hvis bevidsthed kan være i en bit og at det ikke kan løses med nogen algoritme, hvor sofistikeret man end laver den.

Det der med at vi nok en gang kan lave et program, der kan noget revolutionerende er ikke særlig sandsynligt. Ind til firserne var der en utrolig hastighed på softwarefronten, men siden hen er udviklingen gået uendelig langsomt, det meste er en kogen suppe på gamle algoritmer, med forbedringer i promilleklassen. Vores mest ‘intelligente’ operativsystem er Linux, der bare er en shinet up version af den gamle unix version 7 jeg voksede op med.
Relationsdatabasen gav et kraftigt skub i databehandlingen; men derefter er der ikke kommet noget egentlig epokegørende på databaseområdet.
Teknisk set er internettet også en gammel dreng, der er intet væsentligt nyt der, kun at der nu er mange der bruger det.
Objekterne og komponentbegrebet hævede abstraktionsniveauet, men det løste ikke opgaver der ellers havde været umulige.
Fra starten af firserne blev der forsket meget i parallelprogrammering, men det er der egentlig ikke kommet så meget ud af. Lang tid før det, startede man på kunstig intelligens, og det er der kommet mange gode værktøjer ud af, men i de sidste 25 år er der stort set kun sket forbedringer i allerede eksisterende algoritmer og de kan måles i promille.

Ingen af disse værktøjer bringer computeren i nærheden af noget, der kan kaldes intelligens, højst simuleret intelligens. Det er intelligens når et menneske ser på et kort og lynhurtigt finder den omtrent hurtigste vej. Maskinen skal hive værktøjet Operationsanalyse (OR) frem og beregne den omtrendt hurtigste vej, på en langt mere omstændelig måde, der ikke på nogen måde minder om bevidsthed og intelligens.

Det at hardwaren er blevet så meget hurtigere gør at mange af AI’s beregningsintensive metoder, lige pludselig kan benyttes. Det er interessant at mennesker kan ‘beregne’ væsentlig vanskeligere problemer ved en meget lavere clockfrekvens. Det computeren er bedst til er faktisk det mennesket er dårligst til: Regning, hukommelse og bearbejdning af store datamængder og det benyttes i vidt omfang inden for AI.

Den største udvikling er sket på hardware siden, hvor den øgede hastighed og regnekraft fået gennem flere transistorer pr. sqr (og cubic) inch, har gjort det muligt at løse flere komplekse problemstillinger, der ikke var praktisk at løse før i tiden på grund af de langsommere maskiner. Den trådløse datakommunikation har åbnet op for nye anvendelser, men egentlig revolutionært kan det ikke påstås at være.

For at kunne komme videre må vi have et helt nyt paradigme og her ser jeg kun kvantekomputeren som en potentiel mulighed, med dens entanglement  til at komme ud over turingmaskinens 1-bit begrænsning.

Se foriøvrigt Turings stoppeproblem.

Written by Kim Michelsen

7 oktober 2008 at 15:58