Jeg vil i denne artikkelen gi en presentasjon av hovedtemaet og deler av den drøftingen jeg gjennomførte i min hovedfagsoppgave i filosofi med tittelen Intensjonalitet i mennesker og maskiner. Først vil jeg imidlertid si litt om forhistorien til arbeidet med denne hovedfagsoppgava.
BAKGRUNNEN FOR MITT VALG AV TEMA, OG LITT OM BEGREPET
INTELLIGENS
Rådet for naturvitenskapelig forskning (RNF) i NAVF utlyste tverrfaglige hovedfagsstipend innen emneområdet informasjonsteknologi for kalenderåret 1988. Da jeg leste utlysningsteksten tenkte jeg først at mine interesser innen filosofi nok vanskelig kunne sies å falle inn under dette emneområdet, men ved nærmere ettertanke kom jeg fram til at de problemer som særlig interesserte meg, problemer innen sinnsfilosofi og språkfilosofi, i høy grad hadde relevans for grunnlagsproblemene vedrørende muligheten for utvikling av systemer for kunstig intelligens. Jeg tenkte så at det ville være interessant å se nærmere på hvilke betingelser som må oppfylles for at et menneskelig eller maskinelt system skal kunne sies å være intelligent. En slik undersøkelse ville selvsagt være uoverkommelig, og jeg måtte derfor avgrense temaet betraktelig noe som førte til at jeg valgte å konsentrere meg om en analyse av meningsbegrepet og de problemer som knytter seg til det, for derigjennom å kunne belyse aspekter ved menneskelig tenkning og utsikter for en mulig realisering av "intelligente" systemer.
Jeg valgte å fokusere på meningsbegrepet da det ser ut til å være en utbredt enighet om at en minimalbetingelse for tenkning, og dermed for intelligens, er at tenkningen er meningsfull for det tenkende subjektet eller systemet selv. Denne tankerekken som jeg her har skissert begynnelsen på, resulterte i at jeg utformet en prosjektbeskrivelse med tittelen "Meningsproblemer i tilknytning til utforming av teorier for kunnskapsrepresentasjon", og på grunnlag av denne ble jeg av NAVF tildelt studentstipend.<P7MJ241>1<P255DJ0> Arbeidet i denne stipendperioden munnet ut i hovedfagsoppgava jeg nå vil si litt om.
Som tittelen indikerer er hovedtemaet i oppgava intensjonalitet i mennesker og maskiner. Under arbeidet med det prosjektet jeg hadde søkt om og fått støtte til, ble nemlig hovedproblemet for meg etterhvert hvordan en generell teori om intensjonalitet bør utformes. Hvorfor dette ble hovedproblemet, og hva problemet går ut på, håper jeg det som følger vil klargjøre.
Som nevnt ovenfor var jeg i utgangspunktet interessert i å søke å finne ut hva som karakteriserer genuint intelligente systemer som vi selv er eksempler på til forskjell fra ikke-intelligente systemer. Et underproblem her er spørsmålet om det er mulig for oss å konstruere genuint intelligente systemer, altså om det er mulig å utvikle såkalt kunstig intelligens. Innen kunnskapsteknologien eller som den også kalles: kunstig intelligensforskningen, som er en grein av forskningsfeltet informasjonsteknologi<P7MJ241>2<P255DJ0>, er der forskere som har ambisjoner om å utvikle systemer som er genuint intelligente (og ikke bare intelligent laget); altså mener de at dette er mulig. De fleste forskere har riktignok ingen slike ambisjoner, men likevel kalles systemene som utvikles innen kunnskapsteknologi ofte intelligente systemer. Dette selv om verken de som utvikler systemene eller brukerne oppfatter dem som intelligente i egentlig forstand. Tilsvarende kalles roboter som styres av slike intelligente systemer intelligente roboter.
Siden det er utbredt enighet om at disse "intelligente" systemene og robotene ikke er intelligente, hvorfor kalles de da likevel intelligente? Kanskje kan forklaringen være at både forskere og folk flest først og fremst forbinder intelligens med evnen til problemløsning. Og siden kunnskapsteknologien kan sies å utvikle teknikker for problemløsning og mange av disse teknikkene har vist seg å være vellykket i praksis så mener en at en kan rettferdiggjøre å kalle systemene og robotene intelligente. Dette til tross for at f.eks. en levende maur løser problemer langt bedre enn de mest sofistikerte intelligente roboter, uten at vi dermed drømmer om å tillegge mauren intelligens.
Intelligens forbindes som sagt med evnen til problemløsning, men i videre forstand mener vi med intelligens evnen til tenkning og forståelse generelt.<P7MJ241>3<P255DJ0> Dette betyr at systemer ikke kan være intelligente i denne vide forstand med mindre de har evnen til tenkning og forståelse.
KOMPUTASJONELLE TEORIER OM TENKNING
I kapittel 1 i del I i oppgava vurderer jeg en teori om tenkning som ifølge den amerikanske filosofen John Haugeland (se Haugeland (1981) og (1985)) er forholdsvis utbredt blant forskere innen kunstig intelligens (heretter kalt AI, da dette er en praktisk forkortelse som nok er bedre kjent enn det norske forslaget KI) og også blant mange kognitive psykologer og filosofer, nemlig den såkalte komputasjonelle teorien om tenkning. Tilhengerne av denne typen teori arbeider ut fra tesen om at tenkning essensielt er en art kompleks symbolmanipulasjon.<P7MJ241>4<P255DJ0> Et slikt syn på tenkning innebærer at det prinsipielt sett vil være mulig å utvikle intelligente datamaskiner (her: interpreterte automatiserte formale systemer, semantiske maskiner<P7MJ241>5<P255DJ0>), da det som foregår i datamaskiner på et visst beskrivelsesnivå nettopp er en slik art symbolmanipulasjon.
Haugeland går kritisk gjennom denne komputasjonelle teorien og kommer fram til at teorien lykkes i å redegjøre for hvordan symbolmanipulasjon ifølge "rasjonelle"<P7MJ241>6<P255DJ0> regler er mulig, men at den ikke gir oss noen forklaring på hvordan tegnene som manipuleres kan være meningsfulle for systemet som manipulerer dem, altså være symboler for systemet selv og ikke bare for oss som systemets programmerere eller brukere. Skal systemet kunne forstå sine egne manipulasjoner må tegnene det manipulerer være meningsfulle for det. Hvis ikke kan vi ikke si at systemet tenker eller er intelligent. Altså synes det som om den komputasjonelle teorien ikke er en teori om tenkning, ihvertfall ikke om det vesentlige ved tenkning.
STRATEGIER FOR TILBAKEVISNING AV DEN KOMPUTASJONELLE TEORIEN
Haugeland selv antyder to ulike strategier "dårlig erstatning"- og "hult skall"-strategien (heretter kalt DE- og HS-strategiene) for å tilbakevise denne teorien og dermed antakelsen om at datamaskiner qua symbolmanipulerende kan være intelligente (dvs. hvis symbolmanipulasjonen er tilstrekkelig kompleks).
Av disse to forfekter han selv DE-strategien. Ifølge en slik strategi vil det trolig ikke være mulig å utvikle semantiske maskiner som oppviser en genuin intelligens, og selve det å avgjøre om semantiske maskiner er intelligente eller ikke oppfattes som utelukkende et empirisk spørsmål.
Tilhengerne av HS-strategien derimot utelukker ikke at det kanskje vil være mulig å utvikle semantiske maskiner som tilsynelatende har intelligens ved at de handler som om de hadde intelligens (noe som innebærer at semantiske maskiner i prinsippet vil kunne bestå en turingtest<P7MJ241>7<P255DJ0> ifølge en slik strategi). Men disse maskinene vil likevel ikke være intelligente, da de mangler det "essensielle" ved det å være intelligent. De vil bare være tomme skall. Dette forsøker de så å understøtte ved en apriori eller konseptuell argumentasjon (Haugelands uttrykk). Slike strategier har følgende form ifølge Haugeland:
"No matter how well a (mere) semantic engine acts as if it understands, etc., it can't really understand anything, because it isn't (or hasn't got) "x" (for some "x"). In other words, a robot based on a semantic engine would still be a shame and a fake, no matter how "good" it got." (Haugeland (1981) s. 32)
En mulig kandidat til "x" er opprinnelig intensjonalitet sier Haugeland. Begrepet intensjonalitet er her å forstå som en filosofisk term for det å være rettet mot noe/være om noe/ha et innhold/ha mening. Haugeland innfører et skille mellom to hovedtyper av intensjonalitet, opprinnelig og avledet intensjonalitet, og kan da si at siden tegnene til semantiske maskiner bare har mening fordi vi gir dem mening, så har den semantiske maskinen bare en avledet form for intensjonalitet (eller avledet mening som han også sier han skiller nemlig ikke mellom intensjonalitet og mening). Da han selv er tilhenger av DE-strategien, oppfatter han spørsmålet om et system kan tillegges opprinnelig intensjonalitet som rent empirisk og mener at vi vha. passende atferdskriterier vil kunne fastslå om et system er intelligent eller ikke. Den opprinnelige intensjonaliteten må på en eller annen måte manifestere seg fysisk i verden, og gjennom å observere denne fysiske manifestasjonen må vi kunne fastslå at den opprinnelige intensjonaliteten foreligger.
SEARLES KRITIKK AV STERK AI EN VERSJON AV HULT
SKALL-STRATEGIEN
I artikkelen "Minds, Brains and Programs" fra 1980 argumenterer filosofen John R. Searle mot muligheten av å utvikle sterk AI (å forfekte sterk AI faller omtrentlig sammen med å inneha det syn at det er mulig for semantiske maskiner å være intelligente qua semantiske maskiner<P7MJ241>8<P255DJ0>), og samtidig mot synet at Turings test er en adekvat måte å avgjøre om et system er intelligent eller ikke på, gjennom refleksjoner han gjør seg omkring tankeeksperimentet "det kinesiske rom". Denne argumentasjonen (som understøttes seinere av hans analyse av intensjonalitet i Intentionality (1983)) kan betraktes som et eksempel på en HS-strategi, da Searles hovedpoeng i denne artikkelen er at semantiske maskiner (eller komputere som han sier) ikke er intelligente selv om de skulle handle som om de var intelligente, da de mangler en iboende intensjonalitet. Hans argumentasjon i denne artikkelen drøftet jeg i kapittel 2 (s. 40-67) i oppgava, og konklusjonen der ble at Searle ikke lykkes i å avvise sterk AI.
Artikkelen ble opprinnelig publisert sammen med seks forskjellige innvendinger mot det argumentet han presenterer. Min egen innvending faller imidlertid ikke sammen med noen av disse seks innvendingstypene, men har likheter med det såkalte "systemsvaret" (se spesielt s. 48-53).
EN MULIG TREDJE TYPE ARGUMENTASJONSSTRATEGI
I lys av den kritikken jeg i oppgava gjennomfører av Searles argumentasjon synes det som om HS-strategier generelt, og ikke bare Searles versjon av denne typen strategi, bør forkastes. Men dette betyr ikke at jeg mener at vi dermed må gå inn for DE-strategien. I det første kapitlet indikerte jeg, i motsetning til hva Haugeland mener, at en tredje type argumentasjonsstrategi også synes å være mulig. Denne kalte jeg i mangel av en bedre idé (og også i tråd med Haugelands heller dårlige navneforslag) "ingen erstatning"-strategien (IE-strategien). Denne strategien baserer seg verken på empirisk evidens (DE-strategi) eller en art indre følelse av forståelse (HS-strategi i Searles versjon). Mer konkret om hva en slik strategi går ut på, kunne jeg først si etter at jeg i del II i oppgava hadde vurdert og kritisert Searles internalistiske teori om intensjonalitet at teorien er internalistisk går kort ut på at de mentale tilstandenes intensjonale innhold (se Searle (1983)) oppfattes som fullstendig bestemt av det som, for å si det med filosofen Hilary Putnam, er "inne i hodet" til innehaveren av disse tilstandene (se Putnam (1988)). En slik teori kan og skal derfor se fullstendig bort fra hva som faktisk er og har vært tilfelle i verden.
Hovedtyngden av arbeidet mitt ble en analyse og kritikk av Searles internalistiske redegjørelse for intensjonalitet, mening og referanse (se s. 83-174). Debatten mellom tilhengere av såkalte internalistiske og eksternalistiske redegjørelser for mening og referanse er en pågående kontrovers innen sinnsfilosofi og språkfilosofi, men jeg kan ikke påta meg her å gi noen rask innføring i denne filosofiske kontroversen. Jeg nøyer meg med å påpeke at denne diskusjonen i høy grad er relevant for argumentasjonen mot det Searle kaller sterk AI. Det ser nemlig for meg ut som om HS-strategier og internalismen henger nært sammen. Både HS-strategitilhengeren og internalisten hevder nemlig at intensjonalitet kan og bør redegjøres for utelukkende ved å ta med i betraktningen interne egenskaper ved tilstandene i det aktuelle systemet, og de avviser begge at kausale, historiske eller det vi kan kalle eksternalistiske betraktninger også er nødvendige i redegjørelsen. Det å avvise muligheten for HS-strategier som jeg gjør, innebærer derfor også i det minste å måtte være kritisk innstilt til internalistiske redegjørelser for intensjonalitet.
En av innvendingene som har reist seg mot Searles versjon av HS-strategien, robotsvaret, aksepterer at et system som manipulerer rent formale symboler ikke kan tillegges forståelse qua symbolmanipulerende, men ifølge dette svaret vil et slikt system kunne tillegges forståelse hvis det settes i kausale relasjoner med omverdenene gjennom å plasseres i en robot med passende transducermekanismer. Searle avviser med rette mener jeg et slikt syn, ved å peke på at det ikke er nok at der er kausale forbindelser mellom saksforholdene i verden og de formale symbolene i systemet. Systemet må i tillegg være bevisst at disse kausale relasjonene foreligger, og selve symbolmanipulasjonen i konjunksjon med kausalrelasjonenes eksistens konstituerer ikke i seg selv en slik bevissthet. Et slikt robotsvar synes bare å være plausibelt hvis rent eksternalistiske teorier for hvordan mentale tilstander refererer lar seg forsvare (se s. 46-48). Teorien som ligger bak robotsvaret er imidlertid en meget naiv form for eksternalisme. De fleste eksternalistiske teorier er langt mer sofistikerte og vil mene at robotsvaret ikke er tilstrekkelig (se f.eks. Fred Dretskes informasjonsteoretiske redegjørelse for kognitive operasjoner i Dretske (1981), samt hans artikkel fra 1985 "Machines and the Mental"). Til tross for at svaret må avvises, så tror jeg det er riktig som dette svaret påpeker, at det er en nødvendig betingelse at det foreligger kausale relasjoner mellom systemet og omverdenen (og da ikke hvilken som helst type kausale relasjoner) hvis systemet skal kunne ha intensjonale tilstander men det er ikke på langt nær en tilstrekkelig betingelse.<P7MJ241>9<P255DJ0>
På samme måte som det å avvise HS-strategier ikke medfører at en dermed må være tilhenger av DS-strategier, eller mene at intelligens faktisk kan realiseres i semantiske maskiner, så er det min tese at det å stille seg avvisende til internalistiske analyser av intensjonalitet ikke medfører å måtte forplikte seg til en art ren eksternalistisk analyse av intensjonalitet. Selv kom jeg under dette arbeidet etterhvert fram til følgende syn: Vi kan som mennesker legitimt tillegge andre mennesker (og evt. ikke-menneskelige (i fysikalsk forstand) systemer) forståelse, og dermed intensjonalitet, hvis mennesket (eller systemet) oppviser en passende atferd (se s. 53-60, 183-186). Først gjennom å stå i en "passende" interaksjon med den fysiske og sosiale verden rundt det kan det erverve seg evnen til å oppvise en slik atferd. Vi kan si at mentale tilstanders intensjonale innhold blir konstituert gjennom at individet som innehar tilstandene står i kausale relasjoner med den fysiske og sosiale omverdenen (noe jeg argumenterer for i kapittel 7), samtidig som de mentale tilstandene (i vårt eget tilfelle) er realisert i tilstander i hjernen og sentralnervesystemet (noe jeg i kapittel 2 trakk inn Colin McGinns Wittgenstein-kritikk for å understøtte (McGinn (1984)).<P7MJ241>10<P255DJ0> Dette siste poenget innebærer en avvisning av tesen om at tenkning essensielt er symbolmanipulasjon, og dermed av sterk AI.
Viktige momenter til støtte for dette poenget, et poeng IE-strategien kan sies å ville argumentere for, finner vi i analysen av intensjonalitet som Searle gjennomfører i Intentionality. Begrepet om bakgrunnen som han tar i bruk, men også analysen av hvordan noen intensjonale mentale tilstander gjennom intensjonal kausalitet står i relasjoner med den ekstramentale verden, er særlig viktig for oss. Han argumenterer overbevisende for at våre intensjonale mentale tilstander ikke isolert sett er intensjonale, men at de for å ha tilfredsstillelsesbetingelser og dermed være intensjonale, nødvendigvis må stå i et nettverk av andre intensjonale tilstander og mot en bakgrunn av ikke-intensjonale (ikke-representasjonelle) praksiser og "antakelser" (assumptions) (se s. 107-111).
Searles argumentasjon for at intensjonale tilstander ikke er individuerbare, men at de står i et holistisk nettverk av intensjonale tilstander, er viktig i en argumentasjon mot sterk AI, da denne analysen viser at selv det å ha antakelser (beliefs) som for å tilfredsstilles eller oppfylles ikke i seg selv fordrer at visse saksforhold må foreligge i den ekstramentale verden er avhengig av at visse relasjoner foreligger mellom subjektet (=systemet) og verden (se s. 112-113, 139-143). Selv forsøker jeg i oppgava å bevare Searles poenger samtidig som jeg tilbakeviser hans egen internalistiske fortolkning av disse poengene ved bl.a. å trekke inn poenger fra filosofen Hilary Putnam, men dette er en omstendelig historie jeg ikke vil gå inn på her.
LITT OM TURINGS KRITIKK AV INNVENDINGER MOT TURINGS TEST OG
DENNE KRITIKKENS FORBINDELSE MED HS-STRATEGIEN
Til slutt vil jeg si litt om den kritikken AI-forskeren Stuart Goldkind i Machines and Intelligence fra 1987 kommer med mot innvendingene som er reist mot Turings test på intelligens. Denne kritikken synes nemlig å støtte opp under min kritikk av HS-strategiene. Goldkind peker på at både tilhengere og kritikere av testen har neglisjert den delen av Turings artikkel (Turing (1950)) der han gir et svar på det såkalte "argumentet fra bevissthet" et argument som går ut på at det ikke følger at maskinen er bevisst, selv om den passerer testen. Alt som følger er at den tilsynelatende har de karakteristika det er spørsmål om.
Dette argumentet har samme form som Searles kinesiske rom argument, altså kan vi si at argumentet er et eksempel på en HS-strategi, og Turings innvending mot argumentet vil derfor være relevant for vurderingen av Searles versjon av HS-strategien. Goldkind bemerker at Turings svar på innvendingene har to sider ved seg: For det første at Turings test tilhører samme type prosedyre som de som ofte brukes til å teste andre menneskers forståelse på spesifikke områder, og for det andre og denne siden er viktig for oss at innvendingen ført til sin logiske konsekvens leder til solipsisme. Turing selv sier:
"According to the most extreme form of this view the only way by which one could be sure that a machine thinks is to be machine and to feel oneself thinking...It is in fact the solipsist point of view. It may be the most logical view to hold but it makes communication of ideas difficult." (Turing (1950) s. 17)<P7MJ241>11<P255DJ0>
Hans svar på innvendingen om at maskinen tilsynelatende tenker omkring, og forstår, et visst antall emner (og dermed består testen), men likevel ikke virkelig er i stand til å tenke, er at vi ikke kan fastslå noe utover dette i menneskers tilfelle heller. En kunne innvende at vi når det gjelder mennesker i tillegg vet at de har den samme fysisk-kjemiske oppbygging og genetiske opprinnelse, men dette er irrelevant. Det vi vet om menneskets fysiologi og genetisk opprinnelse støtter ikke opp om våre antakelser om at andre mennesker tenker. Disse antakelsene understøttes derimot av de virkninger og manifestasjoner av tenkningen som vi har møtt på og lært oss å identifisere gjennom livet. Altså: Turing ser ut til å oppfatte intelligens og forståelse først og fremst som evner vi kan identifisere på grunnlag av observasjon av den atferden de manifesterer seg i (jfr. her den sene Wittgenstein).
KONKLUSJONEN PÅ DRØFTINGEN AV SEARLES TEORI
Konklusjonen min ble at Searles generelle teori om intensjonalitet ikke klarer å gjøre rede for hvordan mentale tilstander blir intensjonale, og jeg argumenterte for at en slik redegjørelse er nødvendig hvis vi vil forklare det faktum at de er intensjonale, altså forklare mental representasjon. Mer generelt vil dette si at jeg er av den oppfatning at en rent internalistisk teori om mental representasjon en teori som hevder at "meanings are in the head, and determine reference" ikke er holdbar.
Når det gjelder spørsmålet om det er mulig å utvikle kunstig intelligens, så står dette fortsatt åpent. Min intuisjon sier meg at det ikke vil være mulig å avvise denne muligheten. Den komputasjonelle teorien om tenkning avviste jeg imidlertid, noe som innebærer at konklusjonen ble at såkalt sterk AI er umulig å realisere. Flaskehalsen i utviklingen av kunstig intelligens synes å være problemet mental representasjon, ikke selve manipuleringen av mentale representasjoner.
NOTER
1. | Når det gjelder slike studentstipend tror jeg at den faglige anerkjennelsen som en føler en får gjennom å bli tildelt et slikt stipend og motivasjonen til å satse på forskning som følger av dette, er vel så viktig som den økonomiske støtten en slik tildeling innebærer. Jeg håper derfor at NAVF fortsetter sin politikk med å tildele slike stipender, og da ikke bare til kvinnelige, men også til mannlige studenter. |
2. | I RHFs innstilling om humanistisk informasjonsteknologisk forskning fra 1986 blir informasjonsteknologisk forskning spesifisert som forskning som tar sikte på å utvikle teknologi for lagring, overføring og bearbeiding av informasjon, mens den delen av denne forskningen som har å gjøre med utvikling av systemer for representasjon av kompleks kunnskap kalles kunnskapsteknologi eller kunstig intelligensforskning. |
3. | Den latinske verbalformen "intelligo" kan oversettes med å tenke eller forstå (kan også brukes med betydningen å sanse). |
4. | All forskning som tar utgangspunkt i denne tesen kaller Haugeland med en fellesbetegnelse "cognitive science". |
5. | Et formalt system som er automatisert og tillagt en interpretasjon som er slik at "semantikken tas vare på hvis syntaksen tas vare på". Med formalt system skal vi forstå et digitalt og "endelig spillbart" system der tegn manipuleres ifølge visse spesifiserte regler (se Haugeland (1985) s. 47-86). Et slikt system kan automatiseres ved å la en fysisk innretning automatisk manipulere tegnene ifølge systemets regler. Dette er mulig da reglene i formale systemer har form av algoritmer. Utformer vi disse reglene slik at de er sannhetsbevarende har vi å gjøre med en semantisk maskin. |
6. | Med rasjonelle regler mener jeg her regler for tenkning og handling som vi mennesker følger når vi tenker og handler rasjonelt. Slike regler kan vi oppfatte som analoge til hevristiske regler (hevristikker) da de i likhet med disse ikke er ufeilbarlige mht. oppnåelse av resultatet de brukes for å nå. Hevristikker er tommelregler mer eller mindre pålitelige, men ikke ufeilbarlige. Likevel kan de automatiseres da vi kan definere dem vha. utvetydige trinn-for-trinn regler, algoritmer. Følgelig kan en datamaskin automatisk manipulere symboler ifølge rasjonelle regler. |
7. | Turings test ble utformet av den engelske matematikeren og logikeren Alan Turing i 1950 i artikkelen "Computing Machinery and Intelligence". Gjennom denne testen forsøkte Turing å gi spørsmålet om maskiner kan tenke eller ikke en mer presis form. Testen går i korthet og meget grovt ut på at et system kan sies å være intelligent hvis en ekspert ikke klarer å adskille systemets svar på de spørsmål som blir stilt det, fra et menneskes svar på de samme spørsmålene. Det vil da nemlig være inkonsistent å tillegge mennesket intelligens, men ikke systemet, slik jeg fortolker Turing (jeg diskuterer aspekter ved Turings test direkte på s. 29-33 og s. 183-186, se også s. 48-53). |
8. | Han sier selv at han med sterk AI mener det å oppfatte en passende programmert datamaskin som virkelig å være et sinn i den forstand at datamaskinen faktisk kan sies å forstå og å ha andre kognitive tilstander. Dette medfører at sterk AI innebærer følgende to påstander: (1) Den programmerte datamaskinen har kognitive tilstander, og (2) datamaskinprogrammer forklarer menneskelig kognisjon, og vil dermed være en art abstrakte psykologiske teorier. |
9. | Haugelands DE-strategi vil være eksternalistisk da han mener at et system vil ha forståelse hvis det har en passende struktur og disposisjoner relativt til omgivelsene, og at det er et empirisk spørsmål å avgjøre om dette er tilfellet (se Haugeland (1981) s. 33). |
10. | Det er her ikke snakk om at de mentale intensjonale tilstandene kausalt kan avledes fra møter med de eksterne objektene de er om! Derfor er mitt syn verken internalistisk eller eksternalistisk. |
11. | Nettopp det å kjenne etter om vi forstår er det Searle ber oss gjøre i sitt kinesiske rom tankeeksperiment. I kapittel 6 i oppgava argumenterer jeg for at Searle i sin generelle teori om intensjonalitet har problemer med å redegjøre for hvordan det er mulig for mennesker å dele et språk, og dermed kunne kommunisere med hverandre, og disse problemene tilbakeførte jeg til hans ønske om å ville gi en fullstendig internalistisk redegjørelse for språklig mening. Det å akseptere at en test av Turings type kan være gyldig innebærer samtidig å måtte forlate en slik rent internalistisk analyse. |
LITTERATUR
Bøe, Solveig (1989) Intensjonalitet i mennesker og maskiner. Hovedfagsoppgave i filosofi, Filosofisk institutt, UNIT, Trondheim.
Dretske, Fred (1981) Knowledge and the Flow of Information. The MIT Press, Cambr., Mass.
Dretske, Fred (1985) "Machines and the Mental", Proceedings & Adresses of the American Philosophical Association. Vol. 59, No. 3, s. 23-33.
Goldkind, Stuart (1987) Machines and Intelligence: A Critique of Arguments Against the Possibility of Artificial Intelligence. Greenwood Press, New York.
Haugeland, John (ed.) (1981) Mind Design: Philosophy, Psychology, Artificial Intelligence. The MIT Press, Cambr., Mass.
Haugeland, John (1985) Artificial Intelligence. The MIT Press, Cambr., Mass.
McGinn, Colin (1984) Wittgenstein on Meaning. Basil Blackwell, Oxford.
Searle, John (1980) "Minds, Brains and Programs", i The Behavioral and Brain Sciences. 3, s. 417-457.
Searle, John (1983) Intentionality: An Essay in the Philosophy of Mind. Cambr. Univ. Press, Cambridge.
Putnam, Hilary (1988) Representation and Reality. The MIT Press, Cambr., Mass.
Turing, Alan (1950) "Computing Machinery and Intelligence", Mind. 4. Gjengitt i Anderson, Alan Ross (ed.) (1964) Minds and Machines. Prentice-Hall, Englewood Cliffs, N.J. s. 4-30.
Solveig Bøe er universitetsstipendiat ved Filosofisk institutt, Universitetet i Trondheim.