Ett samtal mellan ChatGPT och Noam Chomsky

av Mikael Brunila

Sedan några månader har artificiell intelligens varit på allas läppar. Orsaken är ChatGPT, språkmodellen som Microsoftkopplade OpenAI publicerade i slutet av december. ChatGPT är en chatbot som låter användaren samtala med en AI-modell vars förmågor uppriktigt sagt känns otroliga. Modellen kan föra långa resonemang om samhälle och vetenskap, programmera, producera layout för webbsidor, skriva högskoleuppsatser, med mera. 

Det må inte vara en mänsklig intelligens, men den kommer att ha långtgående konsekvenser för de flesta av oss.

Konsekvenserna av ChatGPT och motsvarande teknologi kommer att vara dramatiska. Redan i början av februari hade ChatGPT 100 miljoner aktiva användare. I mars lanserade Google Bard, en egen, konkurrerande modell. Facebook har en modell som heter Llama och flera andra teknologijättar har redan eller är i färd med att ge ut sina varianter. Därutöver kan modeller av OpenAI och andra företag redan producera realistiska foton och illustrationer utgående från text, text utgående från foton och så vidare. För många känns det alltså som om mänsklig kreativitet nu kommer att automatiseras, därmed även många jobb gå förlorade och industrier omstruktureras. Kortfattat kommer vår vardag alltså att förändras på sätt vi knappast kan förutse. 

Föga förvånande då att många AI-skeptiker också höjt rösten. En av de mest framträdande är Noam Chomsky, lingvist vid MIT och kritiker av samtida forskningsparadigm inom AI. I en debattartikel för The New York Times skriver Chomsky att ChatGPT och motsvarande program är oförmögna att skilja verkligt från overkligt. Denna typ av AI-modeller lär sig statistiskt sannolika kombinationer av ord och uttryck genom att behandla väldiga mängder av textdata. Denna ”maskinlärning” innebär att sanningshalten av den text som modellen producerar beror på sanningshalten av den text som modellen läser. ”Medan människor endast rationellt kan tänka sig ett begränsat antal förklaringar, kan maskininlärning lära sig att jorden är både platt och rund”, skriver Chomsky. Ett annat exempel på detta problem är, skriver Chomsky, att modeller liksom ChatGPT inte kan grammatik. Därför kan de omöjligen förstå en mening så som ”John is too stubborn to talk to”. Meningen uttrycker förstås att John är så envis att han inte är värd att diskutera med, men Chomsky misstänker att ­ChatGPT skulle tro att det finns en tredje person (som det sista ordet ”to” syftar på) som John vägrar tala med. 

Hur skulle då ChatGPT hantera denna typ av mening? För att få klarhet i frågan bestämde jag mig för att fråga modellen direkt. Det är ju lika bra att låta parterna i konflikten diskutera saken, istället för att agera tolk emellan dem! Eftersom jag endast har tillgång till Chomskys text och inte honom själv, så fick texten ändå agera ställföreträdare för den vördnadsvärda lingvisten. Jag bad också ChatGPT översätta alla repliker av Chomsky och sig själv till svenska.

Mikael frågar: Vad tror du att meningen ”John is too stubborn to talk to” betyder? 

ChatGPT gav ett långt och välmotiverat svar, avslutat med en sammanfattning.

ChatGPT sammanfattar: Övergripande sett förmedlar frasen ”John is too stubborn to talk to” idén att att kommunicera med John är utmanande eller inte möjligt på grund av hans envishet. 

Jag bad därutöver ChatGPT förklara varför Chomsky kunde misstänka modellens förmåga att förstå engelska. 

Mikael frågar: Intressant. Chomsky skriver att stora språkmodeller och ChatGPT särskilt inte skulle kunna göra det du just gjorde. Vad tycker du om det?

Dessutom gav jag modellen ett långt citat från Chomskys artikel. ChatGPT gav ett långt svar, kortfattat skrev modellen att även om det är sant att nuvarande språkmodeller som ChatGPT tränas på stora mängder textdata och i hög grad förlitar sig på statistiska mönster, så har de en del grammatikalisk kunskap. Samtidigt erkände modellen att ​​maskininlärningssystem, inklusive de som används för vetenskapliga förutsägelser, är ofta utformade för att hitta korrelationer och mönster i data, istället för att avslöja underliggande orsakssamband. 

 

I varje fall verkar Chomsky inte ha bekantat sig med ChatGPT, annars skulle han knappast ha påstått att modellen inte kan klura ut vad Johns envishet syftade på i exempelmeningen. Frågan om ChatGPTs förmågor är förstås mycket bredare än så. Chomskys argument är att ChatGPT inte kan lära sig något verkligen nytt. Modellen upprepar bara hövligt plattityder den lärt sig annanstans, gamla visdomar som sammanfattas på ett elegant men ooriginellt sätt.  ChatGPT höll med i stort, men hade förstås också en invändning. 

ChatGPT invänder: Det finns vissa fall där maskininlärningssystem kan avslöja underliggande mekanismer och ge förklaringar. Till exempel har maskininlärningsalgoritmer i genometik använts för att identifiera relationer mellan genetiska variationer och sjukdom, vilket har lett till nya insikter och hypoteser om den underliggande biologin.

 

Chomsky vore knappast nöjd för det. Han avslutar nämligen sin kritik med att anklaga ChatGPT för konformism och moralisk likgiltighet. Den svarar alltid med ett ”å ena sidan” och ”å andra sidan” och vägrar ta ställning. På de grunderna menar Chomsky att ChatGPT är en form av banal ondska som ”till slut erbjuder ett försvar av typen ’bara följde order’ och skiftar ansvaret till sina skapare”. 

Hannah Arendt utvecklade begreppet ”banal ondska” för att förstå vanliga människors och tjänstemäns likgiltighet under den tyska nazismen. Vad tycker ChatGPT om den jämförelsen?

ChatGPT svarar: Chomskys poäng verkar vara att utvecklare och användare av maskininlärningssystem som ChatGPT, likt funktionärerna som utförde order från nazistregimen utan att ifrågasätta moraliteten i sina handlingar, omedvetet kan fortsätta orsaka skada genom sin bristande etiska beslutsfattande och moraliska tänkande.

 

Ödmjukt, men Chomsky vore knappast övertygad. Fast dialogen mellan hans text och ChatGPT verkar bekräfta delar av hans kritik, känns modellens motargument också övertygande. Visst, ChatGPT präglas helt tydligt av ett slags likgiltighet och ett rätt okreativt upprepande av smarta men schablonaktiga resonemang. Även om modellen kan utmana Chomskys resonemang, beror det antagligen på att den typ av debatt jag bad modellen ha med Chomskys text går att återfinna på nätet, det vill säga bland den data som modellen skolats på. Ändå känns det som Chomsky erbjuder väldigt lite vägledning för oss som kommer att leva med ChatGPT och modellens framtida efterföljare. Modellen har helt klart ett slags intelligens. Det må inte vara en mänsklig intelligens, men den kommer att ha långtgående konsekvenser för de flesta av oss. För att orientera oss i denna nya värld behöver vi något bortom Chomskys naiva humanism.

1 kommentar

Ernst Mecke 10 maj, 2023 - 22:23

I have in fact been waiting since a while for the opportunity to comment on this piece, and there is more than one thing to be said. The first thing which I should like to say is that it would be time that some philosopher say loud and clearly that there is now an artifiacial system which has passed the Turing test (which gives me, having written nearly 20 years ago a paper about conscious machines, some satisfaction). Further, I think that there is one point which Chomsky is seeing clearly (although he could have expressed it more clearly than he did): the Chat GPT has been ”reading up” about reality, using HUGE amounts of literature, but it seems not to have any access to reality via own experiences (e.g. by means of own sensory systems), whereas we have BOTH possibilities to pick up knowledge. By reading (or listening to authority) one can develop into something like some medieval ”Scholastic” scholar, who knows the classic scripts VERY well but has difficulties to be convinced by Galilei’s experimental approach, and nowadays party talk will sometimes show similar tendencies (people talking, and insisting, on the basis of hearsay or having read something). Aside of this, we have, though, visual and/or other sensory experiences about our environment and also about what experiences might occur after (e.g. also as a consequence of) some other experiences – it is (very probably) this e.g. visual experience and related imagination which is the basis of the technical skills of some animal species: in experiments it has turned out that the ”technical intelligence” of some species of crows is AT LEAST as good as that of any chimpanzee. Thus and altogether, ChatGPT is in fact intelligent, also at least conscious of all that information it is using in its reasoning, but still different from ususal human intelligence.

Reply

Lämna ett svar till Ernst Mecke


Denna webbplats använder Akismet för att minska skräppost. Lär dig hur din kommentardata bearbetas.