DeepMind stelt dat AI menselijke cognitieve beperkingen kan overnemen

Simon Janssen
Leestijd 2 minuten

Een nieuwe samenwerking tussen DeepMind en Stanford University

De samenwerking tussen DeepMind en Stanford University suggereert dat AI vaak niet beter is in abstract redeneren dan mensen. Machine learning-modellen baseren hun redeneerarchitectuur namelijk op praktische menselijke voorbeelden, waardoor ze gehinderd worden door cognitieve tekortkomingen. Dit kan een barrière vormen voor het superieure ‘blue sky’-denken waar velen op hopen van machine learning-systemen. AI weerspiegelt de menselijke ervaring en is vatbaar voor nadenken binnen menselijke grenzen.

Vooropleiding in abstract redeneren voor AI-modellen

De onderzoekers suggereren dat AI-modellen baat zouden kunnen hebben bij vooropleiding in abstract redeneren voordat ze taken uit de echte wereld uitvoeren. Het menselijk redeneervermogen wordt beïnvloed door eerdere ervaringen en context, en AI-modellen vertonen vergelijkbare gedragspatronen. Een periode van ‘formeel onderwijs’ zou kunnen helpen bij het ontwikkelen van logische redeneervaardigheden in AI op een puur abstracte manier.

Taalmodellen en menselijke redenering

Onderzoek toont aan dat taalmodellen vergelijkbare patronen vertonen als mensen bij logische redeneertaken. Taalmodellen zijn beperkt door hun gebrek aan ervaring in de echte wereld en passieve ervaring van taal, in tegenstelling tot de actieve participatie van mensen in sociale communicatie. Een periode van ‘formeel onderwijs’ kan nodig zijn om de logische redeneervaardigheden van AI te ontwikkelen op een vergelijkbare manier als bij een universiteitsstudent.

Testen van abstract redeneervermogen in AI

Om de abstracte redeneercapaciteiten van hyperschaal NLP-modellen te testen, bedachten de onderzoekers een reeks taalkundige tests. De tests werden uitgevoerd in verschillende iteraties om te zien hoe goed AI zich kon aanpassen aan abstracte redeneertaken. De resultaten tonen aan dat AI vergelijkbare prestaties levert als mensen in realistische taken die gebaseerd zijn op ervaring en context.

Conclusie

De bevindingen suggereren dat AI-modellen, net als mensen, inhoudelijke vooroordelen vertonen die voortkomen uit hun training en ervaring. Een periode van ‘inductietraining’ in puur redeneren kan de prestaties van taalmodellen verbeteren. Het begrip van de beperkingen van AI in vergelijking met menselijke redenering kan leiden tot verbeterde methoden voor de ontwikkeling van intelligente systemen.

TAGGED:
Share This Article
Volg:
Simon Janssen is een technologie-enthousiast die al meer dan 20 jaar gefascineerd is door de wereld van techniek en software. Zijn reis begon met het eigenhandig assembleren van computers, maar al snel verlegde hij zijn focus naar web development. Hij begon enkele jaren geleden met het creëren van zijn eerste websites en heeft sindsdien een schat aan kennis opgebouwd op het gebied van online marketing, SEO en front-end development. Met de opkomst van kunstmatige intelligentie heeft Simon altijd zijn vinger aan de pols gehouden, en hij maakt dagelijks gebruik van AI-tools zoals Chat GPT om zijn passie voor technologie en software verder te verkennen en te delen.