Een nieuwe samenwerking tussen DeepMind en Stanford University
De samenwerking tussen DeepMind en Stanford University suggereert dat AI vaak niet beter is in abstract redeneren dan mensen. Machine learning-modellen baseren hun redeneerarchitectuur namelijk op praktische menselijke voorbeelden, waardoor ze gehinderd worden door cognitieve tekortkomingen. Dit kan een barrière vormen voor het superieure ‘blue sky’-denken waar velen op hopen van machine learning-systemen. AI weerspiegelt de menselijke ervaring en is vatbaar voor nadenken binnen menselijke grenzen.
Vooropleiding in abstract redeneren voor AI-modellen
De onderzoekers suggereren dat AI-modellen baat zouden kunnen hebben bij vooropleiding in abstract redeneren voordat ze taken uit de echte wereld uitvoeren. Het menselijk redeneervermogen wordt beïnvloed door eerdere ervaringen en context, en AI-modellen vertonen vergelijkbare gedragspatronen. Een periode van ‘formeel onderwijs’ zou kunnen helpen bij het ontwikkelen van logische redeneervaardigheden in AI op een puur abstracte manier.
Taalmodellen en menselijke redenering
Onderzoek toont aan dat taalmodellen vergelijkbare patronen vertonen als mensen bij logische redeneertaken. Taalmodellen zijn beperkt door hun gebrek aan ervaring in de echte wereld en passieve ervaring van taal, in tegenstelling tot de actieve participatie van mensen in sociale communicatie. Een periode van ‘formeel onderwijs’ kan nodig zijn om de logische redeneervaardigheden van AI te ontwikkelen op een vergelijkbare manier als bij een universiteitsstudent.
Testen van abstract redeneervermogen in AI
Om de abstracte redeneercapaciteiten van hyperschaal NLP-modellen te testen, bedachten de onderzoekers een reeks taalkundige tests. De tests werden uitgevoerd in verschillende iteraties om te zien hoe goed AI zich kon aanpassen aan abstracte redeneertaken. De resultaten tonen aan dat AI vergelijkbare prestaties levert als mensen in realistische taken die gebaseerd zijn op ervaring en context.
Conclusie
De bevindingen suggereren dat AI-modellen, net als mensen, inhoudelijke vooroordelen vertonen die voortkomen uit hun training en ervaring. Een periode van ‘inductietraining’ in puur redeneren kan de prestaties van taalmodellen verbeteren. Het begrip van de beperkingen van AI in vergelijking met menselijke redenering kan leiden tot verbeterde methoden voor de ontwikkeling van intelligente systemen.