Studie: AI-ruis belemmert echt AI-onderzoek

Een nieuw onderzoek dat deze maand werd gepubliceerd door de Association for the Advancement of Artificial Intelligence (AAAI), waaraan honderden AI-onderzoekers deelnamen, heeft een belangrijke bevinding: het is onwaarschijnlijk dat onze huidige benadering van AI zal leiden tot kunstmatige algemene intelligentie.

Kunstmatige intelligentie (AI) is de afgelopen jaren een populair gespreksonderwerp geweest, maar AI als wetenschappelijk onderzoeksgebied bestaat al tientallen jaren. Zo werden in 1950 het beroemde artikel "Computing Machinery and Intelligence" van Alan Turing gepubliceerd, en ook de Turing-test waar we vandaag de dag nog steeds over spreken.

De AI waar iedereen het tegenwoordig over heeft, is ontstaan ​​uit tientallen jaren van onderzoek, maar beweegt zich er ook steeds verder van af. In plaats van een wetenschappelijk onderzoeksgebied hebben we nu ook een aparte tak van AI die we 'commerciële AI' kunnen noemen.

Grafieken van AI-producten.

Grote monopolies zoals Microsoft, Google, Meta, Apple en Amazon zijn koplopers op het gebied van commerciële AI-inspanningen, met als voornaamste doel het creëren van AI-producten. Dit zou geen probleem moeten zijn, maar het lijkt er nu wel op.

Ten eerste, omdat de meeste mensen pas een paar jaar onderzoek doen naar AI, is alles wat de gemiddelde persoon over AI weet afkomstig van deze bedrijven en niet van de wetenschappelijke gemeenschap. De studie omvat Dit onderwerp wordt behandeld in het hoofdstuk 'Perceptie versus realiteit', waarin 79% van de deelnemende wetenschappers van mening is dat de huidige percepties van AI-mogelijkheden niet overeenkomen met de realiteit van AI-onderzoek en -ontwikkeling.

Met andere woorden: wat het grote publiek denkt dat AI kan, komt niet overeen met wat wetenschappers denken dat AI kan. De reden hiervoor is even simpel als ongelukkig: als een topman in de techsector een uitspraak doet over AI, is dat geen wetenschappelijke mening, maar productmarketing. Ze willen reclame maken voor de technologie die ten grondslag ligt aan hun nieuwe producten en ervoor zorgen dat iedereen zin krijgt om mee te doen.

Als hij zegt Sam Altman أو Mark Zuckerberg Banen in de softwareontwikkeling zullen bijvoorbeeld worden vervangen door AI, omdat men ingenieurs wil aanzetten om AI-vaardigheden te leren en technologiebedrijven wil aanzetten om te investeren in dure bedrijfsplannen. Maar tenzij ze hun technici gaan vervangen (en daar hun voordeel mee doen), zou ik persoonlijk geen woord geloven van wat ze hierover zeggen.

Commerciële AI beïnvloedt echter niet alleen de perceptie van het publiek. Deelnemers aan het onderzoek zijn van mening dat de door grote technologiebedrijven gecreëerde ‘AI-hype’ schadelijk is voor onderzoeksinspanningen. Zo is 74% het ermee eens dat de richting van AI-onderzoek wordt bepaald door hype. Dit komt waarschijnlijk doordat onderzoek dat aansluit bij commerciële AI-doelen makkelijker te financieren is. 12% is ook van mening dat theoretisch AI-onderzoek hieronder lijdt.

Hoe ernstig is dit probleem? Ook al beïnvloeden grote technologiebedrijven het soort onderzoek dat wij doen, de enorme bedragen die zij vermoedelijk in dit vakgebied steken, zouden over het geheel genomen een positieve impact moeten hebben. Maar variatie is essentieel als het om onderzoek gaat: we moeten allerlei verschillende paden bewandelen om kans te maken het beste pad te vinden.

Maar grote techbedrijven richten zich momenteel maar op één ding: grote taalmodellen. Dit zeer specifieke type AI-model is de drijvende kracht achter bijna alle nieuwste AI-producten, en mensen zoals Sam Altman geloven dat we uiteindelijk algemene AI zullen bereiken door deze modellen steeds grootschaliger te maken (d.w.z. door ze meer data, meer trainingstijd en meer rekenkracht te geven).

Dit idee, ook wel de schaalhypothese genoemd, stelt dat hoe meer kracht we in AI stoppen, hoe groter de cognitieve capaciteiten ervan zijn en hoe lager de foutmarge. Sommige interpretaties beweren ook dat er onverwacht nieuwe cognitieve vaardigheden ontstaan. Grote taalmodellen zijn nu nog niet zo goed in het plannen en redeneren over problemen, maar op een gegeven moment moeten deze vaardigheden zich toch ontwikkelen.

De afgelopen maanden is er echter veel kritiek gekomen op de expansiehypothese. Sommige wetenschappers geloven dat het opschalen van grote taalmodellen nooit tot AGI zal leiden, en zij geloven dat alle extra kracht die we aan Nieuwe modellen Het levert geen resultaten meer op. In plaats daarvan zijn we tegen een 'schaalmuur' of 'schaallimiet' aangelopen, waarbij grote hoeveelheden computerkracht en extra gegevens slechts tot kleine verbeteringen in nieuwe modellen leiden. De meeste wetenschappers die betrokken waren bij het AAAI-onderzoek, staan ​​aan deze kant van het argument:

De meerderheid van de respondenten (76%) gaf aan dat het "onwaarschijnlijk" of "zeer onwaarschijnlijk" is dat "het opschalen van huidige AI-benaderingen" zal slagen om AGI te bereiken. Dit duidt op twijfels of huidige machine learning-modellen voldoende zijn om algemene intelligentie te bereiken.

Huidige grote taalsystemen kunnen zeer relevante en nuttige antwoorden produceren als de zaken goed gaan, maar ze Gebaseerd op wiskundige principes Om dat te doen. Veel wetenschappers geloven dat we nieuwe algoritmes nodig hebben die logica, rede en feitelijke kennis gebruiken om tot oplossingen te komen als we vooruitgang willen boeken op weg naar kunstmatige algemene intelligentie. Hier is een bijtend citaat over grote taalsystemen en algemene kunstmatige intelligentie van Onderzoekspaper 2022 Door Jacob Browning en Yann LeCun.

Een systeem dat enkel op taal is getraind, zal nooit in de buurt komen van de menselijke intelligentie, zelfs niet als het vanaf nu getraind zou worden totdat de warmte van het heelal is verdwenen.

Maar we weten nog niet echt wie hier is. Enerzijds is de definitie van algemene kunstmatige intelligentie niet vastomlijnd en streeft niet iedereen hetzelfde na. Sommige mensen geloven dat algemene kunstmatige intelligentie (AI) mensachtige reacties moet produceren met behulp van mensachtige methoden – dat wil zeggen dat het de wereld om zich heen moet observeren en problemen op een vergelijkbare manier moet oplossen als wij. Anderen vinden dat algemene AI zich meer moet richten op correcte antwoorden in plaats van op menselijke antwoorden, en dat het niet uitmaakt welke methoden ze daarvoor gebruiken.

In veel opzichten maakt het echter niet zoveel uit in welke versie van AGI je geïnteresseerd bent, of of je voor of tegen de opschalingshypothese bent: we moeten onze onderzoeksinspanningen nog steeds diversifiëren. Als we ons alleen richten op het opschalen van grote taalmodellen, moeten we helemaal opnieuw beginnen als ze niet werken. Bovendien bestaat de kans dat we er niet in slagen nieuwe, effectievere of efficiëntere methoden te ontdekken. Veel wetenschappers die bij dit onderzoek betrokken waren, vrezen dat commerciële AI en de hype eromheen de daadwerkelijke vooruitgang zullen afremmen. We kunnen echter alleen maar hopen dat hun zorgen worden aangepakt en dat beide takken van AI-onderzoek naast elkaar kunnen bestaan ​​en samen vooruitgang kunnen boeken. Nou ja, je kunt ook hopen dat AI-bubbel Alle door AI aangestuurde technische producten exploderen en verdwijnen in de vergetelheid, als je dat liever hebt.

Reacties zijn gesloten.