Grote bedrijfsmodellen (LAM's) zorgen voor een revolutie in de wereld van AI ten opzichte van traditionele modellen.
De opkomst van generatieve, op AI gebaseerde chatbots heeft geleid tot het concept van een 'groot taalmodel' (LLM), een geavanceerde AI-technologie die natuurlijke taal analyseert en begrijpt om zinvolle antwoorden te genereren op basis van gebruikersvragen. Grote taalmodellen zijn in staat consistente, mensachtige inhoud te genereren, waardoor de indruk ontstaat dat AI een eigen vorm van ‘denken’ heeft.
Taalmodellen zijn echter niet de enige technologie die bijdraagt aan de ontwikkeling van kunstmatige intelligentie; Grote bedrijfsmodellen (LAM's) zijn wellicht de volgende stap. Deze modellen richten zich op het verbeteren van analytische en besluitvormingscapaciteiten in praktische contexten, wat potentieel een transformatie teweeg kan brengen in gebieden als automatisering en bedrijfsbeheer. In dit artikel leggen we uit hoe LLM's en LAM's werken en welke impact ze steeds meer hebben op het verbeteren van AI-toepassingen en het uitbreiden van de reikwijdte ervan.

Wat is een groot bedrijfsmodel (LAM)?
Een Large Action Model (LAM) is een kunstmatige-intelligentiemodel dat menselijke input kan begrijpen en de bijbehorende actie kan uitvoeren, waardoor het op een mensachtige manier met de wereld kan communiceren. Dit is een iets andere aanpak dan AI-modellen die zich uitsluitend richten op het genereren van reacties. De term ‘groot bedrijfsmodel’ werd voor het eerst geïntroduceerd door Rabbit Inc, ontwikkelaar van de Rabbit R1. In de Rabbit R1-lanceringsvideo van het bedrijf staat dat LAM een nieuw fundamenteel model is dat AI helpt om van woorden naar daden te gaan.
LAM's worden getraind op grote sets gebruikersactiegegevens; Daarom leren ze door menselijke handelingen te imiteren of door demonstraties. Via een demo kan het LAM-model de gebruikersinterfaces van verschillende websites of mobiele applicaties begrijpen en navigeren, en specifieke acties uitvoeren op basis van uw instructies. Volgens KonijnLAM kan dit bereiken, zelfs als de interface enigszins is gewijzigd.
Je kunt LAM's zien als een uitbreiding van de bestaande mogelijkheden van LLM's. Terwijl generatieve tekst- of media-uitvoer in LLM's afhankelijk is van gebruikersinvoer door het volgende woord of token te voorspellen (u stelt een vraag en het LLM-model levert tekst- of media-uitvoer), gaan LAM's een stap verder door de mogelijkheid toe te voegen om complexe acties namens u uit te voeren.
Wat kunnen LAM's doen?
LAM's gaan over het uitvoeren van complexe acties namens u. Het cruciale punt om op te merken is echter het vermogen om complexe procedures uit te voeren. Dit maakt LAM's nuttiger voor geavanceerde taken, maar dat betekent niet dat ze geen eenvoudigere procedures kunnen uitvoeren.
In theorie betekent dit dat je bijvoorbeeld het LAM-model kunt vragen iets voor je te doen, zoals een kopje koffie bestellen bij je plaatselijke café, of een Uber-rit maken, en zelfs een hotelreservering maken. Het is dus anders dan het uitvoeren van eenvoudige taken zoals het vragen aan Google Assistant, Siri of Alexa om de tv of de woonkamerverlichting aan te doen.
Volgens de visie van Rabbit Inc. kan het LAM-model onder de motorkap toegang krijgen tot een relevante website of app, zoals Uber, en door de interface navigeren om actie te ondernemen, zoals een rit aanvragen of een rit annuleren als u van gedachten verandert.
LAM's zullen beter presteren dan LLM's, maar ze zijn er (nog) niet klaar voor
Het concept van LAM's is spannend, misschien nog wel spannender dan LLM's. Grote Actiemodellen (LAM’s) zullen de toekomst zijn na generatieve AI, waardoor we alledaagse taken kunnen compenseren en ons kunnen concentreren op andere vervullende activiteiten. Hoe opwindend het ook klinkt, LAM's zijn echter nog niet klaar.
Het eerste commerciële product dat beloofde gebruik te maken van LAM (Rabbit r1) voldeed niet volledig aan zijn marketingbelofte om acties uit te voeren namens zijn gebruikers. Het apparaat faalde zo slecht op zijn belangrijkste verkoopargument dat veel recensies uit de eerste hand het als tamelijk nutteloos beschreven.
Erger nog: uit een onderzoek van YouTuber Coffeezilla, in samenwerking met een selecte groep software-ingenieurs met toegang tot een deel van de Rabbit r1-basis, bleek dat Rabbit Playwright-scripts gebruikte om acties uit te voeren in plaats van LAM. Dus in plaats van dat een machine een uniek AI-model draaide, voerde deze eigenlijk alleen maar een reeks If > then-instructies uit; Dit staat ver af van het beloofde LAM-model.
Als je één ding van de Rabbit R1 kunt leren, is het wel dat de visie er is. Er moet echter eerst werk worden verricht vóór de implementatie, dus wees nog niet te enthousiast.
Reacties zijn gesloten.