Analytische AI: uw kans in het tijdperk van LLM-agenten – van FOMO naar het grijpen van de kans

Waarom de haast om Large Language Model (LLM)-agenten analytische AI ​​niet overbodig zal maken

Hebt u last van ‘fear of missing out’ (FOMO) als het gaat om LLM-agenten (Large Language Model)? Ja, zo heb ik me een hele tijd gevoeld.

De afgelopen maanden lijken mijn online nieuwsfeeds overspoeld te zijn met ‘Large Language Model (LLM) agents’: elke andere techblog probeert me te laten zien ‘hoe je in 5 minuten een agent bouwt’. In elk stukje technisch nieuws komt weer een glimmende startup aan bod die producten bouwt op basis van LLM-agenten (Large Language Model), of een groot technisch bedrijf dat een nieuwe bibliotheek voor het bouwen van agenten uitbrengt of een agentprotocol met een mooie naam uitbrengt (heb je wel genoeg MCP en Agent2Agent gezien?).

Opeens lijken grote taalmodellen (LLM's) overal te zijn. Al deze flitsende demo's laten zien dat deze digitale beesten meer dan in staat lijken om code te schrijven, workflows te automatiseren en inzichten te ontdekken. Ze dreigen zelfs alles te vervangen... nou ja, bijna alles.

Helaas zijn veel van onze zakelijke klanten het hiermee eens. Ze vragen actief om proxyfuncties in hun producten te integreren. Ze aarzelen niet om nieuwe agentontwikkelingsprojecten te financieren, uit angst om achterop te raken bij de concurrentie bij het benutten van deze nieuwe technologie.

Als beoefenaar vanAnalytische kunstmatige intelligentieNadat ik de indrukwekkende makelaarsdemo's had gezien die mijn collega's hadden gemaakt en de lovende recensies van klanten, moet ik toegeven dat ik een ernstig geval van FOMO (fear of missing out) had.

Ik vroeg me eerlijk gezegd af: wordt het werk dat ik doe steeds irrelevanter?

Nadat ik met deze vraag had geworsteld, kwam ik tot de volgende conclusie:

Nee, dat is helemaal niet het geval.

In dit blogbericht wil ik mijn gedachten delen over de redenen waarom de snelle opkomst van Grote taalmodel (LLM)-agenten Het belang van analytische kunstmatige intelligentie. Ik geloof dat het juist het tegenovergestelde doet: het creëert ongekende mogelijkheden voor zowel analytische AI ​​als agentische AI.

Laten we eens kijken waarom.

Voordat we in de details duiken, willen we eerst de terminologie even verduidelijken:

  • Analytische AIIk doel hierbij vooral op statistische modellering en machine learning-technieken toegepast op kwantitatieve en numerieke gegevens. Denk aan industriële toepassingen zoals anomaliedetectie, tijdreeksvoorspellingen, optimalisatie van productontwerp, voorspellend onderhoud, digitale tweelingen, enzovoort.
  • Grote taalmodelagenten (LLM-agenten):Ik verwijs naar AI-systemen die grote taalmodellen (LLM's) gebruiken als kern die taken autonoom kunnen uitvoeren door het combineren van het begrijpen van natuurlijke taal, redeneren, plannen, geheugen en het gebruik van tools.
  • Analytische AIIk doel hierbij vooral op statistische modellering en machine learning-technieken toegepast op kwantitatieve en numerieke gegevens. Denk aan industriële toepassingen zoals anomaliedetectie, tijdreeksvoorspellingen, optimalisatie van productontwerp, voorspellend onderhoud, digitale tweelingen, enzovoort.
  • Grote taalmodelagenten (LLM-agenten):Ik verwijs naar AI-systemen die grote taalmodellen (LLM's) gebruiken als kern die taken autonoom kunnen uitvoeren door het combineren van het begrijpen van natuurlijke taal, redeneren, plannen, geheugen en het gebruik van tools.

 

Standpunt 1: Analytische AI ​​vormt de cruciale kwantitatieve basis voor LLM-agenten (Large Language Model).

Ondanks indrukwekkende mogelijkheden op het gebied van het begrijpen en genereren van natuurlijke taal, ontberen grote taalmodellen (LLM's) fundamenteel de kwantitatieve nauwkeurigheid die voor veel industriële toepassingen vereist is. Hierbij is analytische AI ​​onmisbaar, aangezien LLM-agenten (Large Language Models) de benodigde, sterke wiskundige basis bieden.

Er zijn een paar belangrijke manieren waarop analytische AI ​​de prestaties kan verbeteren, door LLM-agenten (Large Language Model) te voorzien van een precieze wiskundige basis en ervoor te zorgen dat ze in overeenstemming met de werkelijkheid werken:

 

🛠️ Analytische kunstmatige intelligentie als essentiële tools

Het integreren van analytische AI ​​als gespecialiseerde, aanroepbare hulpmiddelen is het meest voorkomende patroon om LLM-agenten (Large Language Model) te voorzien van kwantitatieve fundamenten.

Er bestaat een lange traditie (vóór de huidige hype rondom grote taalmodellen) om gespecialiseerde analytische AI-hulpmiddelen te ontwikkelen voor diverse sectoren, om uitdagingen aan te pakken met behulp van echte operationele data. Deze uitdagingen, of het nu gaat om het voorspellen van apparatuuronderhoud of het voorspellen van energieverbruik, vereisen een hoge numerieke nauwkeurigheid en geavanceerde modelleringsmogelijkheden. Eerlijk gezegd verschillen deze mogelijkheden fundamenteel van de linguïstische en inferentiële sterke punten die kenmerkend zijn voor de grote taalmodellen van vandaag de dag.

Deze solide basis voor analytische AI ​​is niet alleen relevant, maar ook essentieel voor het realiseren van grote taalmodelagenten met realistische nauwkeurigheid en operationele betrouwbaarheid. Het hoofdmotief hier is scheiding van belangenLaat agenten met grote taalmodellen het begrip, redeneren en plannen afhandelen, terwijl analytische AI-hulpmiddelen de gespecialiseerde kwantitatieve analyses uitvoeren waarvoor ze zijn getraind.

In dit model kunnen analytische AI-tools meerdere cruciale rollen vervullen. In de eerste plaats kunnen ze Verbetering van de mogelijkheden van agenten Met bovennatuurlijke analytische vermogens die hij van nature niet heeft. Ze kunnen ook Controleer agent-outputs/hypotheses versus echte gegevens en geleerde patronen. Eindelijk kunnen ze Het opleggen van materiële beperkingen, waardoor ervoor gezorgd wordt dat agenten binnen een realistisch haalbaar gebied opereren.

Om een ​​concreet voorbeeld te geven: stel je een grote taalmodelagent voor die de taak heeft een complex halfgeleiderproductieproces te optimaliseren om de productiviteit te verhogen en de stabiliteit te behouden. In plaats van uitsluitend te vertrouwen op tekstlogboeken en notities van de operator, communiceert de agent voortdurend met een reeks gespecialiseerde analytische AI-tools om in realtime een kwantitatief en contextueel rijk inzicht te krijgen in het proces.

Om bijvoorbeeld het doel van een hoge doorvoer te bereiken, vraagt ​​de agent: XGBoost-model Vooraf getraind om de potentiële productiviteit te voorspellen op basis van honderden sensormetingen en procesparameters. Dit geeft de agent inzicht in de kwaliteitsresultaten.

Om tegelijkertijd de processtabiliteit voor een consistente kwaliteit te garanderen, belt de agent autoencodermodel (Vooraf getraind op normale procesgegevens) om potentiële afwijkingen of storingen in de apparatuur te identificeren Voordat Om de productie te verstoren.

Wanneer er potentiële problemen ontstaan, zoals aangegeven door het anomaliedetectiemodel, zou de agent idealiter koerscorrecties moeten doorvoeren. Om dit te doen, is het nodig Beperkingengebaseerd optimalisatiemodel, die gebruik maakt van een algoritme Bayesiaanse optimalisatie Om optimale aanpassingen van procesparameters aan te bevelen.

In dit scenario fungeert de grote taalmodelagent in feite als een intelligente coördinator. Het interpreteert doelstellingen op hoog niveau, plant query's in geschikte analytische AI-tools, leidt de kwantitatieve uitkomsten hiervan af en vertaalt deze complexe analyses naar bruikbare inzichten voor operators of activeert zelfs geautomatiseerde aanpassingen. Dankzij deze samenwerking blijven agenten van grote taalmodellen robuust en betrouwbaar bij het aanpakken van complexe, reële industriële problemen.

 

🪣 Analytische AI ​​als digitale testomgeving

Naast dat het een oproepbaar hulpmiddel is, biedt analytische AI ​​nog een andere cruciale mogelijkheid: het creëren Simulatieomgevingen Realisme waarbij LLM-agenten (Large Language Models) worden getraind en geëvalueerd voordat ze met de fysieke wereld interacteren. Dit is vooral waardevol in industriële omgevingen waar storingen ernstige gevolgen kunnen hebben, zoals schade aan apparatuur of veiligheidsincidenten. Deze digitale simulatie is essentieel om de operationele veiligheid te garanderen en de prestaties te verbeteren.

Analytische AI-technieken kunnen zeer nauwkeurige representaties van industriële activa of processen maken door te leren van zowel historische operationele gegevens als de bijbehorende fysieke vergelijkingen (denk aan methoden als op natuurkunde gebaseerde neurale netwerken). Dit is verbazingwekkend digitale tweeling Legt de fundamentele fysieke principes, operationele beperkingen en inherente variabiliteit van het systeem vast. Het gebruik van deze digitale tweelingen maakt nauwkeurige analyses en betrouwbare voorspellingen mogelijk.

In deze virtuele wereld die wordt aangestuurd door analytische AI, kan een LLM-agent (Large Language Model) worden getraind door eerst gesimuleerde sensorgegevens te ontvangen, beslissingen te nemen over controleacties en vervolgens de systeemreacties te observeren die zijn berekend door de analytische AI-simulatie. Hierdoor kunnen agenten in een veel kortere tijd vele proefondervindelijke leercycli doorlopen en zichzelf op een veilige manier blootstellen aan een scala aan realistische bedrijfsomstandigheden. Hierdoor wordt het ontwikkelingsproces versneld en worden de risico’s verkleind.

Naast het trainen van agenten bieden deze simulaties, aangestuurd door analytische AI, een gecontroleerde omgeving voor Evaluatie en vergelijking Test nauwkeurig de prestaties en robuustheid van verschillende versies van agentconfiguraties of besturingsbeleid voordat u deze in de praktijk implementeert. Deze uitgebreide evaluatie garandeert optimale prestaties en betrouwbaarheid.

Om een ​​concreet voorbeeld te geven: het beheer van het elektriciteitsnet. Een groot taalmodel (LLM)-agent (of meerdere agenten) die zijn ontworpen om de integratie van hernieuwbare energie te optimaliseren, kunnen worden getest in een dergelijke gesimuleerde omgeving, ondersteund door meerdere analytische AI-modellen: we kunnen een model hebben Fysica-geïnformeerd neuraal netwerk (PINN) om complexe dynamische energiestromen te beschrijven. We kunnen ook gebruikmaken van probabilistische voorspellingsmodellen om realistische weerpatronen en hun invloed op de opwekking van duurzame energie te simuleren. In deze rijke omgeving kunnen de LLM-agenten (Large Language Model) leren om geavanceerde besluitvormingsbeleid te ontwikkelen om het netwerk in balans te houden bij verschillende weersomstandigheden, zonder het risico te lopen dat de dienstverlening daadwerkelijk wordt verstoord. Dit maakt een efficiënt en duurzaam beheer van het elektriciteitsnet mogelijk.

Het komt erop neer dat dit allemaal niet mogelijk zou zijn zonder analytische AI. Het vormt de kwantitatieve basis en de fysieke beperkingen die de ontwikkeling van veilige en efficiënte agenten tot een realiteit maken. Analytische AI ​​is de hoeksteen voor de ontwikkeling van intelligente en betrouwbare systemen.

 

📈 Analytische kunstmatige intelligentie als operationeel hulpmiddel

Als we nu vanuit een nieuw perspectief naar het grotere geheel kijken, Is een LLM-agent (een groot taalmodel) – of zelfs een team ervan – niet gewoon een ander soort operationeel systeem, dat beheerd moet worden als elk ander industrieel bezit/proces?

Dit betekent feitelijk dat alle principes van ontwerp, optimalisatie en monitoring van systemen nog steeds van toepassing zijn. En weet je wat? Analytische AI ​​is hét hulpmiddel daarvoor.

Opnieuw heeft analytische AI ​​het potentieel om ons verder te brengen dan de experimentele trial-and-error-methode (huidige praktijken) en ons te richten op nieuwe manieren van Objectiviteit وDatagedreven Om intelligente systemen te beheren. Hoe zit het met het gebruik van Bayesiaans optimalisatiealgoritme Om de agentarchitectuur en -configuraties te ontwerpen? Hoe zit het met accreditatie? Technieken voor operationeel onderzoek Om de toewijzing van computerbronnen te verbeteren of orderwachtrijen efficiënter te beheren? Hoe zit het met het gebruik van methoden? Detectie van anomalieën in tijdreeksen Om agenten te waarschuwen voor real-time gedrag?

Door een LLM-agent (Large Language Model) te behandelen als een complex systeem dat onderhevig is aan kwantitatieve analyse, ontstaan ​​er veel nieuwe mogelijkheden. Het is juist deze operationele discipline, mogelijk gemaakt door analytische AI, die deze agenten kan verheffen van louter ‘demonstratie’ tot iets betrouwbaars, efficiënts en ‘werkelijk bruikbaars’ in moderne industriële operaties.

 

Standpunt 2: Analytische AI ​​kan worden versterkt door LLM-agenten (Large Language Model) dankzij hun contextuele intelligentie..

We hebben uitgebreid besproken hoe belangrijk analytische AI ​​is voor het grote ecosysteem van taalmodelagenten. Maar deze krachtige synergie werkt beide kanten op. Analytische AI ​​kan ook de unieke sterke punten van grote taalmodelagenten benutten om de bruikbaarheid, effectiviteit en uiteindelijk de impact in de echte wereld te verbeteren. Dit zijn punten die analytische AI-professionals niet willen missen over grote taalmodelagenten, omdat ze de data-analyse en besluitvormingsprocessen aanzienlijk kunnen verbeteren.

 

🧩 Van vage doelen naar oplosbare problemen

Vaak begint de behoefte aan analyse met een vaag bedrijfsdoel op hoog niveau, zoals: ‘We moeten de productkwaliteit verbeteren.’ Om dit doel haalbaar te maken, moeten beoefenaars van analytische AI ​​herhaaldelijk verduidelijkende vragen stellen om de werkelijke doelfuncties, specifieke beperkingen en beschikbare invoergegevens te achterhalen. Dit leidt onvermijdelijk tot een zeer tijdrovend proces. Hiervoor is diepgaand inzicht nodig in relevante KPI's (Key Performance Metrics).

Het goede nieuws is dat LLM-agenten (Large Language Model) hierin excelleren. Ze kunnen deze dubbelzinnige, in natuurlijke taal gestelde vragen interpreteren, verhelderende vragen stellen en deze formuleren in goed gestructureerde kwantitatieve problemen die direct kunnen worden opgelost met analytische AI-tools. Hierdoor wordt het proces van het identificeren en formuleren van problemen aanzienlijk versneld, wat kostbare tijd bespaart voor data-analyseteams.

 

📚 Verrijking van AI-analysemodellen met context en kennis

Traditionele analytische AI-modellen werken voornamelijk met numerieke gegevens. Voor grotendeels ongebruikte, ongestructureerde gegevens kunnen LLM-agenten (Large Language Model) zeer nuttig zijn om nuttige informatie te extraheren voor kwantitatieve analyses.

LLM-agenten (Large Language Model) kunnen bijvoorbeeld documenten, rapporten en tekstlogboeken analyseren om belangrijke patronen te identificeren en deze kwalitatieve observaties om te zetten in kwantitatieve kenmerken die analytische AI-modellen kunnen verwerken. Vaak verbetert een stap Functietechniek Hierdoor worden de prestaties van analytische AI-modellen aanzienlijk verbeterd, doordat ze toegang krijgen tot inzichten die zijn verankerd in ongestructureerde data en die ze anders misschien zouden missen. Geavanceerde feature engineering is essentieel om de nauwkeurigheid van modellen te verbeteren.

Een ander belangrijk gebruiksvoorbeeld is Gegevenslabeling. Hier kunnen LLM-agenten (Large Language Model) automatisch nauwkeurige klasselabels en annotaties genereren. Door het leveren van hoogwaardige trainingsgegevens kunnen zij de ontwikkeling van hoogwaardige modellen voor begeleid leren aanzienlijk versnellen.

Ten slotte, door gebruik te maken van kennis Large Language Models (LLM)-agenten, ongeacht of Vooraf getraind In het Large Language Model (LLM) of Actief gezocht In externe databases kunnen LLM-agenten (Large Language Model) de instelling van geavanceerde analysepijplijnen automatiseren. Agenten van grote taalmodellen (LLM) kunnen op basis van de kenmerken van het probleem passende algoritmen en parameterinstellingen aanbevelen [1], code genereren om aangepaste probleemoplossingsstrategieën te implementeren, of zelfs automatisch experimenten uitvoeren om hyperparameters af te stemmen [2].

 

💡Van technische uitkomsten naar bruikbare inzichten

Analytische AI-modellen produceren vaak complexe uitkomsten en het correct interpreteren ervan vergt deskundigheid en tijd. Aan de andere kant kunnen grote taalmodellen (LLM's) als 'vertalers' fungeren door deze dichte kwantitatieve resultaten om te zetten in heldere, toegankelijke verklaringen in natuurlijke taal.

Deze rol van interpreteerbaarheid speelt een cruciale rol in uitgelegd Beslissingen worden genomen door analytische AI-modellen, op een manier die menselijke operators snel kunnen begrijpen en waarop ze kunnen handelen. Daarnaast kan deze informatie van grote waarde zijn voor modelontwikkelaars, waarmee ze de uitkomsten van modellen kunnen valideren, potentiële problemen kunnen identificeren en de prestaties van modellen kunnen verbeteren. Dit proces leidt tot een dieper begrip van AI-processen.

Naast technische uitleg kunnen LLM-agenten ook gepersonaliseerde antwoorden genereren voor verschillende soorten doelgroepen: technische teams ontvangen gedetailleerde methodologische uitleg, operationeel personeel kan praktische implicaties zien en leidinggevenden kunnen samenvattingen ontvangen met daarin belangrijke cijfers over de impact op de bedrijfsvoering. Door deze maatwerkoplossing kunnen we garanderen dat de juiste informatie bij de juiste belanghebbenden terechtkomt.

Door op te treden als Vertalers Tussen analytische systemen en menselijke gebruikers kunnen LLM-agenten (Large Language Model) de praktische waarde van analytische AI ​​aanzienlijk vergroten.

 

Standpunt 3: Misschien ligt de toekomst in echte samenwerking tussen analytische AI ​​en agent-AI.

Of LLM-agenten (Large Language Model) nu een beroep doen op analytische AI-hulpmiddelen of dat analytische systemen LLM-agenten gebruiken voor interpretatie, de benaderingen die we tot nu toe hebben besproken, draaiden altijd om het feit dat één type AI verantwoordelijk is voor een ander type. Dit brengt feitelijk een aantal beperkingen met zich mee die de moeite van het bestuderen waard zijn.

In de eerste plaats worden analytische AI-componenten in het huidige model alleen als passieve hulpmiddelen gebruikt en worden ze alleen aangeroepen wanneer het grote taalmodel daartoe besluit. Hierdoor kunnen ze niet proactief inzichten aandragen of aannames in twijfel trekken.

Bovendien is de typische agentenlus van “plannen-bellen-reageren-handelen” sequentieel van aard. Dit kan inefficiënt zijn voor taken die kunnen profiteren van parallelle verwerking of asynchrone AI-interactie.

Een andere beperkende factor is de beperkte bandbreedte van de verbinding. API-aanroepen kunnen mogelijk niet de rijke context bieden die nodig is voor een echte dialoog of tussentijdse uitwisseling van conclusies.

Om grote taalmodelagenten voor analytische AI-hulpmiddelen te begrijpen, is beknopte documentatie en een parameterschema vaak essentieel. Agenten met grote taalmodellen maken vaker fouten bij de selectie van tools, terwijl analytische AI-componenten niet over de context beschikken om te herkennen wanneer ze verkeerd worden gebruikt.

Het feit dat het terugroeppatroon van gereedschap tegenwoordig wijdverbreid is, betekent niet dat de toekomst er hetzelfde uit zal zien. Misschien ligt de toekomst in een model van echte peer-to-peer-samenwerking, waarin geen enkele AI dominant is.

Hoe zou dit er in de praktijk uit kunnen zien? Een interessant voorbeeld dat ik vond, is een oplossing van Siemens [3].

In hun slimme fabriekssysteem is een digitaal tweelingmodel opgenomen dat voortdurend de gezondheid van de apparatuur bewaakt. Wanneer de conditie van de versnellingsbak verslechtert, wacht het analytische AI-systeem niet totdat er een melding wordt gedaan, maar genereert het proactief waarschuwingen. De Copilot LLM-agent bewaakt dezelfde gebeurtenisvector. Wanneer het systeem wordt gewaarschuwd, (1) kruisverwijst het naar onderhoudsgegevens, (2) “vraagt” het de tweeling om simulaties opnieuw uit te voeren met de komende dienstpatronen, en (3) adviseert het aanpassingen aan de planning om kostbare downtime te voorkomen. Wat dit voorbeeld uniek maakt, is dat het analytische AI-systeem niet slechts een passief hulpmiddel is. Integendeel, de dialoog begint wanneer dat nodig is.

Natuurlijk is dit slechts één mogelijke systeemarchitectuur. Andere trends, zoals Multi-agent systemen met gespecialiseerde cognitieve functies, of misschien zelfs kruistraining Om deze systemen hybride modellen te laten ontwikkelen die aspecten van beide AI-systemen omvatten (net zoals mensen geïntegreerde wiskundige en taalkundige redeneringen ontwikkelen), of simpelweg inspiratie putten uit Groepsleertechnieken Vastgesteld door grote taalmodellen en analytische AI-agenten te behandelen als verschillende modeltypen die op systematische wijze kunnen worden gecombineerd. De toekomstige mogelijkheden zijn eindeloos.

Maar ze brengen ook fascinerende uitdagingen voor onderzoek met zich mee. Hoe wij ontwerpen gedeelde representaties? Welke structuur ondersteunt het beste? asynchrone informatie-uitwisseling? Wat is het بروتوكولات الاتصال Het ideaal tussen analytische AI ​​en agents?

Deze vragen vertegenwoordigen nieuwe horizonten die zeker de expertise van analytische AI-professionals vereisen. Nogmaals, diepgaande kennis van het bouwen van analytische modellen met kwantitatieve nauwkeurigheid is niet achterhaald, maar essentieel voor het bouwen van de hybride systemen van de toekomst.

 

Vierde perspectief: laten we een geïntegreerde toekomst omarmen.

Zoals we in dit artikel hebben gezien, ligt de toekomst niet in ‘analytische AI ​​versus grote taalmodel (LLM)-agenten’, maar eerder Analytische AI ​​+ Large Language Models (LLM)-agenten.

In plaats van dat ik me zorgen maak over LLM-agenten (Large Language Models), ben ik nu enthousiast over de veranderende rol van analytische AI. De analytische fundamenten die we hebben gelegd, zijn niet achterhaald; Ze vormen essentiële componenten van een capabeler AI-ecosysteem.

Laten we bouwen.

de recensent

[1] Chen et al., PyOD 2: een Python-bibliotheek voor het detecteren van outliers met LLM-gestuurde modelselectie. arXiv, 2024.

[2] Liu et al., Grote taalmodellen om Bayesiaanse optimalisatie te verbeteren. arXiv, 2024.

[3] Siemens onthult baanbrekende innovaties op het gebied van industriële AI en digitale tweelingtechnologie op CES 2025. Persbericht, 2025.

 

Reacties zijn gesloten.