Chinese Alibaba overtreft Meta met nieuwe Qwen 3 AI-modellen

Samenvatting:

  • De Chinese techgigant Alibaba heeft een reeks open-source Qwen 3 AI-modellen gelanceerd. De collectie omvat 8 nieuwe modellen.
  • Het leidende model, Qwen3-235B-A22B MoE, werd getraind op 235 miljard parameters, waarvan 22 miljard parameters geactiveerd waren.
  • Het kleinere model, Qwen3-30B-A3B MoE, met slechts 3 miljard geactiveerde parameters, overtreft GPT-4o met ruime marge.

De Chinese techgigant Alibaba heeft acht nieuwe open-source modellen voor kunstmatige intelligentie (AI) gelanceerd in zijn Qwen 3-serie. De nieuwe Qwen 3-modellen omvatten twee MoE-modellen (Mixture of Experts): Qwen3-235B-A22B en Qwen3-30B-A3B. De Qwen3-235B-A22B is het grootste en meest toonaangevende model, met in totaal 235 miljard parameters en 22 miljard geactiveerde parameters.

qwen 3 ai-modellen gelanceerd door alibaba

De Qwen3-30B-A3B is een kleiner MoE-model met in totaal 30 miljard parameters en 3 miljard geactiveerde parameters. Daarnaast zijn er zes dichte modellen binnen de Qwen 3-serie: Qwen3-32B, Qwen3-14B, Qwen3-8B, Qwen3-4B, Qwen3-1.7B en Qwen3-0.6B. Deze nieuwe Alibaba Qwen 3 AI-modellen versterken de positie van het bedrijf op het gebied van kunstmatige intelligentie verder.

Alle Qwen 3-modellen ondersteunen hybride denkmodi. Dit betekent dat ze zowel inferentiële AI-modellen als traditionele grote taalmodellen (LLM's) tegelijk zijn. In de ‘Denkend-modus’ kan het model stap voor stap afleiden, terwijl het model in de ‘Niet-Denkend-modus’ snel reageert. Deze functie vergroot de flexibiliteit waarmee u het model in verschillende toepassingen kunt gebruiken.

in aanvulling op, Ondersteuning Qwen 3-modellen ondersteunen meer dan 119 talen en dialecten van over de hele wereld. Het is een van de meest veelzijdige meertalige modellen. Bovendien heeft Alibaba de ondersteuning voor het Model Context Protocol (MCP) voor Qwen 3-modellen verbeterd, waardoor extra agentische mogelijkheden beschikbaar komen. Deze verbetering stelt modellen in staat context beter te begrijpen en slimmere beslissingen te nemen.

Qua prestaties levert het grotere model Qwen3-235B-A22B concurrerende resultaten in lijn met Diep zoeken R1 en Grok 3 Beta en Tweeling 2.5 Pro en OpenAI o1. Wat ik interessant vind, is dat het kleinere model Qwen3-30B-A3B, dat slechts 3 miljard actieve parameters heeft, beter presteert dan DeepSeek V3 en het GPT-4o-model van OpenAI. Dit wijst op een hoge bronefficiëntie en de mogelijkheid om uitstekende prestaties te behalen met een kleiner modelformaat.

Volgens Alibaba presteren de Qwen 3-modellen goed op het gebied van programmeren, wiskunde, wetenschap en algemene vaardigheden. Samengevat vertegenwoordigt Qwen 3 een familie van geavanceerde en zeer capabele AI-modellen uit China. Nu DeepSeek R2 eraan komt, is China goed gepositioneerd om te concurreren met westerse AI-labs. Deze ontwikkeling weerspiegelt de snelle vooruitgang die China boekt op het gebied van kunstmatige intelligentie.

Reacties zijn gesloten.