De dualiteit tussen de steeds krachtigere en de steeds kleinere AI modellen leidt tot interessante inzichten.


Er verschijnen dagelijks nieuwe AI modellen, de ene nog slimmer dan de andere. Dit is mooi om te zien. Er is een forse concurrentiestrijd aan de gang tussen de grote spelers zoals Open AI, Google, Meta, en Anthropic en Mistral. Uiteindelijk kunnen we daar als gebruikers alleen maar beter van worden.

Ik zie de ontwikkeling duidelijk in tegengestelde richtingen gaan:

Aan de ene kant worden modellen steeds groter en in staat om steeds complexere taken uit te voeren. Ze moeten actuele informatie bevatten, alle talen van de wereld spreken en in hoge resolutie afbeeldingen, audio en video kunnen herkennen en genereren. Die modellen worden steeds duurder om te trainen en om te runnen.

Aan de andere kant zie je modellen juist steeds kleiner worden. Dit is omdat ze bedoeld zijn om te draaien op eenvoudige hardware zoals een laptop of zelfs een mobiele telefoon.

Deze richtingenstrijd interessante inzichten op. Wat denk ik dat er gaat gebeuren?

Specialisatie

Een onvermijdelijk gevolg van deze tegenstrijd is dat je modellen gaat krijgen die zich specialiseren. Je kan geen supergoed model maken dat alles kan en toch ook nog heel klein is dus loont het om een specifiek model te maken dat heel goed is, maar wel echt toegespitst op een specifiek vakgebied. Je ziet dit bijvoorbeeld bij Googles Med-Gemini. Dit model richt zich op complexe klinische redeneertaken, en kan daardoor heel specifiek werken.

Maar je kan ook denken aan modellen die zich specialiseren in een specifieke taal. Ik merk in diverse AI projecten dat kleinere modellen vaak moeite hebben met andere talen dan Engels, gewoon omdat ze daar niet voldoende informatie over hebben. Met een model dat op een specifieke taal is getraind, kun je veel betere resultaten halen met het verwerken van tekst in die taal.

Samenwerking

Een ander voorbeeld van wat ik zie komen is de samenwerking van kleine modellen die op de telefoon draaien met grotere modellen die in de Cloud draaien. Ik stel me zo voor dat je vragen stelt aan het kleine model en dat je bij eenvoudige vragen ook direct antwoord krijgt maar dat het model bij complexere vragen te raden gaat bij een al dan niet specialistisch groot model in de Cloud.

Ik zie ernaar uit!


Vorige post: Spraakherkenning