Na de revolutionaire introductie van LLM’s is er een groeiende belangstelling voor small language models (SLM’s). Dit zijn modellen met maximaal 10 miljard parameters, in tegenstelling tot LLM’s, die honderden miljarden of zelfs triljoenen parameters kunnen hebben.
Het trainen en gebruiken van LLM's vereist enorme hoeveelheden rekenkracht. SLM's zijn daarentegen aanzienlijk kleiner. Daardoor zijn ze minder veeleisend wat betreft dataverwerking, hardware en trainingstijd. SLM's verbruiken ook minder energie, waardoor ze geschikter zijn voor toepassingen op kleinere apparaten.
SLM's zijn toegankelijker voor gebruikers die deze modellen willen trainen en uitvoeren op consumentenhardware aan de rand van een netwerk, met name voor apparaten met één doel (bijvoorbeeld sensoren). Bovendien zijn SLM's vooral nuttig voor specifieke taken en minder geschikt als algemene hulpmiddelen.