← Back to News

February 2025

The Future? Open Source!

Artificial Intelligence and Generative AI are becoming more personalised and easier to deploy.

Nederlandse versie

The Future? Open Source!

Artificial Intelligence en Generative AI zijn niet alleen voor de grote spelers, en ik wil daarbij opmerken dat dat eigenlijk nooit zo is geweest. In de onderbuik van digitale innovaties en ontwikkelingen is de open‑source filosofie al sinds jaar en dag vanzelfsprekend. Mensen creëren en delen hun kennis via whitepapers en repositories (code snippets, modellen, etc.). Deze onderdelen binnen de community zijn aanpasbaar en dupliceerbaar voor wie dat wil.

De snelle evoluties in het AI‑landschap zijn op dezelfde manier tot stand gekomen: Test, share, listen, adapt, share again…. Deze evolutie is globaal en duizenden mensen – of zelfs meer – zijn dagelijks actief in deze community. Dankzij open‑source projecten kan vrijwel iedereen met enige technische kennis er meestal gratis gebruik van maken (let op de licenties).

Maar de grootste evolutie is dat deze verzameling van data en kleine snippets een gigantisch kluwen vormt waarvan niemand nog echt weet wat er allemaal beschikbaar is en al is gemaakt. Maar raad eens? Elke “uit de kluit gewassen” LLM (die je ook lokaal kunt draaien) kan in deze data zoeken en je de weg wijzen naar wat jij wilt weten of maken.

De nieuwste tools maken het mogelijk om geavanceerde AI op je eigen laptop of zelfs telefoon te draaien, terwijl betaalbare hardware en slimme manieren om je eigen data te integreren, de toegang tot AI steeds sneller vergemakkelijken.

01. AI‑modellen worden steeds kleiner en kleiner

Vandaag zien we dat de LLM’s (Large Language Models, modellen die getraind zijn in menselijke taal om te begrijpen, te genereren en te manipuleren) steeds kleiner worden. Begrijp dit niet verkeerd: de grootste modellen hebben meer dan 1 miljard parameters, maar de vraag is: hebben we dat altijd en overal nodig? De tijden dat je een supercomputer nodig had om grote AI-modellen te draaien, zijn voorbij. De nieuwste (vaak open‑source) modellen zijn zo ontworpen dat ze op alledaagse apparaten kunnen draaien. Zo laten projecten zoals TinyLLM zien dat deze modellen zelfstandig werken zonder dat er enorme rekenkracht nodig is.

02. Kleinere, slimmere modellen = goedkopere hardware

De noodzakelijke hardware, zoals CPU’s en GPU’s, wordt steeds meer betaalbaar. Door de gezonde concurrentie in de markt dalen de prijzen, en zelfs cloudservices, waarmee je online rekenkracht kunt huren, worden steeds betaalbaarder. Dit betekent dat we steeds meer toegang hebben tot de (jawel open‑source) technologie die nodig is om AI‑projecten te bouwen en te draaien. Of je nu onderzoek doet, een startup runt of als tech-liefhebber het nodige op je eigen computer installeert met tools zoals Ollama, je hoeft niet langer te investeren in een dure datacenter infrastructuur.

03. Persoonlijke data = Persoonlijke AI‑agent

Een van de meest opwindende ontwikkelingen in open‑source AI is de mogelijkheid om AI te personaliseren met je eigen informatie. Dit gebeurt met een methode die Retrieval‑Augmented Generation (RAG) wordt genoemd – je kunt het zien als het toevoegen van een persoonlijke bibliotheek aan je workflow. Zo maken tools als RAGFlow het mogelijk om je eigen bestanden en data te koppelen aan een eigen AI‑model. Het resultaat is een slimme assistent die jouw specifieke behoeften begrijpt en relevantere antwoorden geeft. Dankzij deze mate van personalisatie zit je niet vast aan een standaard, dure SaaS‑provider; je kunt er een bouwen die precies doet wat jij nodig hebt.

Er bestaan zelfs AI‑tools die jouw data helpen structureren, labelen en optimaliseren – tools die het monotone handwerk van data‑optimalisatie automatiseren.

Conclusie

Open‑source AI maakt geavanceerde technologie toegankelijk voor iedereen. Met slimmere, kleinere modellen die op alledaagse apparaten draaien, dalende kosten van hardware en de mogelijkheid om AI te personaliseren met je eigen data (ondersteund door document intelligence-modellen die je data nog sneller en nauwkeuriger structureren), is de toekomst open en transparant. Je hoeft geen volbloed tech-expert meer te zijn, en in deze snelle evolutie zou het wel eens kunnen dat we sneller dan gedacht onze eigen systemen kunnen bouwen, trainen en toepassen.

Geïnteresseerd in AI consultancy?
Mail gerust -> info@glossy.tv

English version

The Future? Open Source!

Artificial Intelligence and Generative AI aren’t just for the big players—and I’d like to point out that they really never have been. At the heart of digital innovation and development, the open‑source philosophy has always been a given. People create and share their knowledge through whitepapers and repositories (code snippets, models, etc.). These community resources are adaptable and replicable for anyone who wants them.

The rapid evolution in the AI landscape has come about in the same way: test, share, listen, adapt, share again… This evolution is global, with thousands—or even more—of people active in this community every day. Thanks to open‑source projects, almost anyone with a bit of technical know‑how can usually use these tools for free (just be sure to check the licenses).

But the biggest evolution is that this massive collection of data and tiny snippets forms an enormous tangle, and no one really knows what’s out there or what has already been created. But guess what? Every “from-the-mold” LLM (which you can also run locally) can search through this data and point you in the direction of what you want to know or build!

The latest tools make it possible to run advanced AI on your very own laptop—or even your phone—while affordable hardware and clever ways to integrate your own data are making access to AI faster than ever.

01. AI Models Are Getting Smaller and Smaller

Today, we see that LLMs (Large Language Models—models trained to understand, generate, and manipulate human language) are becoming smaller. Don’t get me wrong: the biggest models have more than 1 billion parameters, but the question is, do we always and everywhere need that much? The days when you needed a supercomputer to run large AI models are over. The newest (often open‑source) models are designed to run on everyday devices. Projects like TinyLLM show that these models can work autonomously without requiring enormous computing power.

02. Smaller, Smarter Models = Cheaper Hardware

The necessary hardware, like CPUs and GPUs, is becoming increasingly affordable. With healthy market competition, prices are dropping, and even cloud services—where you rent computing power—are getting more budget‑friendly. This means we have more access to the (yes, open‑source) technology needed to build and run AI projects. Whether you’re doing research, running a startup, or just a tech enthusiast installing tools like Ollama on your own computer, you no longer have to invest in an expensive data center infrastructure.

03. Personal Data = Personal AI Agent

One of the most exciting developments in open‑source AI is the ability to personalize AI with your own information. This is done using a method called Retrieval‑Augmented Generation (RAG)—think of it as adding a personal library to your workflow. Tools like RAGFlow make it possible to connect your own files and data to your own AI model. The result is a smart assistant that understands your specific needs and gives more relevant answers. Thanks to this level of personalization, you’re not stuck with a standard, expensive SaaS provider; you can build a system that does exactly what you need.

There are even AI tools that help structure, label, and optimize your data—automating the monotonous manual work of data optimization.

Conclusion

Open‑source AI makes advanced technology accessible to everyone. With smarter, smaller models that run on everyday devices, dropping hardware costs, and the ability to personalize AI with your own data (supported by document intelligence models that structure your data even faster and more accurately), the future is open and transparent. You no longer have to be a die-hard tech expert, and in this rapid evolution, it might just be that we can build, train, and deploy our own systems faster than we ever imagined.

Interested in AI consultancy?
Mail us -> info@glossy.tv

Inspired by this newsitem?

Can your business, organisation or product benefit from a (re)branding? Contact us to discover if we are the right partner for you. See you soon!

Contact us