Over Exaico
De missie van Exaico is om ervoor te zorgen dat AI systemen en algoritmes verantwoord worden ingezet. Zodat organisaties deze algoritmes met een gerust hart optimaal kunnen inzetten. En burgers erop kunnen vertrouwen dat algoritmes binnen de wettelijke kaders worden ingezet.
Ontwikkeling van AI
Algoritmes zijn niet meer weg te denken uit onze samenleving. In 2024 gebruikte 22,7% van de bedrijven in Nederland AI, bijna een verdubbeling ten opzichte van 2023. Large Language Models (LLM's) zoals ChatGPT worden op dagelijkse basis door miljoenen Nederlanders gebruikt.
De voorspelling is dat de inzet van AI de komende jaren exponentieel zal toenemen.
In 2025 kunnen AI-agents eenvoudige taken uitvoeren (zoals software bedienen, supportvragen afhandelen of bestellingen doen), maar ze zijn nog vrij beperkt en maken vaak fouten. In 2026 wordt AI steeds beter in coderen en onderzoek. Er ontstaan automatiseringsloops waarbij AI wordt ingezet om betere AI te maken. AI verbetert zichzelf dus.
In 2027 leidt dit volgens de verwachting tot een intelligence explosion. AI's versnellen het AI-onderzoek enorm (met een factor 5 tot 25) en bedrijven bouwen massaal superintelligente AI-agenten. De AI's worden autonoom, snel, en superieur in veel cognitieve taken. AI gaat dan in veel bedrijven een leidende rol spelen en werkprocessen (en functies) ondersteunen en overnemen.
De vraag is: Waar leidt dit naartoe en hoe houden AI onder controle? Daarnaast is er een duidelijke strijd te zien waarin de VS en China strijden om de koppositie in AI. Ook Europa gaat meer investeren in eigen AI power.
Hier zit een interessante paradox: Rem je af om de veiligheid te waarborgen, dan raak je mogelijk achterop (in de wetenschap dat de 'koploper' wint). Versnel je, dan dreigt verlies van controle en is de handelswijze van software mogelijk niet meer in lijn met onze menselijke normen en waarden.
In Europa is sinds 2024 de AI Act (in Nederland: AI Verordening) van kracht. Deze wet schrijft de regels en richtlijnen voor waaraan inzet de van AI moet voldoen.
Spoiler alert: De ontwikkelingen gaan erg hard, 80% tot 90% van de organisaties voldoet vandaag niet aan de eisen vanuit de wet.
Hoe erg is dat?
Onderzoek van de Autoriteit Persoonsgegevens wijst uit dat er bij veel overheidsorganisaties problemen zijn met de algoritmes die worden gemaakt. Er is sprake van problemen met discriminatie en bias.
We zien een toename van organisaties die zelflerende algoritmes gebruiken voor onderwerpen als risicoselectie of fraudedetectie. Het probleem hiervan is dat na verloop van tijd niet meer te achterhalen is hoe zelflerende systemen tot bepaalde conclusies komen – ze hebben zichzelf een methode aangeleerd, los van menselijke inbreng.
Bij ministerie van Sociale Zaken en Werkgelegenheid is precies zo'n zelflerend en discriminerend algoritme aangetroffen. In dit AI-systeem werd het bezit van een hond of aanhangwagen gezien als risicofactor voor fraude bij aanvraag van een uitkering. De rechtbank oordeelde dat dit algoritme onrechtmatig is, in strijd met het EVRM. Het AI-systeem, genaamd 'Syri', moest verplicht worden uitgezet.
De Syri uitspraak heeft grote maatschappelijke impact gehad. Desondanks stellen onderzoekers vast dat er weinig verandert.
Onbewust onwettige algoritmes
De oorzaak van problemen zoals met Syri of de Monocam heeft zelden met technische beperkingen te maken. Ook aan kaders, regels en richtlijnen is zeker geen gebrek. Die zijn binnen bijna alle organisaties overal al beschikbaar. Het ligt ook niet aan het ontbreken van de goede wil. Geen enkele programmeur wil bewust een discriminerend algoritme bouwen.

De kern van het probleem is dat programmeurs en juristen het lastig vinden om elkaars taal te spreken.
Hierdoor is er vaak weinig afstemming en blijft compliancy een ondergeschoven kindje.
Het gevolg? Algoritmes en AI systemen die onbewust onwettelijk zijn, bijvoorbeeld doordat ze onbedoeld bepaalde bevolkingsgroepen discrimineren.
Als je dit combineert met de gigantische vlucht in de ontwikkeling van AI systemen en de introductie. van een wet die de inzet van algoritmes reguleert (de AI Verordening) dan ontstaat een groot belang voor AI compliancy voor organisatie die AI systemen ontwikkelen en inzetten en de burgers die erdoor worden geraakt.
Dit is waarvoor Exaico is opgericht en waar wij sterk in zijn.
Exaico
Onze missie is om ervoor te zorgen dat AI systemen en algoritmes verantwoord worden ingezet. Dit zorgt er enerzijds voor dat organisaties deze algoritmes met een gerust hart optimaal kunnen inzetten. Tegelijkertijd kunnen de burgers erop kunnen vertrouwen dat algoritmes binnen de wettelijke kaders worden ingezet.
Dit is de AI-win-win van Exaico.
'Bij zo'n beetje elke tegel die we lichten, ontdekken we discriminerende algoritmen bij de overheid'
Aleid Wolfsen, Autoriteit Persoonsgegevens

Wat brengt Exaico
Wij zorgen ervoor dat de verschillende mensen, kaders, richtlijnen en de techniek optimaal met elkaar in verbinding komen te staan.
Wij zijn de vertalers die developers, juristen, informatiebeveiligers, product owners en het management met elkaar verbinden in AI systemen.
Door onze kennis van de wet én begrip van de techniek kunnen we met onze Exaico aanpak ervoor zorgen dat algoritmes aantoonbaar voldoen aan de wet (en beleid van de organisatie waar relevant) en vervolgens optimaal ingezet kunnen worden.
Op deze manier draagt Exaico bij dat er in de maatschappij vertrouwen ontstaat in het gebruik van algoritmes. Dat burgers en organisaties juist met vertrouwen het tijdperk van AI kunnen instappen.
