We vertrouwen AI met onze data: hoe verstandig is dat?

Blog | innovatie

  • veiligheid
  • gegevensbescherming

We vertrouwen AI onze data toe omdat het makkelijk, goedkoop en efficiënt lijkt. Maar terwijl onze modellen steeds slimmer worden, verliezen we langzaam de controle. Onder de CLOUD Act kan de Amerikaanse overheid toegang eisen tot data van bedrijven zoals Microsoft, Amazon en Google — zelfs wanneer die data in Europa wordt opgeslagen. Wat ooit een handige keuze leek, is nu een kwestie van autonomie en vertrouwen.

In dit artikel laat ik zien wat organisaties vandaag al kunnen doen om hun digitale soevereiniteit te beschermen, zonder te wachten tot Brussel of Big Tech in actie komt.

In een eerder artikel op Frankwatching onderzocht ik de link tussen data, HR en privacy, met de focus op hoe organisaties zorgvuldig omgaan met persoonsgegevens. Dit keer wil ik een stap verder gaan: hoe we als Europa de controle over onze digitale infrastructuur kunnen terugwinnen — en waarom dat nu urgenter is dan ooit.

Onze digitale autonomie staat onder druk. Toch liggen de oplossingen dichterbij dan je denkt. Over heel Europa ontstaan nieuwe initiatieven die laten zien dat het anders kan. Nieuwe spelers bouwen technologieën die niet draaien om afhankelijkheid, maar om transparantie, samenwerking en vertrouwen.

Europese AI-alternatieven winnen terrein

Er waait een nieuwe wind door Europa. Startups zoals Mistral, Aleph Alpha en Hugging Face (EU Cloud) ontwikkelen AI-systemen die écht aansluiten bij Europese waarden: privacy, transparantie en dataminimalisatie.

Neem Mistral als voorbeeld. Het bedrijf opereert vanuit Europese datacenters, is open over zijn modelarchitectuur en laat organisaties bezwaar maken tegen hergebruik van data — GDPR by design. Toch is het geen wondermiddel. Mistral is jong, werkt deels nog met onderaannemers buiten de EU, en de audits moeten zich nog bewijzen.

Het potentieel is groot, maar vertrouwen vraagt tijd, openheid en Europese samenwerking. En precies daar stokt het: beleid en praktijk bewegen niet in hetzelfde tempo.

Tussen beleid en praktijk: waar verliezen we controle?

De AI Act, officieel aangenomen in augustus 2024, moet zorgen voor meer transparantie, risicobeoordeling en verantwoording in AI-systemen. Een belangrijke stap — maar wetgeving verandert nog geen gedrag.

Ondertussen volgt de Europese Commissie een dubbele strategie onder Apply AI en AI in Science: het versnellen van AI-adoptie in bedrijven en de publieke sector, én het investeren in onderzoek, talent en infrastructuur. Europa probeert innovatie niet alleen te reguleren, maar ook te sturen.

Toch laat de realiteit iets anders zien. In 2024 gebruikte ongeveer 23% van de Nederlandse bedrijven één of meer AI-technologieën — bijna 60% onder grote ondernemingen. Nieuwe cijfers tonen dat de groei versnelt: volgens Unlocking Europe’s AI Potential – Netherlands Edition 2025 (EY en The Lisbon Council, met Microsoft) gebruikt inmiddels 49% van de Nederlandse bedrijven AI — een stijging van 26% in één jaar.

In het rapport Focus op AI binnen het Rijk concludeerde de Algemene Rekenkamer dat veel AI-systemen binnen de overheid nog experimenteel zijn. Slechts een deel is volledig operationeel, en bij een derde is onduidelijk of ze überhaupt goed functioneren. De Autoriteit Persoonsgegevens waarschuwt voor ongecontroleerde datastromen. Vicevoorzitter Monique Verdier verwoordde het kernachtig:

“Zodra data in een model zitten, verlies je de controle — je kunt ze er niet zomaar weer uithalen, en de gevolgen zijn moeilijk te voorspellen.”

Er is dus genoeg beleid. Maar de dagelijkse praktijk loopt achter. Terwijl de regels strenger worden, worstelen veel organisaties nog steeds met één simpele vraag: Waar staan onze data eigenlijk — en wie kan erbij?

Dat is de kern van het probleem. Wetgeving kan richting geven, maar geen verantwoordelijkheid afdwingen.

Wachten op wetgeving? Dat kunnen we ons niet veroorloven

Overheden kunnen de koers bepalen, maar organisaties moeten zélf beslissen waar hun data leven en wie toegang krijgt.

Dat begint met eenvoudige, maar cruciale vragen:

  • Waar worden onze data fysiek opgeslagen?

  • Welke onderaannemers of verwerkers gebruikt onze leverancier?

  • Kunnen medewerkers bezwaar maken tegen het gebruik van hun data in AI-toepassingen?

Een aantal Nederlandse gemeenten stelt deze vragen inmiddels expliciet. Zo verbood de gemeente Amsterdam tijdelijk generatieve AI-tools zoals ChatGPT en Copilot totdat er duidelijke garanties zijn over dataveiligheid en transparantie.

Andere organisaties onderzoeken actief Europese alternatieven. Volgens Computable (2025) maken steeds meer publieke instellingen gebruik van Private AI — toepassingen die draaien in gecontroleerde omgevingen zoals eigen datacenters of Nederlandse clouds.

Zoals Eugene Tuijnman (CEO van SLTN) zegt:

“AI is aantrekkelijk om te gebruiken, maar je wilt niet dat je bedrijfsdata op het publieke internet belanden. De mate waarin de Amerikaanse overheid toegang heeft tot onze data is een echte wake-upcall geweest.”

De boodschap is helder: organisaties kunnen niet wachten tot wetgeving alles oplost. De echte vraag is: durven we nu zelf de controle te nemen, of laten we anderen die voor ons bepalen?

Private AI staat voor AI-toepassingen die in gesloten, veilige omgevingen draaien — bijvoorbeeld in eigen datacenters of Nederlandse cloudsystemen. Zo behouden organisaties volledige controle over hun data en modellen, zonder deze extern te delen.

Drie mogelijke scenario’s: welke kant gaat Europa op?

Hoewel concrete cijfers voor eind 2025 nog ontbreken, tekenen zich drie duidelijke trends af:

Scenario 1: versnelde adoptie AI-gebruik groeit explosief dankzij EU-innovatiefondsen en publiek-private samenwerking. Eind 2026 kan meer dan de helft van de Europese bedrijven actief AI gebruiken, vooral in kennisintensieve sectoren.

Scenario 2: gefragmenteerde groei Landen zoals Nederland, Duitsland en Finland lopen voorop, terwijl Zuid- en Oost-Europa achterblijven. Een “Europa met twee snelheden” ontstaat — digitale ongelijkheid leidt tot nieuwe afhankelijkheden.

Scenario 3: vertraging door regelgeving en kosten De AI Act vereist audits en documentatie, wat zwaar kan drukken op kleinere organisaties. Als compliance te complex of te duur wordt, kan de groei stagneren.

Welk scenario werkelijkheid wordt, hangt sterk af van de keuzes die organisaties nú maken — over infrastructuur, beveiliging en datatransparantie.

Controle terugwinnen begint met samenwerking

Digitale soevereiniteit bereik je niet alleen. Bedrijven, overheden en leveranciers moeten samenwerken aan een betrouwbaar digitaal ecosysteem.

Een goed begin is:

  • Bewust kiezen. Werk met leveranciers die EU-gebaseerde dataopslag, transparante audits en open lijsten van subverwerkers bieden.

  • Transparant zijn. Communiceer duidelijk — intern én extern — waar data worden opgeslagen, wie toegang heeft en met welk doel.

  • Lokaal investeren. Steun Europese innovatie, ook als die tijdelijk duurder of minder volwassen is dan Amerikaanse alternatieven.

Zoals voormalig minister Robbert Dijkgraaf het verwoordde:

“Om de kansen van AI volledig te benutten, moeten we investeren in kennis, infrastructuur en autonomie. Alleen dan kan Europa concurrerend en soeverein blijven.”

Digitale soevereiniteit: de werkelijke prijs van vertrouwen

Digitale soevereiniteit draait niet om grenzen — het draait om vertrouwen. Het betekent weten waar je data zijn en wie erover beslist. Het betekent controle houden over je data — en daarmee over je toekomst.

Bij Fellow Digitals nemen we de bescherming van jouw data serieus. Ons platform is gebouwd met privacy en veiligheid als uitgangspunt, zodat jouw informatie onder jouw controle blijft. We zijn trots dat we voldoen aan de hoogste internationale standaarden, waaronder ISO 27001, ISO 27701 en NEN 7510, waardoor onze beveiligingsmaatregelen aansluiten bij de eisen van bedrijven en sectoren in heel Europa. We waarborgen volledige transparantie, dataveiligheid en AVG-naleving binnen al onze platformen. Onze veilige, schaalbare oplossingen zijn ontworpen om elke medewerker te versterken, terwijl dataprivacy en soevereiniteit centraal staan. Als organisatie investeren we in secure-by-design software, robuuste authenticatie en datahosting binnen de EU.

Europa zet stappen vooruit. KI-initiatieven groeien, maar de kloof met de VS blijft groot. In 2025 ging meer dan 80% van de wereldwijde AI-investeringen naar Amerikaanse bedrijven; Europa nam slechts 9% voor zijn rekening. De EU Data Act en investeringen in Europese infrastructuur brengen ons dichter bij autonomie — maar beleid alléén is niet genoeg.

Elke organisatie die kiest voor transparantie, privacy en Europese infrastructuur helpt vertrouwen in AI opnieuw op te bouwen. Want zodra je de controle over je data verliest, verlies je de controle over je toekomst.

De vraag is niet óf we die controle terugwinnen — maar wanneer.

Wil je meer weten over hoe wij dataveiligheid prioriteren en jouw digitale werkplek beschermen? Bekijk dan onze Security Leaflet. Hier lees je hoe Fellow Digitals voldoet aan de hoogste veiligheidsstandaarden en hoe jij kunt profiteren van onze veilige, AVG-conforme oplossingen.

Hans Koekkoek

Business Development Manager

Boek een gratis demo en ervaar het platform zelf