HomeZakelijkThe Digital DutchBlogAI-agents veranderen security fundamenteel. Zijn CISO’s er klaar voor?
Labels:

AI-agents veranderen security fundamenteel. Zijn CISO’s er klaar voor?

02-01-2026
7 vragen over Copilot, de AI-assistent van Microsoft
AI-agents duiken overal op in organisaties. Ze voeren taken uit, koppelen systemen en nemen beslissingen, en dat volledig autonoom. Vaak met directe toegang tot gevoelige data en cruciale applicaties. Het probleem? De meeste CISO’s hebben geen idee hoeveel agents er draaien, wat ze precies doen en wie ervoor verantwoordelijk is. Terwijl het aantal digitale agents explosief groeit, blijft het inzicht ver achter. Dat maakt AI-agents tot een van de meest onderschatte securityrisico’s van dit moment.

NLSecure[ID] 2026

De 10e editie van NLSecure[ID] is op 20 januari 2026. Dit keer is het thema ‘Samen maken we Nederland veiliger’. Ben jij erbij?
Meer over NLSecure[ID]
 NLSecure-header

Security was lange tijd gericht op mensen en systemen. Medewerkers logden in, applicaties draaiden op vaste plekken en toegang was te herleiden tot personen. Dat beeld verandert snel. Steeds meer werk wordt uitgevoerd door software die zelfstandig handelt. “Bij grote organisaties zie je nu al dat het aantal digitale agents snel richting het aantal medewerkers groeit”, zegt Jan Heijdra, Field CTO bij Cisco. “In sommige gevallen zullen er straks meer agents zijn dan mensen.”

Die groei van het aantal AI-agents komt niet zonder securityrisico’s. AI-agents hebben namelijk vaak verregaande rechten. Ze geven opdrachten door, wisselen data uit en starten processen zonder menselijke tussenkomst. Daardoor ontstaan nieuwe communicatiestromen die lastig te volgen zijn met traditionele beveiligingsmaatregelen.

Identiteit wordt het fundament

AI-agents zijn in steeds meer organisaties onderdeel van het dagelijks werk. Je ziet ze overal: in standaardsoftware, browsers, interne systemen. En steeds meer bedrijven bouwen hun eigen AI-assistenten, vooral omdat ze graag de regie willen houden over hun data en hoe die wordt gebruikt.

Maar juist doordat die agents overal opduiken, wordt beveiliging lastig. Je moet kunnen zien waar ze actief zijn, welke modellen er draaien en of ze goed hun werk doen. Dat is niet alleen belangrijk voor je security, maar ook omdat Europese wetgeving dit simpelweg vraagt. Daarmee verschuift het zwaartepunt van beveiliging. Beschermen van infrastructuur heeft een extra dimensie gekregen en gaat steeds meer om wie of wat toegang heeft. En met ‘wat’ bedoelen we dus ook software.

Identitybeheer is cruciaal

Dat maakt identitybeheer cruciaal, en niet alleen omdat NIS2 dit verplicht stelt. “Iedere AI-agent moet een identiteit hebben om z’n werk te kunnen doen”, legt Heijdra uit. “Die agent krijgt rechten om ergens data op te halen, systemen aan te sturen of processen te starten. Wat je in de praktijk vaak ziet, is dat ze dezelfde rechten krijgen als de medewerkers of applicaties waar ze mee verbonden zijn. Niet omdat dat zo slim bedacht is, maar gewoon omdat het makkelijk is.”

Dat is risicovol. Accounts blijven actief terwijl het doel verandert. Rechten stapelen zich op. En als er iets misgaat, is het onduidelijk wie verantwoordelijk is. “Je moet continu weten wie of wat toegang heeft en waarom”, zegt Heijdra. “Dat geldt voor medewerkers, maar net zo goed voor AI-agents.”

Securityvolwassenheid vraagt om samenhang

AI-agents maken bovendien pijnlijk zichtbaar waar veel securitystrategieën vastlopen: die strategieën zijn opgebouwd uit losse oplossingen. Voor elk risico een aparte tool. Dat werkte zolang systemen overzichtelijk waren en incidenten zich op één plek afspeelden.

Met AI-agents is dat niet meer zo. Fouten en misbruik lopen dwars door meerdere systemen en processen heen. Als signalen verspreid blijven over verschillende tools, ontbreekt context en wordt te laat ingegrepen. Securityvolwassenheid betekent daarom niet meer tooling, maar samenhang: informatie uit verschillende bronnen combineren om te zien wat er daadwerkelijk gebeurt. Precies daar stuurt ook NIS2 op aan, met nadruk op geïntegreerde maatregelen en aantoonbaar detectievermogen.

5 stappen om grip te houden op AI-agents

Wie grip wil houden op AI-agents, moet eerst een paar basiszaken op orde brengen:

1. Breng in kaart waar AI-agents actief zijn

Dat klinkt eenvoudig, maar in de praktijk weten veel organisaties niet welke AI-agents actief zijn. Agents worden gebouwd door teams zelf, toegevoegd via softwareleveranciers of ingezet via browsertools. Een centraal overzicht ontbreekt vaak.

Zonder dit inzicht is elke vervolgstap giswerk. Als je niet weet welke agents draaien, welke taken zij uitvoeren en met welke systemen zij praten, kun je risico’s niet beoordelen en ook niet beheersen.

2. Leg eigenaarschap vast

Elke AI-agent moet een duidelijke eigenaar hebben. Dat is iemand die verantwoordelijk is voor het doel van de agent en voor de manier waarop hij wordt gebruikt. Zonder eigenaar blijft onduidelijk wie beslissingen neemt en wie aanspreekbaar is.

In de praktijk betekent dit dat eigenaarschap expliciet moet worden vastgelegd. Niet bij ‘IT’ of ‘security’ in het algemeen, maar bij een persoon of team dat ook kan ingrijpen als een agent verkeerd wordt ingezet of ongewenste toegang heeft.

3. Beperk rechten bewust

Veel AI-agents krijgen automatisch dezelfde rechten als de medewerker of applicatie waarmee ze zijn gekoppeld. Dat lijkt efficiënt, maar vergroot het risico op fouten en misbruik.

Geef AI-agents daarom alleen toegang tot wat zij echt nodig hebben. Door rechten bewust te beperken, verklein je de schade als een agent iets verkeerd doet of wordt misbruikt.

4. Monitor gedrag en kwaliteit monitoring, niet alleen toegang

Traditionele monitoring kijkt vooral naar inlogpogingen en netwerkverkeer. Bij AI-agents is dat vaak onvoldoende, omdat zij zelfstandig handelen zonder in te loggen.

Let daarom ook op gedrag en kwaliteit monitoring. Denk aan onverwachte dataverzoeken, plotselinge wijzigingen in processen of acties die niet passen bij het normale gebruik. Afwijkend gedrag is vaak het eerste signaal dat er iets misgaat.

5. Kijk naar samenhang in plaats van losse signalen

AI-agents werken zelden op zichzelf. Ze zijn onderdeel van ketens van systemen en processen. Problemen worden pas zichtbaar als je die verbanden kunt zien.

Door informatie uit verschillende systemen te combineren, ontstaat context. Die samenhang helpt om sneller te herkennen wanneer een incident zich ontwikkelt en waar ingrijpen nodig is.

NLSecure[ID] 2026

De 10e editie van NLSecure[ID] is op 20 januari 2026. Dit keer is het thema ‘Samen maken we Nederland veiliger’. Ben jij erbij?
Meer over NLSecure[ID]
 NLSecure-header
Artikel delen
Tags
Labels: