Verantwoord werken met AI: dit is ons responsible AI-framework

AI is een krachtige tool om je werk slimmer en efficiënter te organiseren. En, zoals grote leiders vroeger al constateerden: ‘with great power comes great responsibility’. Als KPN willen we veilig en verantwoord met AI omgaan. Iemand die daar alles van weet, is Lienke Vet. Zij is onze Lead AI governance en startte ruim 3 jaar geleden met het ontwikkelen van beleid voor de verantwoorde omgang met AI. ‘Begin op tijd met AI-beleid,’ adviseert Lienke. ‘Voordat je AI op grote schaal gaat toepassen.’

Benieuwd naar AI? Leer van onze ervaringen en inzichten

Van strategisch beleid tot praktische toepassing: wij werken al jaren met artificiële intelligentie (AI). Zowel om ons eigen werk te verbeteren als in de vorm van dienstverlening aan onze klanten. Onze ervaringen en inzichten delen we graag met je. In een serie interviews spreken we met allerlei mensen in en rond KPN die ervaring hebben met AI. Dit keer is Lienke Vet aan het woord. Zij ontwikkelde ons framework voor verantwoord AI-beleid.

Groeiende populariteit

‘Wanneer je de ambitie hebt om AI op grotere schaal toe te gaan passen en het te integreren in je dagelijkse processen, wordt de bewaking ervan steeds belangrijker,’ vertelt Lienke. ‘Zolang je met enkele algoritmes in een enkel systeem werkt, is het nog wel te overzien en kun je makkelijk ingrijpen als het mis gaat. Maar pas je in steeds meer systemen en processen AI toe, dan wordt bewaking van de kwaliteit van de algoritmes én controle op je processen belangrijker. Zelf begonnen we daarom een paar jaar geleden al, samen met onze datascientists en machinelearning-engineers, aan de inrichting van controlemechanismen.’ Geen dag te vroeg weten we nu, gezien de enorm toegenomen populariteit van AI door de komst van generatieve AI. ‘Wil je met AI aan de slag, dan hoef je dankzij generatieve AI geen technisch expert meer te zijn. Ook brengt generatieve AI nieuwe risico’s met zich mee. Ja, ik ben blij dat we op tijd begonnen zijn met het veilig en verantwoord gebruik van AI.’

Belangrijke waarden

Lienke Vet


Hoe zien die controlemechanismen – in de vorm van verantwoord AI-beleid – er dan uit? ‘Allereerst bepalen we altijd waarvoor we AI precies inzetten, welk probleem we daarmee oplossen en wat het doel van de AI-toepassing is. Afhankelijk daarvan stellen we vast wat de impact op klanten of medewerkers kan zijn, welke risico’s dat met zich meebrengt en welke maatregelen nodig zijn. Als het om grote risico’s gaat, bespreken we de AI-toepassing met ons ethisch council, een multidisciplinaire groep. Zij geven een zo goed en divers mogelijk beeld van de impact.’

Ons beleid is dus, net als de Europese AI Act die eraan komt, risicogebaseerd. Maar we gaan nog een stap verder. We hebben ook een framework met kaders ontwikkeld dat aangeeft hoe je AI verantwoordelijk, veilig en compliant inzet. ‘Dit framework bestaat enerzijds uit belangrijke waarden voor ons, zoals transparant en inclusief zijn, en anderzijds uit de benodigde processen en governance om deze waarden in de praktijk te kunnen brengen. Onze datascientists of collega’s die AI-toepassingen inkopen, hebben tenslotte wel de handvatten nodig om te kunnen werken met die waarden. Omdat het nog zo’n jong vakgebied is, werken we daarvoor met universiteiten samen. Samen ontwikkelen we methodes die we kunnen toepassen in de praktijk.’

Onze waarden voor verantwoord AI-gebruik:

  • Mensgericht

  • Goed voor maatschappij

  • Transparant

  • Inclusief

  • Betrouwbaar

  • Compliant

Wanneer we AI inzetten, zeker wanneer het grote impact kan hebben op ons of wanneer de risico’s voor mens en samenleving groot zijn, toetsen we de toepassing eerst op deze 6 waarden.

Apart framework voor generatieve AI

‘Generatieve AI heeft een aantal andere risico’s dan traditionele AI. Denk aan het risico van datalekken als je een publieke AI-toepassing gebruikt. Of aan het ontbreken van een moreel kompas in de large language modellen die aan de basis van generatieve AI liggen. Om die risico’s te ondervangen, hebben we voor generatieve AI een apart framework opgezet: de ‘acceptable use policy’. Daarin staat wat we als verantwoord gebruik zien en wat de richtlijnen zijn voor gebruik van generatieve AI in het dagelijks werk. Wanneer kan het wel, wanneer niet?’

‘Vertrouwelijke en interne informatie of klantgegevens mogen medewerkers natuurlijk nooit delen met publieke generatieve AI-toepassingen. Hoe logisch dat ook klinkt, we hebben dat wel goed vastgelegd.’ Naast privacyrisico’s zijn er ook nog andere risico’s. ‘Ondanks dat we de private AI-toepassingen van Microsoft gebruiken, zoals Bing Chat Enterprise en CoPilot, en geen publieke, zijn er nog altijd risico’s verbonden aan het gebruik van de onderliggende large language modellen. Zo kan het model zelf informatie gaan creëren wanneer het onvoldoende data heeft. De output moet je dus altijd controleren.’

Goed doorleven

Beide frameworks, zowel voor traditionele als voor generatieve AI-toepassingen, bieden dus zowel uitleg als handvatten voor gebruik. Natuurlijk staan de frameworks niet op zichzelf. Ze zijn een uitbreiding op onze gedragsregels zoals die in onze bedrijfscode, security policy, data policy en privacy policy staan. Op die manier sluit het AI-beleid goed aan op de waarden van ons bedrijf. ‘Het is belangrijk om de toepassing van AI echt met elkaar te doorleven,’ besluit Lienke. ‘Zodat alle betrokkenen weten waarom en waarvoor je het toepast.’

Geïnspireerd?

In onze whitepaper Slimmer werken met AI vind je nog veel meer inzichten en ervaringen. Plus: een stappenplan om zélf verantwoord AI in te zetten.

Slimmer Werken met AI

Lees alles over AI voor je organisatie. Zoals de 3 kansen & risico’s van AI. En leer over hoe je een succesvolle AI organisatie bouwt.

Download

Gerelateerde artikelen