Hoe werk je veilig met AI chatbots op kantoor?

Ai chatbots
Ai chatbots

ChatGPT en vergelijkbare AI-chatbots kunnen een handig hulpmiddel zijn bij het schrijven van teksten, het herschrijven van brieven of het opdoen van inspiratie. Het gebruik ervan brengt echter ook reële privacy- en veiligheidsrisico’s met zich mee, vooral wanneer er persoonsgegevens worden ingevoerd.

Wat gaat er vaak mis?

In de praktijk blijkt dat medewerkers soms onbewust gevoelige informatie kopiëren en plakken in een chatbot. Denk aan:

  • Namen en contactgegevens van klanten of relaties;
  • Persoonsgegevens in conceptbrieven of e-mails;
  • Medische, financiële of andere vertrouwelijke informatie;
  • Interne dossiers of klantoverzichten.

Het lastige is dat dit vaak niet “expres” gebeurt. Het voelt als tekst bewerken. Maar technisch gezien deel je data met een externe partij, buiten je eigen systemen.

Waarom is dit een probleem?

Zodra persoonsgegevens in een chatbot belanden, verlaat die informatie je organisatie en wordt die verwerkt door een externe leverancier. Je hebt dan niet meer dezelfde controle als binnen je eigen IT omgeving.

Onder de algemene verordening gegevensbescherming (AVG) geldt onder andere:

  • Je mag persoonsgegevens alleen verwerken met een duidelijke juridische grondslag.
  • Je moet afspraken maken over verwerking, beveiliging en bewaartermijnen.
  • Ongecontroleerd delen van gegevens kan een AVG overtreding zijn.
  • Een datalek is niet alleen een technisch probleem, maar ook een verantwoordelijkheid van de organisatie.

Zie het als een openstaande deur in je datastroom. Het lijkt klein, maar de impact kan groot zijn.

Voorbeelden uit de praktijk

De Autoriteit Persoonsgegevens geeft aan meldingen te hebben ontvangen waarbij organisaties persoonsgegevens invoerden in AI chatbots en dat dit kan uitkomen op een datalek.

Ook internationaal duiken incidenten op. In Australië meldde de overheid van New South Wales bijvoorbeeld dat persoonlijke informatie is uitgelekt na ongeautoriseerd gebruik van ChatGPT, waarbij een spreadsheet werd geüpload.

De rode draad: het gaat vaak mis door gemak, niet door kwade wil.

Wat mag wel met AI chatbots?

AI chatbots kun je prima gebruiken als je je input schoon en veilig houdt. Dit werkt goed:

  • Volledig geanonimiseerde voorbeelden (dus geen herleidbare details)
  • Fictieve namen, fictieve klantcases, nep e-mailadressen
  • Algemene vragen over taal, structuur, opbouw, tone of voice
  • Inspiratie voor teksten, formats, checklists en brainstorms

Als je de tekst niet zonder bezwaar op een openbaar forum zou zetten, dan hoort die ook niet in een chatbot.

Geen waarschuwing maar bewustwording

Dit is geen waarschuwing tegen het gebruik van AI, maar een oproep tot bewust en zorgvuldig gebruik. Door geen persoonsgegevens te delen, bescherm je niet alleen je klanten en collega’s, maar ook jezelf en de organisatie.

Je hebt de tekst vanaf het begin tot het einde gelezen, waarvoor dank, deze tekst is grotendeels gegenereerd via een AI chatbot, maar dat zal misschien geen verassing zijn. 😉

📞 Bel ons op 0318 53 19 66
📧 helpdesk@ictzaak.nl
🌐 Stel je vraag via contact

Deel dit bericht

Klanttevredenheid 99,07%

108 ticketbeoordelingen afgelopen 2 maanden

Meer blog artikelen