De Autoriteit Persoonsgegevens krijgt steeds vaker meldingen van datalekken door gebruik van AI-chatbots op de werkvloer. Maak daarom duidelijke afspraken met werknemers over de inzet van AI-chatbots.
Medische gegevens delen via ChatGPT
Werknemers maken op de werkvloer steeds vaker gebruik van digitale assistenten, zoals ChatGPT en Copilot. Ze gebruiken deze AI-tools bijvoorbeeld om klantvragen te beantwoorden of om grote dossiers samen te vatten. Dat scheelt tijd, maar er kleven ook grote risico’s aan, waarschuwt de Autoriteit Persoonsgegevens.
Zo kreeg de AP een melding van een huisartsenpraktijk waar een werknemer medische gegevens van patiënten had ingevoerd in een AI-chatbot. Ook kreeg de AP een melding binnen van een telecombedrijf waar een werknemer een bestand met onder meer adressen van klanten aan een chatbot had gevoerd.
AVG en AI-chatbots
Om generatieve AI-tools te trainen delen werknemers vaak persoonsgegevens. Daardoor ontstaan datalekken. Voor het delen van persoonsgegevens met een andere organisatie (zoals de makers van de chatbots) gelden strenge regels op grond van de Algemene verordening gegevensbescherming (AVG). Je moet bijvoorbeeld het verwerken van de gegevens goed kunnen onderbouwen.
Voor medische gegevens zijn de regels nog strikter, omdat het een grote(re) impact op iemand kan hebben als die gegevens worden verwerkt. Ze vallen op grond van de AVG onder de ‘bijzondere categorieën van persoonsgegevens’ en krijgen extra bescherming.
Het is daarom van belang het gebruik van AI-chatbots met werknemers te bespreken. Stel richtlijnen op over het gebruik van digitale assistenten en chatbots. Meld een datalek indien nodig bij de Autoriteit Persoonsgegevens en aan de getroffen personen.