Home Bots & Business Nederlandsers negeren privacy-aspecten ChatGPT

Nederlandsers negeren privacy-aspecten ChatGPT

door Pieter Werner

37 procent van de Nederlanders zou overwegen ChatGPT voor het werk te gebruiken en 38 procent doet dat al, zo blijkt uit onderzoek van Kaspersky onder 1.000 Nederlanders. Ondanks dat 69 procent van de respondenten weet hoe de informatieverwerking van ChatGPT werkt, vindt de meerderheid het niet belangrijk om gesprekken en chatgeschiedenis privé te houden; en als ze dat wel doen, geven ze toe toch privégegevens te delen.

Deze houding kan bedrijven in gevaar brengen, met mogelijk schadelijke gevolgen als er een datalek optreedt, zegt Kaspersky. ChatGPT is erg populair in Nederland met bijna 1,5 miljoen gebruikers in de eerste maanden na de lancering. Dat de tool voor het werk wordt gebruikt is dan ook geen verrassing, maar de kans op misbruik blijft groot. Hoewel er aan de ene kant iets voor te zeggen is om ChatGPT te gebruiken om de manier waarop we werken te verbeteren, blijkt aan de andere kant dat het kennisniveau over de informatieverwerking ervan te wensen overlaat. Zo zegt 31 procent geen idee te hebben hoe ChatGPT zijn informatie verwerkt. En hoewel 69 procent denkt op de hoogte te zijn, zegt het merendeel (42%) slechts ongeveer te begrijpen hoe het werkt.

Daarnaast vroeg Kaspersky naar meningen over het delen van gevoelige informatie met de AI-tool. Bijna een kwart (24%) zegt dat ze het niet belangrijk vinden om gesprekken en chatgeschiedenis privé te houden. Een groter deel (34%) vindt het belangrijk om zoekopdrachten privé te houden, maar geeft toe toch (af en toe) gevoelige informatie te delen. De enquête legt dus een zorgwekkend probleem bloot met werknemers die potentieel gevoelige gegevens delen met ChatGPT.

Gevaar voor bedrijven

“De hoge potentie onder Nederlanders om ChatGPT te gebruiken voor werk, gecombineerd met een gebrek aan dataprivacy en beveiligingsbewustzijn is zorgwekkend, vooral omdat veel AI-diensten input van gebruikers kunnen hergebruiken om hun systemen te verbeteren, wat kan leiden tot datalekken. Dit is ook het geval als hackers de inloggegevens van gebruikers zouden stelen, omdat ze toegang zouden kunnen krijgen tot de potentieel gevoelige informatie die is opgeslagen als chatgeschiedenis”, zegt Vladislav Tushkanov, Data Science Lead, Kaspersky. “Medewerkers die zich niet bewust zijn van de mogelijke privacyimplicaties van deze tools kunnen onbewust een gevaar vormen, waarbij gevoelige informatie in verkeerde handen valt in het geval van een aanval. Het is daarom belangrijk om duidelijke richtlijnen te hebben voor het gebruik van AI-tools op het werk om dit soort scenario’s te voorkomen.”

Misschien vind je deze berichten ook interessant