Hvorfor du ikke bør stole på ChatGPT med fortrolige oplysninger

Hvorfor du ikke bør stole på ChatGPT med fortrolige oplysninger
Læsere som dig hjælper med at støtte MUO. Når du foretager et køb ved hjælp af links på vores websted, kan vi optjene en affiliate-kommission. Læs mere.

ChatGPT er blevet et stort sikkerheds- og privatlivsproblem, fordi for mange af os fraværende deler vores private oplysninger om det. ChatGPT logger hver samtale, du har med den, inklusive alle personlige data, du deler. Alligevel ville du ikke vide dette, medmindre du har gravet igennem OpenAIs privatlivspolitik, servicevilkår og FAQ-side for at samle det.





MAKEUSE AF DAGENS VIDEO RUL FOR AT FORTSÆTTE MED INDHOLD

Det er farligt nok at lække dine egne oplysninger, men i betragtning af at store virksomheder bruger ChatGPT til at behandle information hver dag, kan dette være starten på en datalækkatastrofe.





Samsung lækkede fortrolige oplysninger via ChatGPT

Ifølge Gizmodo , Samsungs medarbejdere lækkede ved en fejl fortrolige oplysninger via ChatGPT ved tre separate lejligheder i løbet af 20 dage. Dette er blot et eksempel på, hvor nemt det er for virksomheder at kompromittere private oplysninger.





hvordan man indtaster bios windows 10 ved opstart

ChatGPT er offentligt under beskydning for sine privatlivsproblemer, så det er en betydelig forglemmelse, at Samsung lader dette ske. Nogle lande har endda forbudt ChatGPT at beskytte deres borgere, indtil det forbedrer deres privatliv, så man skulle tro, at virksomheder ville være mere forsigtige med, hvordan deres personale bruger det.

hvordan man åbner terminal på chromebook

Heldigvis ser det ud til, at Samsungs kunder er sikre - i det mindste nu. De overtrådte data vedrører kun intern forretningspraksis, noget proprietær kode, de fejlfinder, og referater fra et teammøde, alt sammen indsendt af medarbejderne. Det ville dog have været lige så nemt for personalet at lække forbrugernes personlige oplysninger, og det er kun et spørgsmål om tid, før vi ser en anden virksomhed gøre præcis det. Hvis dette sker, kan vi forvente at se en massiv stigning i phishing-svindel og identitetstyveri.



Der er også et andet risikolag her. Hvis medarbejdere bruger ChatGPT til at lede efter fejl, som de gjorde med Samsung-lækket, vil koden, de indtaster i chatboksen, også blive gemt på OpenAIs servere. Dette kan føre til brud, der har en massiv indvirkning på virksomheder, der fejlfinder ikke-udgivne produkter og programmer. Vi kan endda ende med at se information som ikke-udgivne forretningsplaner, fremtidige udgivelser og prototyper lækket, hvilket resulterer i enorme indtægtstab.

Hvordan sker ChatGPT-datalækager?

  ChatGPT-logo på mørkegrøn baggrund

ChatGPTs privatlivspolitik gør det klart, at det optager dine samtaler og deler logfilerne med andre virksomheder og deres AI-trænere. Når nogen (for eksempel en Samsung-medarbejder) indtaster fortrolige oplysninger i dialogboksen, bliver de optaget og gemt på ChatGPTs servere.





Det er højst usandsynligt, at medarbejderne har gjort dette med vilje, men det er den skræmmende del. De fleste databrud er forårsaget af menneskelige fejl . Ofte skyldes det, at virksomheden har undladt at oplyse sine medarbejdere om privatlivsrisici ved at bruge værktøjer som AI.

hvad er en funktion i programmering

For eksempel, hvis de indsætter en stor kontaktliste i chatten og beder AI'en om at isolere kundernes telefonnumre fra dataene, har ChatGPT så disse navne og telefonnumre i sine poster. Dine private oplysninger er prisgivet af virksomheder, du ikke har delt dem med, som muligvis ikke beskytter dem godt nok til at holde dig sikker. Der er et par ting, du kan gøre for at vær sikker på dig selv efter et databrud , men virksomheder bør være ansvarlige for at forhindre lækager.





Moralen i historien: Fortæl ikke ChatGPT dine hemmeligheder

Du kan trygt bruge ChatGPT til hundredvis af forskellige opgaver, men organisering af fortrolige oplysninger er ikke en af ​​dem. Du skal være forsigtig med at undgå at skrive noget personligt i chatboksen, herunder dit navn, adresse, e-mail og telefonnummer. Det er nemt at lave denne fejl, så du skal være omhyggelig med at tjekke dine meddelelser for at sikre, at intet er kommet ind ved et uheld.

Samsung-lækagen viser os, hvor reel risikoen for et ChatGPT-relateret datalæk er. Desværre vil vi se flere af denne type fejl, måske med langt større konsekvenser, da AI bliver en kernedel af de fleste virksomheders processer.