Ljudi otkrivaju čet-botu najintimnije detalje iz svojih života - koriste ''Chat GPT'' da bi dobili psihološku podršku, savjete. Pitaju ga kako da postupe u ovoj ili onoj situaciji, šta je ispravnije i gdje pronaći nešto što im je potrebno.
Međutim, korisnici često ne shvataju da, u komunikaciji sa ovim softverom sa vještačkom inteligencijom nemaju onaj nivo povjerljivosti kakav postoji kada razgovaraju sa psihoterapeutom, ljekarom ili advokatom.
Činjenica da ne postoji povjerljivost ove vrste, na kakvu se obavezuju stručnjaci u radu sa klijentima, znači samo jedno - u slučaju da korisnik dođe u situaciju da se protiv njega pokrene neki sudski proces, konverzacije postaju dostupne.
''Mislim da je to vrlo zeznuto. Smatram da bi trebalo da postoji isti koncept privatnosti za konverzacije koje korisnici vode sa ''Chat GPT'', kao i za one koje se vode sa terapeutom'', mišljenja je Altman.
Kompanija na čijem je on čelu svjesna je da nedostatak razumijevanja u domenu privatnosti može biti i jedan od razloga zbog koga korisnici oklijevaju da koriste ovaj alat, prenosi portal Tek Kranč.
Koje podatke nikada ne bi trebalo da dijelite sa vještačkom inteligencijom
Iako lični asistenti poput ''Chat GPT'' zaista mogu da uproste pojedine aktivnosti, a imajući u vidu da podaci mogu postati dostupni u pojedinim okolnostima, stručnjaci za sajber bezbijednost savjetuju da neke detalje ostavite za sebe.
Sa AI alatima nikako ne bi trebalo da dijelite lične informacije koje otkrivaju vaš identitet (jedinstveni matični broj građana, adresu stanovanja, brojeve isprava zdravstvenog osiguranja, pasoša i ličnih karata i slično).
Takođe, ne bi trebalo da dijelite ni rezultate medicinskih ispitivanja, finansijske i poslovne podatke, kao ni lozinke koje koristite da biste pristupili svojim korisničkim nalozima, piše Vašington Post.