
Link: https://www.ictbusiness.info / internet / curenje-podataka-iz-popularnog-ai-generatora-fotografija-izazvao-paniku
Curenje podataka iz popularnog AI generatora fotografija izazvao paniku
Kada većina ljudi komunicira s umjetnom inteligencijom, bilo da pišu upit ili generiraju slike, pretpostavljaju određenu razinu privatnosti. Osjeća se kao razgovor između vas i AI-ja. Međutim, nedavno izvješće Wireda trebalo bi sve natjerati da dvaput razmisle.
Cyber security stručnjak Jeremiah Fowler otkrio je nezaštićenu bazu podataka u vlasništvu južnokorejske AI tvrtke GenNomis, koja je sadržavala preko 95.000 datoteka - mnoge od njih bile su eksplicitne, a neke vjerojatno i nezakonite.
Baza podataka otkrila je točno što su korisnici generirali pomoću AI alata te tvrtke, i bilo je uznemirujuće - eksplicitni sadržaj bez pristanka, deepfakeovi i materijali koji su izgledali kao seksualno zlostavljanje djece (CSAM).
GenNomis je brzo zaključao bazu podataka nakon što su ih kontaktirali, ali šteta je već bila učinjena. Ova priča je alarmantna iz više razloga, ali ponajviše zbog onoga što otkriva o sigurnosti AI-ja i korisničkim pretpostavkama. Mnogi ljudi koriste generativne AI alate kao osobne asistente ili privatne bilježnice.
Neki ih koriste za razvijanje poslovnih ideja, pisanje osobnih razmišljanja ili čak ispovijedanje tajni - iako je potonje među stvarima koje nikako ne biste trebali dijeliti s chatbotom.
Ali što ako se ti upiti pohranjuju? Što ako im mogu pristupiti ne samo programeri ili interni timovi, već potencijalno i hakeri ili istraživači?
Slučaj GenNomis nije izolirani incident. Zapravo, ukazuje na mnogo širi problem - pogrešno shvaćanje privatnosti u kontekstu AI-ja. Mnogi korisnici i dalje vjeruju da su njihovi razgovori i kreacije s AI-jem privatni, dok se u stvarnosti ti podaci često pohranjuju, pregledavaju i, u nekim slučajevima, ostaju ranjivi.
Velike platforme poput ChatGPT-a tvrtke OpenAI ili Google Geminija prikupljaju korisničke unose za poboljšanje i treniranje sustava.
Ovu postavku možete provjeriti ili promijeniti pod Settings > Data Controls > Chat History & Training. Ako je ta opcija isključena, vaši se razgovori ne pohranjuju niti koriste za treniranje.
Ako ostane uključena, vaši razgovori mogu se pregledavati od strane OpenAI-ja kako bi se poboljšala učinkovitost modela, ali i tada se to čini na način koji štiti privatnost. Dakle, osim ako izričito ne dopustite korištenje svojih podataka, vaši razgovori neće biti korišteni za treniranje ChatGPT-a.
Sve dok se vaš unos prenosi i pohranjuje putem cloud infrastrukture, uvijek postoji rizik od izlaganja - bilo zbog ljudske pogreške, sigurnosnog proboja ili namjernog zloporabe.
Posljedice su stvarne. Kao što je vidljivo iz slučaja GenNomis, kada se AI podaci ne osiguraju pravilno, to ne predstavlja samo potencijalno kršenje privatnosti - već može postati izvor štete.
Od osvetničke pornografije i deepfakeova do nasilnog ili nezakonitog sadržaja, ono što korisnici unose u ove modele može imati posljedice.