Kritična vloga varovanja podatkov v dobi umetne inteligence

Skrivnosti skritega AI treninga na vaših podatkih

Medtem ko so nekatere grožnje SaaS (ang. software as a service) jasne in vidne, so druge očem skrite, oboje pa predstavlja pomembno tveganje za vašo organizacijo. Raziskave podjetja Wing kažejo, da neverjetnih 99,7% organizacij uporablja aplikacije, vgrajene z AI funkcionalnostmi. Ta orodja, ki jih poganja AI, so nepogrešljiva in zagotavljajo brezhibne izkušnje od sodelovanja in komunikacije do upravljanja dela in odločanja.

Vendar pa pod temi udobji leži večinoma neprepoznano tveganje: potencial za kompromitacijo občutljivih poslovnih podatkov in intelektualne lastnine (IP) s strani AI zmožnosti v teh SaaS orodjih.

Nedavne ugotovitve podjetja Wing razkrivajo presenetljivo statistiko: 70% od desetih najpogosteje uporabljenih AI aplikacij lahko uporablja vaše podatke za usposabljanje svojih modelov. Ta praksa lahko presega zgolj učenje in shranjevanje podatkov. Lahko vključuje ponovno usposabljanje na vaših podatkih, analizo s strani človeških pregledovalcev in celo deljenje s tretjimi osebami.

Pogosto so te grožnje globoko zakopane v drobnem tisku sporazumov o pogojih in določilih ter politikah zasebnosti, ki opredeljujejo dostop do podatkov in zapletene postopke za odjavo. Ta prikrit pristop uvaja nova tveganja, zaradi katerih se varnostne ekipe borijo za ohranjanje nadzora.

Ta članek se poglobi v ta tveganja, ponuja primere iz resničnega sveta in predlaga najboljše prakse za zaščito vaše organizacije z učinkovitimi varnostnimi ukrepi SaaS.

Štiri tveganja AI treninga na vaših podatkih

Ko AI aplikacije uporabljajo vaše podatke za usposabljanje, se pojavijo številna pomembna tveganja, ki lahko vplivajo na zasebnost, varnost in skladnost vaše organizacije:

1. Intelektualna lastnina (IP) in uhajanje podatkov

Eden najpomembnejših pomislekov je potencialna izpostavljenost vaše intelektualne lastnine (IP) in občutljivih podatkov prek AI modelov. Ko se vaši poslovni podatki uporabljajo za usposabljanje AI, lahko nenamerno razkrijejo lastniške informacije. To bi lahko vključevalo občutljive poslovne strategije, trgovske skrivnosti in zaupne komunikacije, kar vodi do pomembnih ranljivosti.

2. Uporaba podatkov in neskladje interesov

AI aplikacije pogosto uporabljajo vaše podatke za izboljšanje svojih zmožnosti, kar lahko vodi do neskladja interesov. Na primer, raziskave podjetja Wing so pokazale, da priljubljena aplikacija CRM uporablja podatke iz svojega sistema – vključno s podrobnostmi o stikih, zgodovino interakcij in opombami strank – za usposabljanje svojih AI modelov. Ti podatki se uporabljajo za izboljšanje funkcij izdelka in razvoj novih funkcionalnosti. Vendar pa to lahko tudi pomeni, da lahko vaši konkurenti, ki uporabljajo isto platformo, koristijo vpoglede, pridobljene iz vaših podatkov.

3. Deljenje s tretjimi osebami

Še eno pomembno tveganje vključuje deljenje vaših podatkov s tretjimi osebami. Podatki, zbrani za AI usposabljanje, so lahko dostopni tretjim osebam, ki obdelujejo podatke. Ta sodelovanja so namenjena izboljšanju zmogljivosti AI in spodbujanju inovacij v programski opremi, vendar prav tako vzbujajo skrbi glede varnosti podatkov. Tretji ponudniki morda nimajo robustnih ukrepov za zaščito podatkov, kar povečuje tveganje za kršitve in nepooblaščeno uporabo podatkov.

4. Skladnostni pomisleki

Različni predpisi in zakonodaja po svetu nalagajo stroga pravila o uporabi, shranjevanju in deljenju podatkov. Zagotavljanje skladnosti postane bolj zapleteno, ko se AI aplikacije usposabljajo na vaših podatkih. Neskladnost lahko privede do visokih kazni, pravnih ukrepov in škode za ugled podjetja. Navigacija po teh predpisih zahteva veliko truda in strokovnosti, kar še dodatno zaplete upravljanje podatkov.

Kateri podatki se dejansko uporabljajo za usposabljanje?

Razumevanje podatkov, ki se uporabljajo za usposabljanje AI modelov v SaaS aplikacijah, je bistveno za ocenjevanje morebitnih tveganj in izvajanje robustnih ukrepov za zaščito podatkov.

Vendar pa pomanjkanje doslednosti in preglednosti med temi aplikacijami predstavlja izzive za vodje informacijske varnosti (CISO) in njihove varnostne ekipe pri identifikaciji specifičnih podatkov, ki se uporabljajo za AI usposabljanje. Ta nepreglednost vzbuja skrbi glede nenamernega razkritja občutljivih informacij in intelektualne lastnine.

Navigacija skozi izzive odjave podatkov v platformah, ki jih poganja AI

V SaaS aplikacijah so informacije o možnosti odjave od uporabe podatkov pogosto razpršene in nekonsistentne. Nekatere omenjajo možnosti odjave v pogojih storitve, druge v politikah zasebnosti, spet tretje pa zahtevajo pošiljanje e-pošte podjetju za odjavo. Ta nekonsistentnost in pomanjkanje preglednosti otežujejo nalogo varnostnim strokovnjakom, kar poudarja potrebo po poenostavljenem pristopu za nadzor uporabe podatkov.

Na primer, ena aplikacija za generiranje slik omogoča uporabnikom, da se odjavijo od usposabljanja podatkov z izbiro možnosti za generiranje zasebnih slik, ki so na voljo pri plačljivih opcijah (planih). Druga ponuja možnosti odjave, čeprav lahko to vpliva na zmogljivost delovanja modela. Nekatere aplikacije omogočajo posameznim uporabnikom, da prilagodijo osebnostne nastavitve, da preprečijo uporabo njihovih podatkov za usposabljanje.

Variabilnost v mehanizmih za odjavo poudarja potrebo varnostnih ekip po razumevanju in upravljanju politik uporabe podatkov v različnih podjetjih. Centralizirana rešitev za upravljanje varnostne drže SaaS (SSPM) lahko pomaga z zagotavljanjem opozoril in smernic o razpoložljivih možnostih odjave za vsako platformo, poenostavlja postopek in zagotavlja skladnost s politikami in predpisi za upravljanje podatkov.

Na koncu je razumevanje, kako AI uporablja vaše podatke, ključno za obvladovanje tveganj in zagotavljanje skladnosti. Vedeti, kako se odjaviti oziroma preprečiti uporabo teh kritičnih podatkov, je enako pomembno za ohranjanje nadzora nad vašo zasebnostjo in varnostjo.

Vendar pa pomanjkanje standardiziranih pristopov preko AI platform naredi te naloge zahtevne. Z dajanjem prednosti vidnosti, skladnosti in dostopnim možnostim odjave lahko organizacije bolje zaščitijo svoje podatke pred AI modeli za usposabljanje.

*Članek se v svoji originalni verziji nahaja na tem naslovu na portalu Hackernews in smo ga povzeli zaradi aktualnosti tematike čedalje večje uporabe SaaS orodij s funkcionalnostjo umetne inteligence pri podjetjih v Sloveniji. To področje, ki kritično posega v varovanje, upravljanje in vsa tveganja povezana s kritičnimi podatki podjetja, bo do oblikovanja novih/specifičnih delovnih mest padla na pleča #CISO in #CIO pozicij v podjetjih.

Delite objavo:

Zadnje objave

15 korakov za doseganje skladnosti po direktivi NIS 2

CIO, CISO, IT manager: 4-stopenjski pristop k načrtovanju in zaščiti najpomembnejših sredstev za delovanje podjetja

ISACA: Dve tretjini organizacij ne obravnava tveganj AI