ISACA: Dve tretjini organizacij ne obravnava tveganj AI

Le tretjina organizacij ustrezno obravnava varnostna, zasebnostna in etična tveganja pri uporabi AI, kljub naraščajoči uporabi teh tehnologij na delovnem mestu, kažejo nove raziskave ISACA.

Raziskava, v kateri je sodelovalo 3270 strokovnjakov za digitalno zaupanje, je pokazala, da le 34 % meni, da organizacije posvečajo dovolj pozornosti etičnim standardom AI, medtem ko jih manj kot tretjina (32 %) meni, da se organizacije ustrezno ukvarjajo z vprašanji zasebnosti podatkov in pristranskosti pri uvedbi AI.

To je kljub temu, da je 60 % anketirancev navedlo, da zaposleni v njihovih organizacijah uporabljajo orodja za generativno AI pri svojem delu, 70 % pa jih je dejalo, da zaposleni uporabljajo kakršnokoli obliko AI.

Poleg tega 42 % organizacij zdaj uradno dovoljuje uporabo generativne AI na delovnem mestu, kar je več kot 28 % pred šestimi meseci, navaja ISACA.

Trenutno se AI najpogosteje uporablja za povečanje produktivnosti (35 %), avtomatizacijo ponavljajočih se nalog (33 %) in ustvarjanje pisne vsebine (33 %), so povedali anketiranci.

Pomanjkanje znanja in usposabljanja o umetni inteligenci AI

Raziskava, datirana na 7. maj, je pokazala pomanjkanje znanja o AI med strokovnjaki za digitalno zaupanje, saj je le 25 % izjavilo, da so zelo ali zelo dobro seznanjeni z AI.

Skoraj polovica (46 %) se je opredelila kot začetniki glede AI.

Strokovnjaki za digitalno zaupanje večinoma priznavajo potrebo po izboljšanju svojega znanja o AI za svoje vloge, saj jih 85 % priznava, da bodo morali v naslednjih dveh letih povečati svoje spretnosti in znanje na tem področju, da bi napredovali ali obdržali svojo zaposlitev.

Večina organizacij nima ukrepov za reševanje pomanjkanja znanja o AI med IT strokovnjaki in splošno delovno silo. Skoraj polovica (40 %) ne ponuja nobenega usposabljanja o AI, 32 % anketirancev pa je dejalo, da je usposabljanje omejeno na zaposlene, ki delajo na tehnoloških področjih.

Poleg tega ima le 15 % organizacij formalno, celovito politiko vladanja uporabe AI tehnologije.

Rob Clyde, nekdanji predsednik upravnega odbora ISACA in direktor upravnega odbora pri Cybral, je v pogovoru za Infosecurity dejal, da je to neposredno povezano s pomanjkanjem strokovnega znanja in usposabljanja o AI.

“Strokovnjaki za upravljanje kibernetske varnosti so tisti, ki sprejemajo politike. Če niso zelo seznanjeni z AI, se bodo težko počutili udobno pri oblikovanju politike za AI,” je poudaril.

Clyde je organizacijam svetoval, naj uporabijo razpoložljive okvire AI za pomoč pri oblikovanju politike upravljanja AI, kot je okvir za upravljanje tveganj AI ameriškega Nacionalnega inštituta za standarde in tehnologijo (NIST).

Medtem bi morale organizacije vsaj uvesti nekaj jasnih pravil glede uporabe AI, kot je ne vnašanje zaupnih informacij v javne velike jezikovne modele (LLM), je dodal Clyde.

“Nimate veliko časa, da bi to ugotovili, zdaj je čas,” je opozoril.

ISACA je tudi razkrila, da je izdala tri nove spletne tečaje za usposabljanje o AI, vključno z revidiranjem in upravljanjem teh tehnologij.

Vpliv AI na delovna mesta v kibernetski varnosti

IT strokovnjaki, ki so sodelovali v raziskavi, so izpostavili tudi pomemben vpliv, ki ga pričakujejo, da bo imel AI na delovna mesta na splošno.

Približno polovica (45 %) jih verjame, da bo v naslednjih petih letih zaradi AI veliko delovnih mest ukinjenih, 80 % pa jih meni, da bo zaradi teh tehnologij veliko delovnih mest spremenjenih.

Vendar pa jih 78 % verjame, da bo AI imel nevtralen ali pozitiven vpliv na njihove kariere.

Clyde je povedal Infosecurityju, da pričakuje, da bo AI sčasoma nadomestil določene vloge v kibernetski varnosti. To vključuje analitike SOC, saj je AI veliko boljši od ljudi pri prepoznavanju vzorcev. Druga vloga, je bistveno zmanjšanje človeške vloge pri pisanju politik in poročil.

Vendar pa se je Clyde strinjal z veliko večino anketirancev, da bo AI imel neto pozitiven vpliv na delovna mesta v kibernetski varnosti, saj bo ustvaril veliko novih vlog, povezanih z varno in zanesljivo uporabo AI na delovnem mestu.

Na primer, strokovnjaki, ki preverjajo, ali model AI ni pristranski, ni ogrožen ali zagotavljajo, da se dezinformacije, ki temeljijo na AI, ne širijo v okolju.

“Če pomislite, obstajajo povsem nove priložnosti za nas,” je dejal Clyde.

Obvladovanje groženj, povezanih z AI

Anketiranci so izrazili tudi veliko zaskrbljenost zaradi zlonamernih akterjev, ki uporabljajo orodja AI za ciljanje na njihove organizacije.

Več kot štirje od petih (81 %) so poudarili dezinformacije kot največjo grožnjo. Zaskrbljujoče je, da je le 20 % IT strokovnjakov dejalo, da so prepričani v svojo sposobnost zaznavanja dezinformacij, ki jih poganja AI, in 23 % v sposobnost njihovega podjetja, da to stori.

Poleg tega je 60 % dejalo, da so zelo ali izjemno zaskrbljeni, da bodo zlonamerni akterji izkoristili generativno AI, na primer za ustvarjanje bolj verodostojnih phishing sporočil.

Kljub temu jih le 35 % verjame, da so tveganja, povezana z AI, neposredna prednostna naloga, ki jo je treba obravnavati.

Delite objavo:

Zadnje objave

CIO, CISO, IT manager: 4-stopenjski pristop k načrtovanju in zaščiti najpomembnejših sredstev za delovanje podjetja

Uvedba Disaster Recovery Plana (DRP) res finančno zahtevna?

Kako NIS 2 spreminja kibernetsko varnost za hotelirje?