NIST i umetnička inteligencija: Inovacije u zaštiti kritične infrastrukture
Nacionalni institut za standarde i tehnologiju (NIST) nedavno je uspostavio partnerstvo s MITER-om, neprofitnom istraživačkom organizacijom, s ciljem istraživanja načina na koje umjetna inteligencija (AI) može poboljšati sigurnost kritične infrastrukture u Sjedinjenim Američkim Državama. Ova inicijativa dolazi u vrijeme kada se kibernetske prijetnje sve više povećavaju, a zaštita elektrana, bolnica i drugih važnih infrastrukturnih sustava postaje presudna.
Stvaranje Centra za ekonomsku sigurnost umjetne inteligencije
NIST je najavio formiranje Centra za ekonomsku sigurnost umjetne inteligencije, koji će se fokusirati na razvoj i implementaciju alata vođenih umjetnom inteligencijom. Ovi alati trebaju pomoći sigurnosnom osoblju da se suprotstavi hakerima i drugim prijetnjama koje bi mogle oštetiti ili onesposobiti kritične sustave. Prema riječima glasnogovornika NIST-a, cilj je omogućiti američkoj industriji da donosi promišljene odluke u vezi s implementacijom AI tehnologija.
održavanje konkurentske prednosti
Novi centar dio je strategije trenutne američke administracije koja teži održavanju konkurentske prednosti u području istraživanja i primjene AI, posebno u svjetlu sve većih nastojanja Kine na tom polju. NIST također naglašava svoj cilj zaštite dominacije američke inovativnosti u tehnologijama i smanjenje rizika od zlonamjernog korištenja umjetne inteligencije.
Osiguranje pouzdane automatizacije
Društva uključena u testiranje otpornosti na AI, poput Optica Labs, ističu važnost osiguravanja pouzdanosti sustava koji se oslanjaju na AI modele. Mnogi poslovni sektori usvajaju AI radi olakšavanja analize podataka, no važno je da odluke budu ne samo brze, već i točne. Nova istraživanja trebaju iskoračiti dalje od postojećih napora u vezi s zaštitom podataka i AI modela od hakera, kako bi se stvorila sigurnost u interakciji između ljudi i AI sustava.
Testiranje i usporedba sigurnosti AI
Nick Reese naglašava da trenutno postoji ozbiljan nedostatak testiranja i usporedbe sigurnosti AI sustava, pri čemu se većina testiranja fokusira na performanse modela. Ova situacija pruža NIST-u i MITER-u jedinstvenu priliku da prošire prostor osiguranja umjetne inteligencije i donesu rješenja koja će imati stvarni utjecaj na sigurnost pružanja kritičnih usluga.
Andrew Lohn iz Centra za sigurnost i nove tehnologije Sveučilišta Georgetown slaže se s prioritizacijom pouzdanosti u svim istraživanjima vezanim uz sigurnost umjetne inteligencije. Upozorava da, iako AI može ostvariti nevjerojatne rezultate, puno je manje pouzdana od tradicionalnih sustava, što zahtijeva dodatna istraživanja i razvoj.
Unapređenje tehnologije za kritičnu infrastrukturu
Priprema tehnologija koje će smanjiti kvarove AI sustava je ključna, budući da objekti kritične infrastrukture imaju nižu toleranciju na greške. Postojeće strategije moraju se prilagoditi tako da smanje ili umanje potencijalne neuspjehe AI sustava, a niža razina tolerancije na greške zahtijeva se rigoroznija testiranja i kako bi se uspješno primjenjivale u kritičnim zadacima.
Kretanje prema pouzdanim sustavima
Da bi se umjetna inteligencija integrirala u operacije kritične infrastrukture, sustavi i standardi moraju biti dizajnirani s obzirom na varijabilnost i potencijalne pogreške koje mogu nastati. Ova tema postaje sve relevantnija kako se umjetna inteligencija sve više koristi u procesima koji zahtijevaju visoku razinu pouzdanosti. Optimizam se može naći u napretku koji će postignuti u partnerstvu između NIST-a i MITER-a te u mogućnostima koje će to donijeti za sigurnost budućih tehnologija.
Ova inicijativa pruža fundament za daljnji razvoj umjetne inteligencije u sigurnosnim aplikacijama, istovremeno odgovarajući na rastuće izazove koji prate sveprisutno korištenje AI u našem svakodnevnom životu.
