Je AI neškodná alebo sa máme čoho obávať?

Umelá inteligencia a práva duševného vlastníctva

Boom rozličných nástrojov umelej inteligencie za posledný rok je nespochybniteľný. Snáď v každej oblasti ľudskej činnosti sme svedkami nárastu ponuky platforiem postavených na technológiách strojového učenia. Už tu je zaujímavým problémom popieranie principiálneho rozdielu medzi strojovým učením (machine learning) a umelou inteligenciou (AI). Pre tento článok sa však uspokojme s aktuálne vychyteným využívaním skratky AI.

Kdesi v diskusiách som pred časom vyslovil myšlienku, že rok 2023 bude typický nárastom praktického využívania nástrojov AI a rok 2024 bude rokom nárastov súdnych sporov napríklad za porušovanie práv duševného vlastníctva. Musím otvorene priznať, mýlil som sa. Rok 2023 ešte neskončil a vo svete sa už dvíha vlna žalôb voči tvorcom rôznych platforiem.

Spomeňme len pár:

  • 9/2023, USA: združenie autorov žaluje spoločnosť OpenAI za podozrenie, že pre „učenie“ platformy ChatGPT boli bez súhlasu autorov využité ich autorské diela. Žaloba sa tiež týka generovania „pirátskych kníh“ platformou ChatGPT a rovnako využívania pirátskych zdrojov.
  • 4/2023, Taliansko:  dočasné pozastavenie využívania ChatGPT talianskym regulátorom ochrany osobných údajov z dôvodov nesúladu s GDPR
  • 1/2023, USA: žaloba voči prevádzkovateľom platforiem Stability Diffusion, Midjourney a DreamUp

V čom spočíva principiálny problém?

Základný problém spočíva priamo v technologickej stránke fungovania platformy. Na pozadí sa v princípe jedná len o systém spracovania veľkého objemu dát, ktoré sú verejne dostupné na rôznych internetových zdrojoch. Zjednodušene povedané, platforma ich zozbiera, podľa implementovaných algoritmov spracuje, a poskytne používateľovi „učesaný“ výstup – obsažný, prehľadný a prakticky použiteľný. Ale, máme tu jedno veľké ALE. Je dôležité podčiarknuť, že platforma ako napríklad ChatGPT nerieši obsahovú stránku z hľadiska akceptovania autorských práv výsledného diela.

Koniec koncov už pri prvotnom spustení platformy každý kto sa ju rozhodol otestovať bol autormi upozornený, že tvorcovia nenesú žiadnu zodpovednosť za generovaný obsah, a zodpovednosť za prípadné porušovanie práv duševného vlastníctva prenášajú na koncového používateľa.

Zaujímavou je napríklad časť „diskusie“ priamo s ChatGPT, kde na otázku práv duševného vlastníctva ChatGPT prezentuje „znalosť“ chápania princípov ochrany autorských práv, ale zároveň si vymedzuje „alibi“ prečo podľa týchto princípov nefunguje.

AI a  riziká

Aktuálne ponechajme bokom polemiky o etike a morálke praktického fungovania platforiem generujúcich texty pomocou technológií AI – je totižto zrejmé, že pri tvorbe odpovedí tieto platformy neberú ohľad na žiadne etické, morálne či iné, v bežnej komunikácii zaužívané, princípy.

Pozrime sa na riziká, ktoré nás reálne môžu ovplyvniť. V odborných kruhoch sa totižto čoraz viac diskutuje o riziku, ktoré v dnešnej dobe nárastu cien energií nie je nezanedbateľnou témou, a to o energetickej náročnosti prevádzkovania nástrojov AI. Odhaduje sa, že nasledujúce roky prinesú značný nárast implementácie nástrojov umelej inteligencie a spolu s ním aj extrémny nárast spotreby elektrickej energie na prevádzku systémov AI.

Zaujímavý článok k  problematike energetickej náročnosti prevádzky AI nájdete na linku: https://www.sciencedirect.com/science/article/pii/S2542435123003653?dgcid=author[EM1] 

V oblasti predikcie rizík kybernetickej bezpečnosti sa tiež už niekoľko rokov diskutovalo o 3 závažných fenoménoch (samozrejme je ich ďaleko viac), ktoré budú predstavovať zásadné riziká:

  1. Dominantný nárast metód sociálneho inžinierstva zameraný najmä na phishing a adresný phishing
  2. Silný nárast praktického využitia AI bez dostatočných regulačných zásahov, čím sa vytvoria podmienky pre „zneužívanie“ nástrojov AI pri príprave a priebehu útokov voči rôznym skupinám používateľov
  3. Nárast počtu inteligentných zariadení (IOT) bez dostatočného technologického zabezpečenia bezpečnosti používateľov

Ak sa ale chceme reálne baviť o kybernetickej bezpečnosti, dnes je preukázateľné a nespochybniteľné, že nástroje AI sa stali silným nástrojom v rukách útočníkov.  Spomeňme len niektoré formy využívania AI považovaných za rizikové, a ktorým je potrebné venovať pozornosť:

  1. generovanie scenárov phishingových útokov
  2. generovanie ransomware a iných infiltrácií
  3. deepfake technológie
    • generovanie hlasu pre útoky typu vishing
    • generovanie falošných fotografií/videí

…. ale o tom podrobnejšie niekedy nabudúce.

Vyjadrite váš názor v komentároch