Umelá inteligencia a práva duševného vlastníctva
Boom rozličných nástrojov umelej inteligencie za posledný rok je nespochybniteľný. Snáď v každej oblasti ľudskej činnosti sme svedkami nárastu ponuky platforiem postavených na technológiách strojového učenia. Už tu je zaujímavým problémom popieranie principiálneho rozdielu medzi strojovým učením (machine learning) a umelou inteligenciou (AI). Pre tento článok sa však uspokojme s aktuálne vychyteným využívaním skratky AI.
Kdesi v diskusiách som pred časom vyslovil myšlienku, že rok 2023 bude typický nárastom praktického využívania nástrojov AI a rok 2024 bude rokom nárastov súdnych sporov napríklad za porušovanie práv duševného vlastníctva. Musím otvorene priznať, mýlil som sa. Rok 2023 ešte neskončil a vo svete sa už dvíha vlna žalôb voči tvorcom rôznych platforiem.
Spomeňme len pár:
- 9/2023, USA: združenie autorov žaluje spoločnosť OpenAI za podozrenie, že pre „učenie“ platformy ChatGPT boli bez súhlasu autorov využité ich autorské diela. Žaloba sa tiež týka generovania „pirátskych kníh“ platformou ChatGPT a rovnako využívania pirátskych zdrojov.
- 4/2023, Taliansko: dočasné pozastavenie využívania ChatGPT talianskym regulátorom ochrany osobných údajov z dôvodov nesúladu s GDPR
- 1/2023, USA: žaloba voči prevádzkovateľom platforiem Stability Diffusion, Midjourney a DreamUp
V čom spočíva principiálny problém?
Základný problém spočíva priamo v technologickej stránke fungovania platformy. Na pozadí sa v princípe jedná len o systém spracovania veľkého objemu dát, ktoré sú verejne dostupné na rôznych internetových zdrojoch. Zjednodušene povedané, platforma ich zozbiera, podľa implementovaných algoritmov spracuje, a poskytne používateľovi „učesaný“ výstup – obsažný, prehľadný a prakticky použiteľný. Ale, máme tu jedno veľké ALE. Je dôležité podčiarknuť, že platforma ako napríklad ChatGPT nerieši obsahovú stránku z hľadiska akceptovania autorských práv výsledného diela.
Koniec koncov už pri prvotnom spustení platformy každý kto sa ju rozhodol otestovať bol autormi upozornený, že tvorcovia nenesú žiadnu zodpovednosť za generovaný obsah, a zodpovednosť za prípadné porušovanie práv duševného vlastníctva prenášajú na koncového používateľa.
Zaujímavou je napríklad časť „diskusie“ priamo s ChatGPT, kde na otázku práv duševného vlastníctva ChatGPT prezentuje „znalosť“ chápania princípov ochrany autorských práv, ale zároveň si vymedzuje „alibi“ prečo podľa týchto princípov nefunguje.
AI a riziká
Aktuálne ponechajme bokom polemiky o etike a morálke praktického fungovania platforiem generujúcich texty pomocou technológií AI – je totižto zrejmé, že pri tvorbe odpovedí tieto platformy neberú ohľad na žiadne etické, morálne či iné, v bežnej komunikácii zaužívané, princípy.
Pozrime sa na riziká, ktoré nás reálne môžu ovplyvniť. V odborných kruhoch sa totižto čoraz viac diskutuje o riziku, ktoré v dnešnej dobe nárastu cien energií nie je nezanedbateľnou témou, a to o energetickej náročnosti prevádzkovania nástrojov AI. Odhaduje sa, že nasledujúce roky prinesú značný nárast implementácie nástrojov umelej inteligencie a spolu s ním aj extrémny nárast spotreby elektrickej energie na prevádzku systémov AI.
Zaujímavý článok k problematike energetickej náročnosti prevádzky AI nájdete na linku: https://www.sciencedirect.com/science/article/pii/S2542435123003653?dgcid=author[EM1]
V oblasti predikcie rizík kybernetickej bezpečnosti sa tiež už niekoľko rokov diskutovalo o 3 závažných fenoménoch (samozrejme je ich ďaleko viac), ktoré budú predstavovať zásadné riziká:
- Dominantný nárast metód sociálneho inžinierstva zameraný najmä na phishing a adresný phishing
- Silný nárast praktického využitia AI bez dostatočných regulačných zásahov, čím sa vytvoria podmienky pre „zneužívanie“ nástrojov AI pri príprave a priebehu útokov voči rôznym skupinám používateľov
- Nárast počtu inteligentných zariadení (IOT) bez dostatočného technologického zabezpečenia bezpečnosti používateľov
Ak sa ale chceme reálne baviť o kybernetickej bezpečnosti, dnes je preukázateľné a nespochybniteľné, že nástroje AI sa stali silným nástrojom v rukách útočníkov. Spomeňme len niektoré formy využívania AI považovaných za rizikové, a ktorým je potrebné venovať pozornosť:
- generovanie scenárov phishingových útokov
- generovanie ransomware a iných infiltrácií
- deepfake technológie
- generovanie hlasu pre útoky typu vishing
- generovanie falošných fotografií/videí
…. ale o tom podrobnejšie niekedy nabudúce.
Vyjadrite váš názor v komentároch