V poslední době se výrazně zvyšuje popularita aplikací využívajících velké jazykové modely (Large Language Models – LLM) jako je ChatGPT společnosti OpenAI, Bing AI od Microsoftu nebo Bard od Google. Tyto nástroje jsou rychlé, snadno použitelné a dostupné pro všechny. Proto není překvapivé, že je začali využívat zaměstnanci jak velkých, tak malých firem. Na tom není nic špatného, avšak nesmí se zapomenout na jednu důležitou věc.
ChatGPT a podobné aplikace založené na strojovém učení se začínají ve velkém prosazovat ve firemním prostředí, a to k různým účelům:
„Systémy využívající LLM již nyní přispívají ke zlepšování firemního obsahu, pomáhají zaměstnancům s různými úkoly, a dokonce se podílejí na rozhodovacích procesech,“ vyjmenovává Martin Lohnert, specialista pro oblast kyberbezpečnosti v technologické společnosti Soitron. Nicméně s přijetím těchto revolučních technologií přicházejí i určitá rizika, které si jak uživatelé, tak organizace často neuvědomují, z důvodu prvotního nadšení.
Okamžitý přínos nástrojů využívajících LLM je natolik velký, že zvědavost a nadšení z nich převažují nad opatrností. Existuje několik rizik spojených s používáním ChatGPT ve firmách:
Při používání ChatGPT v podnikovém prostředí může docházet k nechtěnému sdílení osobních či důvěrných údajů. Uživatelé často do nástroje vkládají tyto údaje bez povědomí, že jsou poskytnuty třetí straně. Byl již zaznamenán případ, kdy chyba v ChatGPT umožnila uživatelům vidět zpracovávaná data jiných uživatelů, např. historii chatu.
Trénování LLM je založeno na zpracování velkého množství různorodých a neznámých dat, která mohou obsahovat i materiály chráněné autorskými a vlastnickými právy. Použití výstupů z těchto dat může vést ke sporům o vlastnictví a licencování mezi společností a vlastníky obsahu, který byl použit při trénování ChatGPT.
Počítačový kód vygenerovaný AI môže (rovnako ako ten písaný ľuďmi) obsahovať zraniteľné miesta alebo škodlivé komponenty. To môže viesť k jeho následnému použitiu a rozšíreniu zraniteľnosti do firemných systémov.
Aktuální generace AI nástrojů občas poskytuje nepřesné nebo úplně nesprávné informace. Byly zaznamenány případy, kdy výstupy obsahovaly zkreslený, diskriminační nebo nelegální obsah.
Použití nesprávných výstupů ChatGPT ve firemní komunikaci a jejich následné sdílení může vést společnost k etickým a reputačním rizikům.
S ohledem na tato rizika je nezbytné definovat pravidla, jak zaměstnanci mohou (a mají) používat ChatGPT při plnění svých pracovních úkolů. „Firemní politika by měla sloužit jako kompas, který provede společnost a její zaměstnance labyrintem systémů umělé inteligence eticky, zodpovědně a v souladu se zákony a vyhláškami,“ uvádí Martin Lohnert.
Při definování firemní politiky je nutné si nejprve stanovit, jakých technologií se má týkat. Má se politika vztahovat specificky na ChatGPT? Nebo obecně na nástroje generativní umělé inteligence? Zahrnuje také nástroje třetích stran, které mohou obsahovat prvky AI nebo dokonce vývoj podobných řešení?
Politika používání ChatGPT by měla začínat závazkem ochrany osobních údajů a bezpečnosti při práci s podobnými nástroji a stanovovat hranice tím, že dojde k jasnému definování přijatelné a nepřijatelné použití technologií.
Měla by definovat způsoby použití, které budou v organizaci povoleny bez omezení. „Může se jednat například o různé typy marketingových aktivit, jako je revize materiálů pro veřejné použití, generování nápadů nebo základů materiálů pro další zpracování,“ vyjmenovává Martin Lohnert. Přitom je však třeba pečlivě zvážit právní aspekty duševního vlastnictví a dávat pozor na známé úskalí nepřesností a dezinformací.
Druhou skupinou pravidel by měly být scénáře, ve kterých je použití povoleno, ale s dodatečnou autorizací. Typicky se jedná o případy, kdy musí být výstup z ChatGPT před jeho dalším využitím posouzen odborníkem (např. v případě počítačového kódu).
A třetí kategorií jsou scénáře, které jsou úplně zakázány. Sem by měly patřit všechny ostatní způsoby použití, zejména ty, kde uživatelé do ChatGPT vkládají cokoli obsahující citlivé údaje (obchodní tajemství, osobní údaje, technické informace, vlastní kódy atd.).
Politika využívání LLM by měla být „ušitá“ na míru každé společnosti poté, co důkladně identifikujete související potenciální rizika, hrozby a jejich dopady. „Tím umožníte společnosti rychle využít potenciál přicházejících nástrojů s prvky umělé inteligence a současně hledat a formulovat strategii pro jejich začlenění do stávajícího firemního prostředí,“ zakončuje Martin Lohnert.
We are in the process of finalizing. If you want to be redirected to our old version of web site, please click here.