Ai,Interface,Displays,Prompt,Failure,Alert,,Helping,Manage,Incorrect,Output

AI bez pravidel je skrytou hrozbou

Skoro pětina českých firem už pracuje s nějakým typem umělé inteligence – meziročně skoro dvojnásobek. Ale AI s sebou nese i zásadní bezpečnostní rizika. Jak se jim bránit?

4 minuty čtení

Míra využití umělé inteligence (AI) v českých firmách rychle roste s jejich velikostí. Z velkých podniků některou z forem AI v roce 2025 poprvé využívala více než polovina (54 procent), což odpovídá evropskému průměru. Český statistický úřad (ČSÚ) také zjistil, že zdaleka nejrychleji roste používání generativní AI. Technologie umožňující generování textů nebo řeči (ať už ChatGPT, Copilot, nebo například Gemini) používá 73 procent firem pracujících s AI (průměr zemí EU je 44 procent).

Nasazení AI dominuje v marketingu, prodeji a zákaznické podpoře (59 procent podniků využívajících AI), ale stále více zasahuje také do řízení podniků, administrativy a personalistiky (40 procent). Různé studie uvádějí i vyšší míru využití AI v českých firmách, ale vzácně se shodují na zásadním problému, kterým je zaostávání bezpečnostních politik za rychlým přijímáním nové technologie. A to může mít zásadní důsledky.

Ztráta kontroly nad daty

Situaci, kdy zaměstnanci používají AI nástroje bez vědomí oddělení IT nebo managementu, označujeme jako shadow AI. Typicky jde o veřejně dostupné služby jako ChatGPT, Claude nebo Gemini, do nichž zaměstnanci zadávají firemní data – od interních dokumentů přes údaje o zákaznících až po obchodní strategie, nebo dokonce finanční výkazy. ČSÚ současně uvádí, že skoro čtvrtina firem používajících AI nasazuje tyto technologie v oblasti účetnictví a financí stejně jako ve výzkumu a vývoji. Pokud zaměstnanci používají neautorizované nástroje právě zde, je riziko úniku citlivých informací skutečně zásadní. A vůbec nemusí jít o špatný úmysl jako spíše o neznalost nebo použití nesprávných (nedostatečně zabezpečených) AI nástrojů. Vzhledem k tomu, že se servery na zpracování dat v modelech AI mohou nacházet i mimo území EU, hrozí také porušení GDPR a dalších regulací. Současně existuje také „vnitřní“ riziko. Pokud bude totiž bez pravidel a další kontroly umožněno AI nástrojům zpracovávat interní podniková data, mohou se zaměstnanci snadno dostat k informacím, ke kterým ve své roli přístup mít nemají.

Promarněná investice

AI dozrává z fází testování a zavádění do reálného provozu, kdy by se měla začít projevovat návratnost investic. Zde se ovšem ukazuje, že firmy nejenže nemají přehled, kde a jakým způsobem AI zpracovává jejich data, ale ani o tom, kdo a jak pořízené nástroje využívá. Aktuální studie společnosti Atlassian zjistila, že plných 96 procent firem z žebříčku Fortune 1000 zatím návratnost ze svých investic do AI nevidí.

Problém může být v přílišném soustředění se na produktivitu práce (nebo možná spíše úsporu času) jednotlivců, kterou se však nedaří přetavit do zvýšení výkonu celé firmy. Studie Atlassianu tuto neefektivitu vypočítává v podobě ušlého zisku. V rámci firem z Fortune 500 má jít o 98 miliard dolarů.

Jak používat AI bezpečně

Zásadním krokem k bezpečnému a efektivnímu používání AI je nasazení pečlivě vybrané sady AI nástrojů určených pro podnikové využití. Existují podnikové verze ChatGPT, Claude, Copilota i dalších zařízení, jež garantují, že se citlivá data nebudou používat k trénování veřejně dostupných modelů. Současně je nutné nastavit pravidla, která zaručí dostupnost konkrétních typů dat na základě rolí.

Celým procesem adopce AI v podniku je nezbytné provést zaměstnance, kteří musí vědět, jaké nástroje jsou k dispozici, k čemu slouží a jak s nimi pracovat. Efektivní využívání AI nástrojů ve firmě podpoří i program školení. Také je nutné průběžně sledovat, jak zaměstnanci s AI nástroji opravdu pracují. Pokud je nevyužívají, možná potřebují další školení a návody. Ale může se také zjistit, že pro jejich roli není AI vhodná a firma může ušetřit za nevyužité licence.

Technickými opatřeními lze zablokovat přístup k neautorizovaným AI službám a prostřednictvím nástrojů typu DLP (data loss prevention) hlídat, aby citlivá data neopustila firemní síť. Je zajímavé, že podle ČSÚ jen 24 procent firem pracujících s AI ji využívá také v oblasti zabezpečení. A přitom právě v této souvislosti AI může pomoct odhalit anomálie a potenciální rizika.

Měsíční

  • přístup k vybraným článkům
  • kompletní přístup do archivu Eura

125 Kč

Půlroční

  • přístup k vybraným článkům
  • kompletní přístup do archivu Eura

600 Kč

Roční

  • přístup k vybraným článkům
  • kompletní přístup do archivu Eura
  • zvýhodněná cena

950 Kč