Umělá inteligence ve firemních nástrojích: skvělý pomocník, nebo zadní vrátka? | Mňamka #546

AI dnes najdete téměř v každém nástroji, který ve firmě používáte - od zpracování dat přes účetnictví, CRM a řízení úkolů až po zákaznickou podporu nebo e-mail. Všude se objevují „asistenti“, „copiloti“, „recommenders“ nebo prostě tlačítka s nápisem „zkus to s AI“. Tyto chytré moduly navrhují odpovědi, doplňují faktury, připomínají schůzky nebo tvoří datové výstupy. Umělá inteligence už dnes zkrátka není doménou experimentů nebo sci-fi.

Na první pohled skvělé - nástroj je chytřejší, rychlejší, zpříjemní den, ušetří čas, pomůže s rutinní prací. Ale právě tady je dobré se zastavit. Za každým takovým tlačítkem se může skrývat mechanismus, který odesílá firemní data do neznáma - a to klidně i bez vašeho vědomí.

Než AI funkcionalitu ve vašem nástroji nadšeně zapnete, stojí za to se zamyslet: jak funguje, co sbírá, kam data posílá? Protože právě tady se mohou velmi snadno otevřít zadní vrátka do celé firmy – a s nimi i dost zásadní bezpečnostní rizika.


Co se s vašimi daty v AI modulu opravdu děje?

To je otázka, na kterou často není jednoduchá odpověď. Každý výrobce nástroje implementuje AI funkce jinak - a ne vždy to popisuje jasně či úplně, leckdy mlží.

Neviditelné riziko za každým „asistentem“

AI modul může být součástí samotného nástroje, nebo (a to asi nejčastěji) může jít o integrovanou službu třetí strany.. Někdy pracuje jen s názvy polí, jindy s celými zákaznickými záznamy. Zpracování může probíhat v EU, ale i mimo ni - typicky v USA.

A co přesně se s daty děje, není často snadné zjistit. Výrobci to ne vždy komunikují srozumitelně - někdy vůbec (v extrémních případech ne pravdivě). Kde se data zpracovávají? Jsou ukládána? Na jak dlouho? Slouží k tréninku dalších modelů? Nevíte-li, odpověď může znít „možná ano“.


Běžné scénáře práce AI modulů:

  • Zpracování v cloudu třetí strany – data (nebo jejich části) putují mimo vaši firmu.

  • Použití dat k tréninku – služby využívají vaše vstupy a vaše data k učení svých modelů.

  • Přenos obsahu, nejen metadat – často se posílají celé texty, poznámky, jména zákazníků nebo výkazy.

  • Nedostatečné řízení přístupů – AI může zpracovávat i data, ke kterým běžní uživatelé nemají mít přístup (a nabízet uživatelům tato data ve výstupech).


Jak riziko správně vyhodnotit?

Ano - AI moduly mohou firmě skutečně ušetřit spoustu času a zefektivnit provoz. Ale ještě před jejich aktivací by měla proběhnout poctivá analýza. Ne technicky složitá – ale důsledná.

Ptejte se například:

  • Co přesně AI dělá? Co generuje?

  • Jak a jaká data zpracovává? Jen metadata, nebo i obsah? Anonymizovaná data?

  • Kde běží zpracování a kde jsou data uložena? V EU, USA nebo jinde?

  • Používají se data dál? Slouží jen ke zpracování vašeho požadavku, nebo i ke zlepšování AI modelu?

  • Co říkají obchodní podmínky, Privacy Policy? Je to někde popsané? Lze řídit, kdo k nim má přístup? Lze AI funkce vypnout, omezit?

Pokud na tyto otázky nemáte jasné odpovědi, je čas zbystřit. A přehodnotit rozhodnutí o aktivaci funkce, kterou nemáte pod kontrolou.


Co by měla obsahovat AI analýza nástroje?

Pokud AI funkci zvažujete, váš nástroj ji nabízí, doporučuji projít následující oblasti:

1. Technický popis funkcionality

  • Co přesně funkce dělá?

  • Na jakých datech pracuje?

  • Jaký model využívá (interní, externí, open-source)?

  • Kde fyzicky probíhá zpracování?

2. Datové toky

  • Jaká data se odesílají (metadata, obsah, celé datasety)?

  • Je přenos šifrovaný?

  • Používají se data dál - např. pro trénink?

3. Právní rámec

  • Je AI popsaná v obchodních podmínkách nebo zásadách ochrany osobních údajů?

  • Jsou uvedeny garance ohledně lokalizace, uchování, ochrany?

  • Má vaše firma právní základ pro zpracování údajů tímto způsobem (soulad s GDPR)?

4. Regulatorní a compliance souvislosti

  • Spadá vaše firma pod NIS2, DORA? Jste certifikování dle ISO?

  • Je třeba provést DPIA (posouzení dopadů - Data Protection Impact Assessment)?

  • Vyhodnotili jste dodavatele nástroje jako součást rizikového řetězce?

5. Governance a přístupy

  • Kdo může funkci zapnout? Můžete to řídit?

  • Lze AI omezit jen na vybrané datasety nebo role, či konkrétní uživatele?

  • Máte dostupné auditní logy využití?


AI není „jen další tlačítko“ – je to vstup do vašeho systému

Firmy AI moduly často zapínají v dobré víře, často pod tlakem marketingu - z důvěry v nástroj, výrobce, snahy o efektivitu nebo prostě proto, že „je to teď v módě“. Ale bez jasného řízení se AI snadno stane kanálem pro únik dat. A zároveň zdrojem právního problému - například porušení GDPR nebo v budoucnu nesplnění povinností vyplývající z NIS2.


Právní rámec: ne dobrovolně, ale z povinnosti

Důsledné zhodnocení AI modulů dnes není jen otázka opatrnosti – je to právní závazek. Regulace jako GDPR, NIS2, DORA, případně další, jednoznačně požadují kontrolu nad tím, co se s daty děje - a AI do toho dnes jednoznačně patří.

  • GDPR vyžaduje právní základ, minimalizaci dat a často i DPIA.

  • NIS2 posiluje řízení rizik a odpovědnost za dodavatelské řetězce.

  • DORA přidává povinnost sledovat a řídit externí ICT služby - včetně AI komponent.


Doporučení z praxe

  • Začněte inventurou: kde už AI je, kde se chystá, kde se skrývá.

  • Proveďte analýzu rizik: datovou, technickou i právní.

  • Zjistěte, co AI dělá – ptejte se výrobce, čtěte podmínky.

  • Komunikujte s dodavateli: žádejte informace, dokumentaci i možnost AI vypnout.

  • Testujte bezpečně – nejprve na neostrých datech.

  • Nastavte řízení přístupu – AI musí respektovat práva a role.

  • Zaveďte governance: kdo funkci zapíná, jak se schvaluje, co se loguje.

  • Školte týmy: aby rozuměly, co AI dělá – a kdy ji (ne)zapínat.


Shrnutí

AI v nástrojích, které používáme, může být skvělý pomocník. Ale taky dobře maskovaný rizikový vstup. Než funkci zapnete, věnujte pár hodin tomu, co skutečně dělá, kam posílá data – a jestli její pomoc opravdu vyvažuje možná rizika. Vyplatí se to.

Štěpán
LinkedIn