Etika a bezpečnost v AI
Umělá inteligence je skvělý sluha, ale musíme vědět, kde končí její schopnosti a kde začíná naše zodpovědnost. Bezpečnost a etické používání AI se týká každého – nevidomého uživatele i vidoucího kolegy. Pravidla jsou stejná, protože rizika jsou stejná.
Soukromí a vaše data
Jeden z nejdůležitějších aspektů používání AI je ochrana osobních údajů. Když píšete do AI chatu, vaše zprávy typicky procházejí přes servery poskytovatele a mohou být – v závislosti na nastavení – využity k dalšímu trénování modelu. To neznamená, že by váš text četl konkrétní člověk, ale citlivé informace do AI prostě nepatří.
- Nesdílejte hesla ani platební údaje: Nikdy do AI nepište svá hesla, čísla platebních karet, PIN kódy nebo rodná čísla. AI potřebuje pro svou práci kontext, ne vaše přihlašovací údaje.
- Anonymizujte citlivé dokumenty: Pokud potřebujete poradit s lékařskou zprávou, smlouvou nebo pracovním dokumentem, vymažte z něj nejdříve jména, rodná čísla, adresy a další osobní identifikátory. AI si poradí i s anonymizovanou verzí.
- Zkontrolujte nastavení ochrany dat: Většina nástrojů (ChatGPT, Gemini, Claude) umožňuje v nastavení vypnout „trénování modelu" na vašich datech. Najdete to obvykle v nastavení účtu pod „Privacy" nebo „Data controls". Věnujte tomu pět minut – stojí to za to.
- Firemní data patří do firemních nástrojů: Pokud pracujete v organizaci, ověřte si, zda vaše firma má schválené nástroje AI s příslušnými smlouvami o zpracování dat. Sdílení interních firemních informací ve veřejných AI chatech může porušovat firemní pravidla i zákony.
Pozor na halucinace
AI nemá vědomí a nemyslí v lidském slova smyslu. Je to statistický model, který předpovídá nejpravděpodobnější pokračování textu na základě vzorů ze svého tréninku. To znamená, že si občas s naprostou jistotou a přesvědčivým tónem vymýšlí – tomuto jevu říkáme halucinace.
Halucinace jsou obzvlášť záludné, protože AI je neprezentuje jako odhady – píše je jako fakta. Vymyšlené mohou být citace knih, jména autorů, historická data, právní předpisy, lékařské dávkování nebo telefonní čísla.
- Vždy ověřujte fakta: Zejména pokud jde o zdraví, zákony, finanční rozhodnutí nebo důležité termíny. Zkontrolujte si výsledek ve spolehlivém zdroji.
- Nevěřte slepě citacím: Pokud vám AI cituje knihu nebo studii, ověřte, zda kniha skutečně existuje a zda citát je reálný. AI si bohužel vymýšlí i bibliografické záznamy.
- Ptejte se na zdroje: U faktických tvrzení se AI zeptejte: „Kde jsi to vzal? Máš zdroj?" Pokud zdroj neuvede nebo uvede neurčitě, je to signál k ověření.
- Čím specializovanější téma, tím větší opatrnost: AI je obecně přesnější v běžných tématech a méně spolehlivá v úzce specializovaných oblastech nebo nedávných událostech.
Deepfakes a zneužití AI
AI umožňuje vytvářet velmi přesvědčivé falzifikáty – textové, obrazové i zvukové. Je důležité o těchto hrozbách vědět, abyste je dokázali rozpoznat a sami je nezneužili:
- Deepfake videa a fotky: AI dokáže vytvořit realistické video nebo fotografii, na které „někdo řekl nebo udělal" něco, co se nikdy nestalo. Při konsumaci obsahu na internetu je zdravá skepse na místě.
- Klonování hlasu: Moderní TTS nástroje dokážou z nahrávky délky několika sekund vytvořit hlas, který lze nechat říct cokoliv. Vytváření hlasu jiných lidí bez jejich souhlasu je neetické a v mnoha zemích i nelegální.
- Phishing s pomocí AI: AI umožňuje psát přesvědčivé podvodné e-maily bez gramatických chyb a v perfektní češtině. Buďte obezřetní u neočekávaných zpráv, které žádají o citlivé informace nebo platby.
Digitální etiketa při používání AI
Etika při používání AI není jen o bezpečnosti pro vás, ale i o slušnosti vůči ostatním:
- Přiznejte pomoc AI: Pokud AI napsala celý článek, prezentaci nebo školní práci za vás, je fér to zmínit. Vydávat AI výstup za svůj bez uvedení je v akademickém i profesionálním prostředí považováno za podvod.
- Respektujte autorská práva: AI modely jsou trénovány na cizích textech, obrázcích a kódu. Výstupy AI mohou být v právní šedé zóně, zejména pokud se silně podobají konkrétnímu existujícímu dílu.
- Nešiřte AI dezinformace: Před sdílením faktů, které vám řekla AI, si je ověřte. Šíření neopravených AI halucinací jako faktů je problém, který narůstá.
- Uvažujte o dopadu na ostatní: AI generovaný obsah může ovlivnit reputaci skutečných lidí, zkreslovat historická fakta nebo posilovat předsudky. Tvořte a sdílejte s rozmyslem.
Regulace AI a co se chystá
Svět si postupně uvědomuje, že AI potřebuje pravidla. Evropská unie přijala jako první na světě komplexní zákon o AI (EU AI Act), který vstoupil v platnost v roce 2024 a postupně nabývá účinnosti. Zákon rozděluje AI systémy podle míry rizika a pro ty nejrizikovější stanovuje přísné požadavky – od transparentnosti až po povinné audity.
Pro běžné uživatele to v praxi znamená: AI asistenti budou muset jasněji přiznávat, že jsou AI. Deepfake obsah bude muset být označen. Zneužití AI pro diskriminaci nebo manipulaci bude mít právní důsledky.
Tip od Zdeňka
Zdeněk radí: Používejte AI jako chytrého asistenta, který vám dává doporučení, ale finální rozhodnutí nechte vždy na sobě. Váš selský rozum a intuice jsou věci, které žádný algoritmus nenahradí. A pokud vám AI poradí něco, co se vám zdá podezřelé nebo příliš dobré, buďte ostražití – stejně jako u rad od neznámých lidí na internetu.