V rámci série rozhovorů “V zrcadle AI” přinášíme pohled Daniela Dočekala na současné trendy v AI, její benefity i rizika a budoucí směřování. Rozhovor je součástí výzkumu agentury NMS o vztahu české populace k výzvám spojeným s AI v kontextu udržitelnosti. Výsledky výzkumu budou prezentovány na Týdnu inovací, jehož zakladatel Lukáš Sedláček vydává v říjnu knihu “Nazí v AI době”.
Vy jste propagátor AI, early adopter. Proč bychom AI měli nechat vstoupit do našich životů?
Když se přestaneme bránit a začneme AI konstruktivně integrovat, získáme obrovský potenciál — zrychlí to práci, zlepší personalizaci vzdělávání, pomůže v medicíně, zemědělství i v podnikové praxi. Odmítání vede jen k tomu, že se část společnosti odpojí a přichází o příležitosti. Samozřejmě to musí jít ruku v ruce s regulacemi a zodpovědným nasazením, ale plošný odpor není řešení.
Kdy jste začal AI používat?
U mě to bylo asi před třemi lety. Ten moment byl, když jsem zjistil, že umí generovat obrázky. To mě chytlo, začal jsem testovat nástroje jako Midjourney, Perplexity, Claude… Od té doby to prakticky nepřestalo.
Takže vy jste byl nadšený. Čekal jste na to dlouho?
Asi ano, v podstatě jsem na to čekal roky. Dá se říct, že poslední tři až pět let to nabralo obrovské tempo. Ten vývoj je neuvěřitelný — třeba GPT 5 umí vést konverzaci hodně přirozeně, stylisticky se přizpůsobit, někdy i tykat apod.
Dnes tedy nejvíc pracujete s generováním obrázků a textu pomocí GPT?
Přesně tak. GPT používáme hodně. V práci ho mám jako takového kolegu, dostupného nonstop, který udělá plus mínus přesně to, co chci. Je efektivní a relativně levný.
Co vám to přináší? Jaké největší benefity?
Hlavně úsporu času. U opakujících se úkolů to zkrátí práci i na desetinu času, který jsem tomu věnoval dřív. Šetří to nervy, peníze, lidi mají méně rutinních úkonů. Také umožňuje vytvářet persony a automaty pro sociální sítě, generovat spoustu variant příspěvků, odpovědí a podobně.
Kde by se podle vás mělo AI nasadit co nejrychleji, které obory to nejvíc potřebují?
Vzdělávání je obrovská příležitost — personalizované učení, pomoc studentům i učitelům, efektivní příprava materiálů. Dále zdravotnictví, kde může AI asistovat v diagnostice, analýze dat a administrativě. Zemědělství také — optimalizace výnosů, predikce škůdců, efektivní použití zdrojů. Ve všech těchto oborech to může být zásadní přínos, pokud se to udělá správně.
Je něco, co vás ohledně AI znepokojuje?
Hlavně soukromí a bezpečnost dat. Firmy do nástrojů někdy nahrávají věci, které tam nemají být — interní dokumenty, citlivé informace. Když systém někdo hackne nebo provozovatel data využije jinde, zjistí se všechno. To je reálné riziko, ne sci fi.
Co se reálně může stát, když jsem důvěrný k AI a nahrávám citlivé věci?
Firma poskytující AI může data použít pro trénink nebo jiné účely. Funguje to podobně jako u sociálních sítí — sbírají se informace o tom, co lidi zajímá.
Dá se vůbec AI regulovat tak, aby to mělo smysl? Kdo by to měl dělat?
Regulace je obtížná — procesy v EU nebo jinde často vzniknou, až když trh už pokročil. Mezitím technologie běží dál. Regulovat se to samozřejmě dá, ale otázka je, jak rychle a efektivně. Nemyslím si, že jedna autorita to vyřeší jednou provždy — musí to být kombinace pravidel, firemních politik a technických opatření.
Mám pocit, že část lidí nemá dost kritického myšlení — vezmou výstup AI jako hotovou věc. Způsobí AI degradaci kritického myšlení?
Tohle se dělo už dřív — lidé kolikrát otevřeli Google a vzali první výsledek. AI je jen jiný Google, jen často „vypadá“ sofistikovaněji. Kritické myšlení je potřeba víc než kdy dřív, ale neříkám, že se to automaticky zhorší — jde o to, jak se budeme učit AI používat a ověřovat informace.
Když AI odpoví nepřesně nebo vymyslí fakta, jak si to hlídat?
Když si nejste jisti, vždy ověřujte. Používejte více zdrojů a porovnávejte odpovědi z různých modelů. Já často dávám stejný dotaz do tří i čtyř modelů a podívám se, zda odpovědi souhlasí.
A co objektivita AI? Mohu se na ni spolehnout, když víme, že může fabulovat nebo odmítat zpracovat určité vstupy?
Přesně. Jsou modely, které jsou víc „volné“, méně omezované, a jsou modely, které mají silné systémové prompty a filtry — ty nastaví provozovatelé. Některé modely jsou více neutrální, jiné mají zabudované hodnoty, bezpečnostní limity nebo etické omezení. To je důvod, proč jeden model dokončí analýzu, zatímco jiný může vstup odmítnout z důvodu diskriminace nebo citlivého obsahu.
Někde jste zmínil i fiktivní Asimovovy zákony robotiky — jak to souvisí s dnešními AI systémy?
To byla spíš analogie. Asimovovy zákony — „neublížit člověku“, „poslechnout člověka“ a „ochránit sebe“ — jsou zajímavou myšlenkou, ale současné systémy je nemají v tom sci fi smyslu. Uvažuje se o podobných principech, například, aby systém neškodil lidstvu, ale implementace je složitá. Například v autonomním autě se řeší morální dilema: co dělat, když auto musí rozhodnout mezi zachráněním chodce nebo ochrannou posádky? Taková rozhodnutí nejsou technicky ani eticky triviální a závisí na tom, jak je systém naprogramovaný.
Jaký dopad má současná situace kolem AI na školství a jak se k ní staví různé generace?
Zakazování AI ve školách moc nepomůže. Lepší je AI do škol integrovat a učit děti i učitele, jak ji používat zodpovědně. Učitelé se tomu často brání, ale největší problém je, že část pedagogů už desetiletí neřeší nové věci v práci. Přitom generativní nástroje mohou vzdělávání zásadně zlepšit a přizpůsobit ho potřebám žáků. Studenti jsou na AI zvyklí více než rodiče a mladí to berou přirozeně, zatímco rodiče a starší generace jsou opatrnější. V mnoha ohledech se mladí chovají obezřetněji než jejich rodiče, třeba v oblasti duševního zdraví.
Zmínil jste i to, že lidé musí umět správně zadávat požadavky — „promptovat“. Jak se to učit?
Je to dovednost jako každá jiná. Dá se to trénovat — zkoušet různé přístupy, testovat více modelů, porovnávat výsledky. Firmy mohou pořádat školení pro zaměstnance, školy to mohou zařadit do výuky. Kdo si to osvojí, získá konkurenční výhodu.
Zajímá mě také uhlíková stopa AI — řeší se to vůbec?
Téma se řeší, ale hodně málo veřejně a plošně. Velké globální firmy a některé výzkumné týmy už energetickou náročnost sledují a snaží se optimalizovat — trénink velkých modelů je energeticky náročný, běh modelu při používání taky něco bere, ale záleží hodně na infrastruktuře: zda běží na obnovitelné energii, jak je nastavené datacentrum apod. Měření je složité — je rozdíl, jestli mluvíme o jednom tréninku velkého modelu, nebo o miliardách inference volání denně. Jsou odhady i nadsázky, ale přesná čísla se těžko srovnávají.
Takže je to problém, ale nejde to jednoduše přepočítat?
Přesně. Dá se ale dělat spousta věcí: efektivnější modely (distilace, kvantizace), lepší datacentra, přepínání na obnovitelné zdroje, caching výsledků, optimalizace pipeline tak, aby se zbytečně netrénovalo znovu. Firmy, které to berou vážně, tyto kroky dělají. Malé firmy a jednotlivci to často řešit nebudou, pokud na ně nařízení nebo trh netlačí.
Co bych měla udělat, když se chci AI naučit používat bezpečně a efektivně?
Začněte malými kroky: ověřujte informace z vícero zdrojů, používejte více modelů pro kontrolu, neukládejte do AI citlivé interní dokumenty bez smluvních záruk, vybírejte poskytovatele s jasnými zásadami ochrany dat. Ve firmě nastavte interní pravidla — co smí a nesmí být vloženo do AI. A hlavně — trénujte kritické myšlení, kontrolujte výstupy a učte se promptovat.
Daniel Dočekal je internetový publicista a odborník na sociální sítě, který patří k prvním propagátorům umělé inteligence v Česku. Jako zakladatel Světa Namodro a autor legendárního weblogu Pooh.cz se dlouhodobě věnuje technologiím a jejich dopadu na společnost. V projektu 365tipů denně sdílí praktické rady z oblasti počítačů a internetu a patří mezi nejviditelnější komentátory digitálního světa.
Foto: Archiv, Netbox 2019