
Úžasná neregulovaná AI aneb GDPR deja vu
Vydáno 26. června 2023
Přestože historie umělé inteligence sahá daleko do minulosti, teprve poslední roky překonává tradiční programovací algoritmy. Zlomem se stal bezesporu příchod deep learningu. Prvním GPT modelům nikdo nevěnoval pozornost, ale GPT 3.5 se stal revolucí, které si všimla i široká veřejnost. Zatímco Instagram sbíral prvních 100 milionů uživatelů přes 30 měsíců, ChatGPT tuto metu pokořil za 2 měsíce. Přes velký technologický pokrok se nejedná o dokonalou technologii. I ve své nejvyšší verzi GPT 4 víme o celé řadě omezení, které mohou při nasazení přinést mnoho překvapivých situací. Pociťuji to nejen při běžném používání ChatGPT, ale i při práci s modely pro generování kódu. Jako vývojář nepochybuji o tom, že tyto modely dosáhnou v krátkém časovém horizontu mnoha vylepšení. Ale zároveň mám i jiné oprávněné obavy.
Subjektivně jsme jako společnost zaspala s regulací webového prostředí. Objektivně víme, že stejnou chybu jsme opakovali při snaze o ochranu osobních údajů uživatelů webu i mimo něj. Například v EU bylo až v roce 2018 přijato nařízení GDPR. Nejen, že to bylo zoufale pozdě, ale samotná implementace v členských zemích (včetně ČR) se odehrála ještě o další roky později. Důsledkem je zcela běžné nerespektování a různé kreativní obcházení tohoto nařízení. Víme přitom, že nejlepším řešením je prevence. Tedy potenciálním problémům zabránit dříve, než vzniknou. Vůbec jsme se ale v tomto ohledu nepoučili a nyní děláme mnohem větší chybu neuváženým zaváděním AI. O regulaci se uvažuje spíše lokálně na úrovni jednotlivých zemí nebo z pohledu bezpečnosti. Diskuse sice probíhá již v Evropském parlamentu, ovšem iniciativu by měli projevit především tvůrci AI. Rizikům, na která upozorňuje řada expertů včetně Elona Muska, který je i sponzorem OpenAI se pozornost příliš nevěnuje. Důvodů k obavám je přitom nespočet. Mnohonásobně více než v případě GDPR, jehož implementace je naprosto katastrofální.
Komercionalizace nad akademickou vědou
Moderní nástroje postavené nad AI mají bezesporu potenciál pomáhat v akademické vědě. Když bychom se pozastavili u zdravotnictví, mohou například urychlit vývoj léků nebo pomoci v diagnostice a léčbě nemocí. AI nám nepomůže ve státním zdravotnictví ani nikde jinde, kde nemáme k dispozici čerstvá data. Zdravotní zařízení nejsou bohužel schopná efektivně mezi sebou komunikovat a zdravotní data osob systematicky sdílet. Nemáme-li dostatek zdravotních dat, nemůžeme použít ani triviální programovací algoritmy. AI je nám pak naprosto k ničemu. Ani praktický lékař nám nedokáže s ničím pomoci, když nezná naši anamnézu. Největší potenciál má AI v tradiční komerční sféře. Svět se postupně zaplaví nekonečným množstvím různých nástrojů, které budou pomáhat lidem v banálních záležitostech, jako je například generování různého druhu audiovizuálního obsahu. Zatímco v akademické vědě jsou moderní technologie živou vodou, v komerční sféře představují spíše boom zbytečných nástrojů, které jsou předkládány jako něco, co řeší neexistující lidský problém.
Máme-li již dnes potíže s kvalitou obsahu na internetu a nejsme-li schopni svépomocí vytvořit dobrý obsah, jak potom poznáme, že AI skutečně kvalitní obsah vytváří? Pakliže už dnes máme potíže rozlišit pravdu od lží v prostředí webu, jak zvládneme totéž v mnohem větším měřítku s nástupem generovaného obsahu? Lze oprávněně namítat, že kvalita generativních i dalších nových modelů se bude postupně zlepšovat. Ty staré tu však stále budou existovat, budou poskytovat bídné výsledky a budou vždy levnější a dostupnější pro řadu vývojářů a výrobních firem. Koneckonců i chytré hodinky si dnes pořídíme od tří stovek, což je dvacetina ceny nejlevnějších Apple Watch. Zda tato masová výroba šmejdů přináší uživatelům štěstí nebo je jen zdrojem hromadícího se odpadu a drancuje naši planetu ponechám na uvážení každého čtenáře.
Neprůhledné AI a neprůstřelné aplikace
Názory lidí v populaci jsou velmi saturované a hledání "normálu" připomíná hledání svatého grálu. Jiný normál vnímá křesťansky založená společnost v kontrastu s ateistickou společností a jiné normály panují i mezi různými vrstvami ve společnosti. Závěry a postoje generované pomocí modelu GPT 3.5 tak dost možná nebudou zapadat do schématu různých společenství nebo sociálních skupin. Můžeme tvrdit, že ženy jsou z pohledu Evropana v Saúdské Arábii omezovány na svobodě, ale stejně tak může tamní komunita označit Evropskou společnost za nestabilní a postavení mužů za oslabené vůči ženám. Kritické myšlení není silnou stránkou GPT, ačkoliv se o něj okatě snaží. Kromě toho se GPT snaží chovat nekonfliktně a vyhýbá se řadě témat, která jsou v "moderní" společnosti tabuizována. GPT se také vyhýbá otázkám v oblasti lékařské péče, aby náhodou neposkytl chybnou radu. Je to ukázka situace, kdy tvůrci aktivně AI modely regulují, protože se obávají právního postihu v situaci, kdyby nám GPT poradilo uhasit žízeň práškovým hasicím přístrojem. Jiné snahy o regulaci než ty, které tvůrce ohrožují na zisku však neprobíhají. S jistotou lze tedy jen pochybovat o objektivitě modelů. Nevíme, jaká data jsou modelům poskytnuta při jejich trénování a v zásadě ani jakým způsobem jsou instruovány. Lze očekávat, že internet bude časem zaplaven nespočtem AI modelů natrénovaných na zcela různorodých datech s různými instrukcemi. Pokud nebudeme tuto oblast regulovat, můžeme se potkávat s fanatickými chatboty nebo obecně generativními modely, které budou populistické nebo vychýlené do vybrané části politického spektra či světového názoru.
Záludné je i to, že do kódu komerčních aplikací není vidět, a tudíž není a nebude zřejmé, zda používají umělou inteligenci, jaký využívají konkrétní model a k jakým účelům. Na internetové seznamce si možná bude uživatel nevědomě povídat s chatbotem a bez obecné regulace tuto skutečnost uživatel ani nezjistí. V aplikaci zaměřené na investování si nechá poradit kam vložit své životní úspory a radu mu přitom neposkytne člověk, ale robot s neaktuálními daty a pohledem na zastaralý stav světa. Požádáme AI o vygenerování filmu dle našich preferencí, ale tak nějak nenápadně se ve filmu objeví politická agitace nebo podprahová reklama na prací prášek. Regulace a nastavení pravidel pro tvorbu a používání AI je naprosto nezbytné a dříve či později nezbude možnost než tato pravidla definovat. Potíž je, že lidstvo se opět neponaučilo z předešlých chyb a veškeré regulace začneme řešit až ve chvíli, kdy už bude pozdě. Podobně jako s webem nebo s GDPR. Tvůrci aplikací se zkrátka jednoho dne ocitnou levou nohou v šedé zóně a budou řešit otázku, jak tam nenápadně zůstat a nepřijít o zisk. Na jedné straně budeme mít skvělé léky na civilizační nemoci, na straně druhé pak společnost zblblou z moderní umělé inteligence.

Miroslav Holec
Software architect, Microsoft MVP, freelancer, finalista krajského kola MONETA Živnostník roku 2022