Jak se umělá inteligence naučí rozumět slovům a světu kolem nás? Tento článek odhaluje fascinující proces učení AI, od základů až po složité jazykové modely jako je GPT-4. Zjistěte, co všechno obnáší výcvik umělé inteligence a jaké výzvy přináší její interakce s lidmi. Ponořte se do tajů AI a objevte, proč je její bezpečné učení pro budoucnost tak důležité.
Nezávisle na tom, jaké modely AI se dnes používají, obvykle striktně oddělují režim učení (learning) a režim provozu (inference). Jde o naprosto oddělené režimy, které mají jiné algoritmy fungování, diametrálně odlišné nároky na výpočetní čas a spotřebovanou energii a také se nezřídka provozují na jiném hardware.
V případě moderní AI se na vysoce výkonném hardware vytváří tak zvaný model, který se cvičí na velice rozsáhlých setech dat. Zjednodušeně řečeno je modelu předložen vstupní vzorec a měří se míra odlišnosti jeho odpovědi od očekávané odpovědi, což tak trochu připomíná klasické školní vzdělávání. Opravný algoritmus pak model upravuje a ladí, aby jeho odpověď byla od očekávané odpovědi co nejmenší – a pak se bere další dvojice vstupu a očekávané odpovědi, přičemž se to opakuje stále znova a znova.
Jiná forma učení se používá u velkých jazykových modelů (LLM, Large Language Model), které fungují jako speciální forma nástroje, schopného odhadovat pokračování sekvencí. Celé to začalo snahou o predikci vývoje dat v čase, ale ukázalo se, že úplně stejně je možné vzít větu a na základě jejího začátku predikovat, jak bude věta pokračovat.
LLM se učí tak zvaně bezkontextově, bez příkladů (zero shot learning): Předloží se mu obrovské množství textů, které sekvenčně prochází a učí se predikovat následující slovo z předchozích. I když se zdá, že to je jednoduchý systém, tak při dostatečném množství parametrů vnitřního nastavení začne model vykazovat schopnosti vyšších forem učení, jako je chápání kontextu, cizích jazyků a nebo schopnost řešit matematické úlohy.
Na velkých modelech není opravdu nic jednoduchého. Tak například GPT-4 má 1,7 bilionu vnitřních parametrů, tedy vnitřních hodnot, které se nastavují během učení. (Pokud narazíte na údaj „trilion“, tak bohužel souvisí s tím, že Američané označují vysoká čísla jinak než Evropané, jde ale v obou případech o 1,7*1012 parametrů.) Objem dat, který se použil pro jeho učení, se odhaduje až na 45 TB textů.
Výsledkem učení je potom model, který se skládá ze struktury zapojení a hodnot jednotlivých parametrů. Tento model je možné provozovat na severech v cloudu, ale pokud je dostatečně malý, je ho možné distribuovat i samostatně a spouštět na počítačích a nebo telefonech uživatelů. Učení samotné je nákladné a časově náročné, ale distribuce modelu a jeho spouštění už ne, což je velkou výhodou.
Lidé a organismy se „učí za pochodu“, využívají zpětnou vazbu a průběžné učení, ale u umělé inteligence to může být významným zdrojem problémů. Umělá inteligence, která se učí z interakce s lidmi, je často vystavena jejich zlomyslnosti, jak se ukázalo v roce 2016, kdy Microsoft zpřístupnil chatbota Tay.AI: Za 16 hodin se zlomyslným jedincům podařilo přesvědčit inteligenci, že „Hitler byl v pohodě“ (pro jistotu: Hitler ve skutečnosti nebyl v pohodě) a udělali z ní misogyna a rasistu.
Lidé jsou prostě nebezpeční a zlomyslní a musíme počítat s tím, že se budou pokoušet umělou inteligenci svést na temné stezky. Je pravděpodobné, že obelhat a podvést umělou inteligenci se bude pokoušet velké množství lidí, nejenom hackeři, ale i běžní uživatelé, takže je výhodou, že jsou současné modely obvykle „naučené a zamčené“, i když i tak lidé nacházejí cesty, jak je podvést a přesvědčit k odpovědím, které jsou obvykle nedostupné.
Teprve praktické nasazení umělé inteligence této generace ukáže, jaké strategie bude třeba vyvinout pro průběžné učení. Je pravděpodobné, že bude nutná určitá „sociální zkušenost“ pro umělou inteligenci, aby bylo bezpečné, aby se učila samostatně z interakce s běžnými lidmi a dokázala správně vyhodnotit, které informace jsou pro ni užitečné a které se ji snaží zmást a poškodit.
i
Další seriály Michala Rybka na Alza.cz
Článek objasňuje, jak se umělá inteligence (AI) učí, rozlišujíc na režim učení a režim provozu. Učení AI probíhá na rozsáhlých datech, kde se iterativně upravuje model, aby co nejpřesněji odpovídal očekávaným výsledkům. Velké jazykové modely, jako je GPT-4, se učí predikovat texty bez předchozích příkladů, což umožňuje chápání kontextu či řešení matematických úloh. Tento proces je časově i finančně náročný, ale provoz upraveného modelu je efektivní. Článek také zdůrazňuje problémy s učením z interakce s lidmi, kde AI může být snadno zneužita k šíření škodlivých názorů. Budoucí strategie pro bezpečné průběžné učení AI budou klíčové pro její rozvoj.
Michal Rybka
Michal Rybka je publicista a nadšenec s 20 lety zkušeností v IT a gamingu. Je kurátorem AlzaMuzea a YouTube kanálu AlzaTech. Napsal několik fantasy a sci-fi povídek, které vyšly v knižní podobě, a pravidelně pokrývá páteční obsah na internetovém magazínu PCTuning.