Umělá inteligence dokáže ohromit svými odpověďmi, ale myslí skutečně jako člověk? Nová studie odhaluje, že i ty nejvyspělejší jazykové modely mají problém s jednoduchými úkoly, které lidé zvládají „levou zadní“. Co nám to říká o budoucnosti AI?
Když si popovídáte s ChatGPT nebo třeba Gemini, může se vám zdát, že umělá inteligence (AI) už má k lidskému myšlení sakra blízko. Reaguje pohotově, někdy i vtipně, a občas máte pocit, že za tou klávesnicí sedí člověk. Ale je to jen zdání, nebo se AI opravdu přibližuje našemu myšlení?
Nová studie publikovaná v časopise Transactions on Machine Learning Research naznačuje, že ani ty nejlepší jazykové modely, jako ChatGPT, Copilot, Grok nebo Gemini, nejsou tak lidské, jak by se mohlo zdát. A důvod? Selhávají tam, kde my lidé excelujeme – v analogickém myšlení.
Autoři výzkumu se rozhodli postavit AI a lidi před stejný úkol: dokončit sekvenci tak, aby odhalili chybějící prvek. Pro nás lidi žádná věda – vezmeme číslice nebo písmena, podíváme se na vzorec a hop, máme odpověď. Jenže AI? Ta se zasekla jak starý socialistický výtah.
Kde AI klopýtá
Studie se zaměřila na to, jak velké jazykové modely zvládají analogické problémy. Třeba takový příklad s písmeny: „Pokud abcd přejde na abce, kam přejde ijkl?“ Většina z nás bez mrknutí řekne ijkm – prostě nahradíme poslední písmeno o jedno další v abecedě. I AI to většinou zvládne. Ale co když změníme zadání? „Pokud abbcd přejde na abcd, kam přejde ijkkl?“ Lidé rychle pochopí, že jde o odstranění opakujícího se písmene, a odpoví ijkl. Jenže třeba GPT-4 se v tom začne plácat a místo jasné odpovědi generuje nesmysly.
Spoluautorka studie Martha Lewisová, odborná asistentka na neurosymbolickou AI z Amsterdamské univerzity, to pro Live Science shrnula jasně: „AI je skvělá v rozpoznávání vzorců, ale mizerná v jejich zobecňování.“ Jinými slovy, dokáže se naučit, co viděla v datech, ale jakmile má přijít na něco nového nebo abstraktního, tápe. A to je podle Lewisové klíčový rozdíl mezi námi a stroji.
Data nejsou všechno
Tady se dostáváme k jádru problému. „Není to jen o tom, co v datech je, ale jak je dokážete použít,“ vysvětluje Lewisová. Moderní AI stojí na obrovských objemech naučených dat – čím víc, tím lépe. Systémy jako ChatGPT se naučí spojovat vzorce a generovat odpovědi, které vypadají působivě. Ale abstrakce? To je jiná káva.
Když člověk vidí nový problém, dokáže si vzít zkušenost z minulosti, použít je v novém kontextu a vymyslet řešení. AI tohle zatím moc neumí, a pokud ano, tak jen v omezené míře.
Lewisová dává příklad s řetězci písmen, ale podobné limity se ukazují i jinde. AI je třeba citlivá na pořadí, v jakém dostává informace, a chybí jí schopnost „vidět za roh“ – tedy předvídat na základě něčeho, co v tréninkových datech přímo nebylo. A to je podle výzkumníků varování.
Co to znamená pro budoucnost?
Umělá inteligence je dnes všude – od chatbotů přes automatické překlady až po analýzu dat. Ale pokud máme spoléhat na systémy, které selhávají u zdánlivě triviálních úkolů, měli bychom zpozornět. Lewisová zdůrazňuje, že nestačí jen měřit přesnost odpovědí. Musíme se ptát, jaké kognitivní schopnosti AI vlastně má. „Každý systém je třeba pořádně otestovat – nejen jestli trefí správnou odpověď, ale jestli vůbec chápe, co dělá,“ dodává.
Takže myslí AI jako člověk? Zatím ne. Možná s námi dokáže pěkně pokecat, ale pod kapotou je to pořád jen stroj, co hledá vzorce v datech. A i když se technologie posouvá mílovými kroky, tahle studie nám připomíná, že lidský mozek má pořád něco navíc. Aspoň prozatím.
MOHLO BY VÁS ZAJÍMAT: Elon Musk staví největší superpočítač světa s AI. Problém? Elektřina