Společnost DeepMind, která patří pod křídla Googlu, přišla s vylepšením velkých jazykových modelů v duchu ChatGPT. Zakomponovali do celého mechanismu optimizéry ke zlepšení výkonu těchto modelů. V kombinaci s použitím pobídek v lidské stylu dosáhli fenomenálních výsledků.
Vylepšení jazykových modelů
V článku, který byl tento měsíc zveřejněn na arXiv, vědci ze společnosti DeepMind představili unikátní metodu Optimization by PROmpting (OPRO). Ta vylepšuje výkonnost velkých jazykových modelů (LLM), jako je právě výše zmíněný ChatGPT od OpenAI a PaLM 2 společnosti Google. Hlavní předností je používání přirozeného jazyku pro lidskou komunikaci.
Spíše, než na formální matematické definice při plnění tohoto úkolu používá OPRO „metaprogramy“, které jsou napsané v přirozeném jazyce. Ukázalo se, že tento přístup rapidně optimalizuje celý proces a generuje odpovědi mnohem přesnější a přirozenější pro lidské chápání.
Také se zjistilo, že příkaz „Z hluboka se nadechněte a pracujte na tomto problému krok za krokem“ je nejúčinnější výzva při použití s jazykovým modelem PaLM 2 společnosti Google. Tento příkaz dosáhl přesnosti přes 80 % v testech GSM8K, což jsou slovní úlohy z matematiky. Pro srovnání bez této výzvy a prostým zadáním dosáhl ve stejném testu stejný jazykový model úspěšnost pouze 34 %.
Jak je možný takový rozdíl? Díky tomuto příkazu přiřadí k tomuto dotazu AI větší skóre pečlivosti, takže se v uvozovkách více snaží. Má to naučené z analyzování knih a webu, kde jsou často podobné fráze používané lidmi před plněním důležitého a složitého úkolu.