Přestane si umělá inteligence vymýšlet? OpenAI chce zkrotit halucinace

Umělá inteligence roste na popularitě, ale trápí ji halucinace. OpenAI navrhuje změnu hodnocení, aby odpovědi byly spolehlivější.
Umělá inteligence je stále populárnější
Umělá inteligence v posledních letech raketově roste. AI si dnes našlo cestu k nespočtu uživatelů, kteří umělou inteligenci využívají k různým úkolům. Pomáhá například s úkoly nebo v různých zaměstnáních.
Ani umělá inteligence ale není bezchybná a člověk se na ni nemůže jednoznačně spolehnout. Mnohdy samozřejmě AI pomůže a dokáže výrazně ušetřit čas. Často se ale objevují i takzvané halucinace.
Tento pojem označuje jev, kdy si umělé inteligence jednoduše vymýšlí. Na danou otázku nezná odpověď ale přesto uživateli podá informace, které jsou falešné. Vzhledem k tomu, že lidé AI věří čím dál více, může jít o velký problém.

OpenAI navrhuje řešení proti špatným odpovědím
Takzvanými halucinacemi přitom trpí snad všechny běžné jazykové modely. Ať už jde o ChatGPT, Gemini, Copilot nebo Claude. Jak se ale proti nepravdivým informacím bránit a jak chatbotům zabránit, aby si vymýšleli?
Na tuto otázku se nyní zaměřilo OpenAI, které provozuje ChatGPT. Společnost vydala studii, kde rozebírá problém s halucinacemi a uvádí, že lživé odpovědi pramení ze špatného hodnotícím systému AI.
V dnešní době jsou jazykové modely odměňovány za rychlou odpověď, přičemž rychlost je postavena před správnost. Pokud model zaváhá a uvede, že odpověď nezná s jistotou, jsou mu odečteny pomyslné body. Právě díky tomu si AI občas raději odpověď vymyslí.
Pomalu, ale správně
Řešení těchto situaci by tak nemuselo být vůbec obtížné. OpenAI proto navrhuje změnu hodnotících systémů umělé inteligence. Pokud AI odpověď nezná, nemusí mít obavy uživatele o této situaci informovat.
Opatrnější modely AI přitom vykazují mnohem lepší čísla. OpenAI podrobilo upravené ChatGPT testu, kdy AI měla odpovídat s větší rozvahou a pokud si odpovědí nebyla jistá, nemusela odpovídat. V tomto případě zvládlo ChatGPT správně odpovědět na 74 % otázek, zatímco běžný model měl mnohem vyšší chybovost.
Rozvaha při odpovědích by mohla být přínosná i pro uživatele. Rychlost je samozřejmě pro uživatele klíčová, avšak vždy je třeba odpovědi ověřit i z jiných zdrojů. Pokud by ale AI byla u svých odpovědí jistější, mohlo by to uživatelům zpříjemnit a zjednodušit práci s umělou inteligencí.
Zdroj: OpenAI
Autor článku

Tomáš se zajímá o technologie všeho druhu. Píše seriály o novinkách z Netflixu a dalších streamovacích služeb. Pracuje v elektrotechnice, ve volném čase rád cestuje a fandí fotbalu.
Tomáš se zajímá o technologie všeho druhu. Píše seriály o novinkách z Netflixu a dalších streamovacích služeb. Pracuje v elektrotechnice, ve volném čase rád cestuje a fandí fotbalu.