Jedná se o první bezpečnostní chybu této umělé inteligence
ChatGPT je jazykový model, který využívá algoritmy strojového učení pro vytváření odpovědí na otázky podobné lidským. V poslední době zažívá velký boom a je široce využíván v chatbotech, osobních asistentech a dalších konverzačních aplikacích umělé inteligence. Bohužel ani provozování AI se nevyhýbají chyby a bugy.
ChatGPT měl bezpečnostní trhlinu
ChatGPT posílal historie soukromých chatů na nesprávné e-mailové adresy a telefonní čísla. Podle posledních zpráv se chyba týkala malého počtu uživatelů, kteří si zvolili zasílání oznámení o svých záznamech chatu e-mailem nebo textovou zprávou. Společnost OpenAI problém rychle opravila a kontaktovala dotčené uživatele.
Chyba je příkladem toho, že i v pokročilých systémech umělé inteligence může docházet k nepředvídaným chybám, které mohou mít vážné důsledky pro soukromí a bezpečnost uživatelů. Incident je prvním velkým upozorněním, že je důležité, aby byly systémy AI důkladně testovány a monitorovány právě z výše uvedených důvodů.
Technologie umělé inteligence nabízejí mnoho výhod a příležitostí, zároveň však představují nová rizika a výzvy, které je třeba brát v úvahu. Vývojáři musí být ohledně bezpečnosti, soukromí a zabezpečení systémů AI a jejich uživatelů velmi ostražití.
Plusové body si OpenAI zaslouží za transparentnost při zveřejnění incidentu a rychlé nápravné kroky, aby se těmto incidentům v budoucnu pokud možno předešlo. To bude s dalším rozšířením AI technologie velmi důležité. Vytvoření kontrolních bodů a všeobecných standardů bude vyžadovat velkého úsilí celé řady odborníků.