Zaměstnanci Googlu střílí do vlastních řad: AI Bard je patologický lhář
- Pracovníci Googlu kritizují bezhlavé vypuštění Barda do světa
- Opakovaný apel proti zveřejnění softwaru nezabral
- Google dal přednost byznysu místo bezpečnosti

Server Bloomberg přinesl zprávy od téměř dvou desítek bývalých a současných zaměstnanců Googlu týkajících se jeho vlastní umělé inteligence jménem Bard. Podle informací nebyl v době zveřejnění vůbec připravený k širšímu použití a krok nedbat bezpečnostních upozornění motivovala snaha udržet tempo s konkurenty jako Microsoft a OpenAI.
Snaha dohnat konkurenci za každou cenu
Před březnovým uvedením Barda do provozu dostali pracovníci za úkol nový software otestovat. Ve zpětné vazbě uváděli jako největší problém tendenci systému generovat svým uživatelům potenciálně nebezpečné rady a informace. Nešetřili ani ostřejšími výrazy. Barda označovali za patologického lháře a prohlašovali, že výraz „k ničemu“ je pro něj slabý.
Celou společnost pak nařkli také z upozadění etických otázek a bezpečnosti ve prospěch uvedení vlastního výrobku na trh. Někteří zaměstnanci se nechali slyšet, jak vedení v této době postupovalo. Etické oddělení, které se Google v roce 2021 zavázal posílit, dostalo nařízeno nevměšovat se do současného vývoje a nepokoušet se jej nijak zastavit.

Čtěte také: To byla podívaná! Gigantická Starship od SpaceX odstartovala, nechyběla exploze
Diskuze pokračuje
Vedení Googlu však argumentuje tím, že veřejné testování je nutné pro vývoj a udržování bezpečnostních systémů. Navíc problém s vytvářením škodlivého obsahu se týká i OpenAI a Microsoftu a škoda způsobená umělou inteligencí je zatím minimální.
Google dodává, že etika spojená s AI je pro ně stále nejvyšší prioritou a pokračují v rozšiřování pracovních skupin, které tyto principy studují a poté aplikují na technologie. Mnoho odborníků na tuto problematiku v poslední době upozornilo a je dobře, že diskuze a varování neutichají.