Pracovníci Googlu kritizují bezhlavé vypuštění Barda do světa
Opakovaný apel proti zveřejnění softwaru nezabral
Google dal přednost byznysu místo bezpečnosti
Server Bloombergpřinesl zprávy od téměř dvou desítek bývalých a současných zaměstnanců Googlu týkajících se jeho vlastní umělé inteligence jménem Bard. Podle informací nebyl v době zveřejnění vůbec připravený k širšímu použití a krok nedbat bezpečnostních upozornění motivovala snaha udržet tempo s konkurenty jako Microsoft a OpenAI.
Snaha dohnat konkurenci za každou cenu
Před březnovým uvedením Barda do provozu dostali pracovníci za úkol nový software otestovat. Ve zpětné vazbě uváděli jako největší problém tendenci systému generovat svým uživatelům potenciálně nebezpečné rady a informace. Nešetřili ani ostřejšími výrazy. Barda označovali za patologického lháře a prohlašovali, že výraz „k ničemu“ je pro něj slabý.
Celou společnost pak nařkli také z upozadění etických otázek a bezpečnosti ve prospěch uvedení vlastního výrobku na trh. Někteří zaměstnanci se nechali slyšet, jak vedení v této době postupovalo. Etické oddělení, které se Google v roce 2021 zavázal posílit, dostalo nařízeno nevměšovat se do současného vývoje a nepokoušet se jej nijak zastavit.
Vedení Googlu však argumentuje tím, že veřejné testování je nutné pro vývoj a udržování bezpečnostních systémů. Navíc problém s vytvářením škodlivého obsahu se týká i OpenAI a Microsoftu a škoda způsobená umělou inteligencí je zatím minimální.
Google dodává, že etika spojená s AI je pro ně stále nejvyšší prioritou a pokračují v rozšiřování pracovních skupin, které tyto principy studují a poté aplikují na technologie. Mnoho odborníků na tuto problematiku v poslední době upozornilo a je dobře, že diskuze a varování neutichají.