Очевидно технологиите с изкуствен интелект (ИИ) имат да вървят още път, докато станат наистина ефективни и спрат да провокират критики.
В момента това се отнася особено много за генеративния модел за изображения Gemini, дело на технологичния гигант Google.
Оказва се, че последната му версия има съществени проблеми при създаването на хора с бял цвят на кожата, което води до исторически неточности.
Така при въвеждане на търсене за викинги или бащите основатели на САЩ, Gemini генерира резултати с чернокожи жени и мъже. Същото е при представянето на нацистки войници или древногръцки философи.
Логично неточностите предизвикаха редица критики от потребители в социалните мрежи, които обвиниха Google в расизъм срещу хората с бял цвят на кожата.
Google has paused Gemini following criticisms over the AI image generator's racially diverse depictions of the Founding Fathers, the Pope, and Vikings. Users reported that in its attempt to avoid racial bias, Gemini often generated historically inaccurate representations. pic.twitter.com/4DBPAFNnZ7
— POCIT (@pocintech) February 22, 2024
Отговорът на технологичния гигант - извинение.
"Наясно сме, че Gemini предлага неточности в някои случаи при генериране на исторически изображения", се казва в официално изявление в социалната мрежа X. "Незабавно започваме процес по подобрение на работата [на услугата]. Gemini действително генерира широк кръг от хора. И това като цяло е нещо добро, защото го използват хора от цял свят. Тук обаче пропуска целта."
По-малко от 24 часа след изявлението Google обяви, че временно спира достъпа до функциите на Gemini за генериране на хора, докато не оправи проблема и не пусне подобрена версия на технологията с изкуствен интелект.
Google AI Gemini shows non-White women when asked to generate pictures of Nazi soldiers.
— AF Post (@AFpost) February 21, 2024
Follow: @AFpost pic.twitter.com/w0ML5TXO04
Според обвиненията на потребителите досегашното поведение на Gemini е било съвсем умишлено заложено от разработчиците, тъй като то се опира не само на захранването с бази от данни, но и с предварително заложени правила и ограничения в контекста на желанието за прилагане на политическа коректност във всяко едно отношение.
Извинението на Google и обещанието за поправка е интересно, тъй като е първото подобно, въпреки че досега е имало множество обвинения срещу различни генеративни модели за стереотипизиране на раси и полове.
Например Dall-E от OpenAI, който за момента е и водещата подобна програма за изображения, бе обвинен, че при търсене на главни изпълнители директори най-честите генерирани резултати са бели мъже.
Твърдения за наличие на стеротипи е имало също за чатботовете ChatGPT на OpenAI и Copilot на Microsoft.
Depiction of Vikings according to Google Gemini Pro. 😂 pic.twitter.com/wugvCgkmEl
— Ronald John (@rontech777) February 22, 2024
За разлика от тях обаче генеративният модел Grok, дело на компанията на Илон Мъск xAI, не претендира да бъде политкоректен.
Както всички останали, той работи с огромна база от данни, събрана от интернет, но също така получава информация в реално време от социалната мрежа X и е програмиран да отговаря на провокативни въпроси с остроумни отговори и без да се съобразява с политически ограничения.
Grok е отговорът на Мъск на OpenAI, която съосновава през 2015 г., но напуска през 2018 г. заради различия във възгледите с главния изпълнителен директор Сам Олтман. Оттогава Мъск осъжда компанията за това, че е твърде ляво ориентирана и дори опасна.
Според милиардера Grok е реалистичен и откровен чатбот, даващ отговори на въпроси, които останалите подобни модели отхвърлят, включително инструкции за производство на кокаин.
Така че явно Google ще трябва по някакъв начин да намерят точния баланс за Gemini, за да отговорят на критиките отляво и отдясно.