"Системите с изкуствен интелект (ИИ), които притежават способна да се съревновава с човека интелигентност, могат да представляват сериозни рискове за обществото и човечеството."
Така започва отворено писмо, подписано от шефа на SpaceX и Tesla Илон Мъск, писателя Ювал Ноа Харари, съоснователя на Apple Стив Возняк и стотици директори и служители на технологични компании, университетски преподаватели и специалисти в областта на ИИ.
В него всички те се обединяват около общ призив - за временна пауза при обучението системи с изкуствен интелект, по-мощни от настоящата GPT-4.
Според тях тази пауза трябва да продължи поне 6 месеца, да бъде публична и да може да се проверява дали наистина се спазва. Призивът отива дори по-далеч - ако компаниите, разработващи ИИ, не поемат сами тази отговорност, да се стигне и до държавна намеса.
"Ако подобна пауза не бъде постановена бързо, правителствата трябва да се намесят и да наложат мораториум", пише в отвореното писмо.
Авторите му се аргументират с данни от изследвания на лаборатории в областта на изкуствения интелект. Застават зад позицията, че напреднал изкуствен интелект може да доведе до дълбока промяна в историята на живота на Земята и заради това трябва да бъде планиран и управляван с огромно внимание.
Според тях обаче това не се случва, а разработчици на ИИ в последните месеци са се вкопчили в надпревара кой ще създаде по-могъщ дигитален ум, какъвто никой - дори собствените му създатели - не може да разбере, предвиди или напълно контролира.
Очевиден е поводът за появата на писмото. ChatGPT - публично достъпният езиков модел, базиран на ИИ - бързо разкри нивото на подобни технологии и как те могат да се съревновават и дори да надминават човека в определени дейности. През март разработчиците от компанията OpenAI представиха и следващата си система - GPT-4, която е дори по-добра от предшественика си.
Може да "разбира" и интерпретира не само текст, но и изображения например.
В отвореното писмо се повдигат няколко въпроса:
- трябва ли да се позволява на машини да наводняват информационните канали с пропаганда и неистини;
- трябва ли да автоматизираме всички професии;
- трябва ли да разработваме нечовешки умове, които могат евентуално да станат повече и по-умни от нас, с което да ни направят излишни и да ни заменят;
- трябва ли да рискуваме да загубим контрол над собствената си цивилизация.
"Мощните системи с изкуствен интелект трябва да бъдат разработвани, само след като сме сигурни, че ефектите им ще бъдат позитивни и рисковете, които носят - управляеми", пише в писмото на технологичните гурута.
Че GPT4 е в основата на тревогите става ясно и от това, че се обръща специално внимание на скорошна позиция на OpenAI - как в един момент може да се наложи да се дава независима оценка, преди да започва обучението на бъдеща система с ИИ, а най-напредналите в областта да се съгласят да ограничат скоростта на растеж на изчислителната мощ, използвана при създаването на такива модели.
Мъск и останалите автори на писмото са съгласни с това твърдение, но са убедени, че този момент вече е дошъл. Тук идва и призивът за пауза на разработките и дори за евентуална правителствена намеса.
Според отвореното писмо както разработчиците на ИИ, така и независими експерти трябва да използват една такава пауза, за да разработят протоколи за безопасност при създаването на по-добър ИИ, които да гарантират, че той без никакво съмнение няма да може да вреди. Идеята е независими експерти също така да одитират компаниите и съблюдават за спазването на тези протоколи.
Не се има предвид спиране на разработките в тази технологична област, а "стъпка назад от опасната надпревара за все по-големи, непредвидими модели". Иска се изследванията и разработките на ИИ да се префокусират върху това да направят сегашните системи "по-точни, безопасни, интерпретируеми, прозрачни, ясни, равни, надеждни и лоялни".
Не се пренебрегва и ролята на държавата. Отправя се призив разработчиците да работят с политици, за да се създадат регулаторни власти в областта на ИИ; начини за надзор и следене на ИИ с големи възможности; да има отговорност за вреди, нанесени от ИИ; да се осигури обществено финансиране за изследвания в областта на безопасния ИИ и "институции, които да се справят с драматичните икономически и политически трусове (особено при демокрацията), които ИИ ще причини".
Написаното в писмото придобива особена тежест, когато човек обърне внимание на лицата, подкрепили написаното в него.
Там са директорите и служители на компании, работещи в сферата на ИИ, като DeepMind, Stability AI, Conjecture, MILA; изследователи в същата област; съоснователи и директори в технологични компании като Skype, Pinterest и Ripple; професори по физика и машинно обучение от различни престижни университети...
Сред подписалите писмото особено интересно е присъствието на Рейчъл Бронсън, президент на "Бюлетина на ядрените учени". Това е същата организация, която стои зад т.нар. Часовник на Страшния съд, посочващ колко близо е човечеството до потенциален край на света.
"Човечеството може да се наслаждава на процъфтяващо бъдеще с ИИ. След като успяхме да създадем мощни ИИ системи, сега можем да се наслаждаваме на едно "лято на изкуствения интелект", в което да жънем наградите, да развиваме тези системи за по-ясна полза за всички и да дадем шанс на обществото да се адаптира", завършва писмото.
Отбелязва се, че и преди временно е спирана разработката на технологии с потенциално катастрофални ефекти върху човечеството.
"Можем да направим така и тук. Да се наслаждаваме на дълго лято на ИИ, а не да се втурваме неподготвени към есента."
Писмото подлежи на разглеждане от различни ъгли. Присъствието на толкова специалисти от различни области може да се тълкува като тревожен знак за последствията от скоростното развитие на изкуствения интелект, за които не мислим и говорим достатъчно като общество.
Особено в ситуация на нестабилна световна икономика, конфликт на територията на Европа, разговори за ядрени арсенали и цената на сиренето.
Естествено, вече има хора, които са на мнение, че макар идеята за пауза да е добра, писмото полага невъзможни условия, които не могат да бъдат реализирани.
"Дълбоко двулично е от Илон Мъск да го подпише с оглед на това колко упорито Tesla се бори срещу поемането на отговорност за дефектния ИИ в нейните самоуправляеми коли", коментира пред "Асошиейтед прес" Джеймс Гримълман, професор по дигитално и информационно право в университета "Корнел".
Ако човек пренебрегне апокалиптичните прогнози, които се промъкват в писмото, по-трудно е да се неглижират краткосрочните заплахи, които също са отбелязани вътре. Един от подписалите се - професор Гари Маркъс, в своя статия в The Atlantic обръща внимание по-скоро на опасностите, които езиковите модели като ChatGPT и Bing Chat представляват, когато бъдат използвани от злонамерени лица - включително терористи.
"Дори не можем да си представим какво правителствено финансирани ферми за тролове с големи бюджети и собствени големи езикови модели могат да постигнат. Злонамерените лица могат лесно да използват тези инструменти (...), за да създадат вредна дезинформация в невиждан и огромен мащаб", пише Маркъс.
В същото време присъствието на представители на разработчици на ИИ сред подписалите писмото няма как да не доведе до съмнения, че просто търсят начин да настигнат OpenAI, било то и не чрез бърз прогрес със собствените системи, а с "паузиране" на разработките на успешния конкурент.
Надпреварата за ИИ обаче вече има своите финансови измерения - както милионите долари инвестиции в сферата, така и потенциалните печалби, които големите технологични компании могат да извлекат от развитието на модели като GPT.
Голямо предизвикателство ще бъде търсенето на едно взаимно ограничаване, а още по-голямо такова ще бъде тези компании, традиционно противопоставящи се на държавни регулации и контрол, да се съгласят на такива в тази нова сфера.