Гонка озброєнь і чи колективне самогубство? Колишній дослідник OpenAI попереджає про катастрофічні ризики неконтрольованого розвитку ШІ
З провідних лабораторій штучного інтелекту Стівен Адлер, колишній дослідник безпеки OpenAI, подав у відставку, заявивши про надмірно швидкий розвиток ШІ та його потенційні загрози для людства.

З провідних лабораторій штучного інтелекту Стівен Адлер, колишній дослідник безпеки OpenAI, подав у відставку, заявивши про надмірно швидкий розвиток ШІ та його потенційні загрози для людства. Його заява, опублікована в X (колишній Twitter), знову розпалила дискусії про етику, безпеку та регулювання штучного загального інтелекту (AGI) — технології, яка може перевершити людський інтелект і кардинально змінити цивілізацію.
Але слова Адлера-це не просто розчарована критика колишнього співробітника. Це тривожний сигнал про індустрію, яка мчить в невідомість.
“Мене лякають темпи розвитку ШІ сьогодні”, – написав Адлер.
“Навіть якщо лабораторія дійсно хоче розвивати AGI відповідально, інші можуть піти на порушення, щоб наздогнати її — і це може призвести до катастрофи. Це змушує всіх прискорюватися. Сьогодні жодна лабораторія не має рішення проблеми вирівнювання ШІ (AI alignment).”
Гонка без фінішної лінії
Побоювання Адлера резонують з провідними експертами з ШІ, такими як Стюарт Рассел, професор Каліфорнійського університету в Берклі. Він порівнює гонку за AGI з”забігом до краю прірви”.
Рассел попереджає, що прагнення до створення AGI без належних заходів безпеки може призвести до катастрофи, аж до можливого вимирання людства.
“Навіть генеральні директори компаній, що беруть участь в цій гонці, визнають, що у переможця буде значний шанс викликати зникнення людства, тому що у нас немає способів контролювати системи, більш розумні, ніж ми самі,” — сказав він в інтерв’ю Financial Times.
Ці застереження — не перебільшення. Йдеться про виживання людства. Якщо AGI не відповідає людським цінностям, він може діяти непередбачувано або навіть вороже. Однак, як зазначає Адлер, конкуренція в індустрії ШІ змушує компанії ставити швидкість вище безпеки, створюючи «порочне коло», в якому скорочення запобіжних заходів стає нормою.
Проблеми безпеки в OpenAI
Відставка Адлера-це не поодинокий випадок. OpenAI вже давно піддається критиці за своє ставлення до безпеки.
Смерть колишнього дослідника OpenAI Сучіра Баладжі в листопаді 2024 року, нібито через самогубство, кинула похмуру тінь на компанію. Баладжі став викривачем, заявивши про жорсткі Угоди про нерозголошення та проблеми з прозорістю в OpenAI.
Крім того, з компанії продовжує йти ключовий персонал.
У 2023 році OpenAI покинули співзасновник Ілля Суцкевер і Ян Лейке, керівники команди Superalignment. Лейке відкрито критикував OpenAI за відхід від пріоритетів безпеки, заявивши:
“Культура безпеки і процеси відійшли на другий план заради блискучих продуктів.«
Ці звільнення підкреслюють тривожну тенденцію: коли лабораторії ШІ борються за домінування, голоси, що закликають до обережності та етичного підходу, замовчуються.
Відхід Адлера-чергове нагадування про те, що розвиток AGI — це не тільки технологічна, а й моральна проблема.
ШІ як пріоритет національної політики
Гонка за ШІ вийшла за межі корпоративних лабораторій і стала ареною геополітичного суперництва.
Президент Дональд Трамп пообіцяв скасувати політику Байдена, яка, за його словами, заважає інноваціям в сфері ШІ, і вибудувати розвиток американського ШІ відповідно до «здорового глузду» і національними інтересами.
Тим часом OpenAI запустила chatgpt gov — версію чат-бота, розроблену спеціально для державних установ США, що говорить про зростаючу інтеграцію ШІ в сферу національної безпеки.
Однак, як попереджають Адлер та інші експерти, прагнення до домінування у сфері ШІ може призвести до ігнорування ключових аспектів безпеки.
Запуск ChatGPT Gov та інших масштабних проектів може зміцнити позиції США в глобальній гонці, але якою ціною?
Якщо застереження таких дослідників, як Адлер та Рассел, будуть проігноровані, наслідки можуть бути незворотними.
Баланс між інноваціями та безпекою
Тепер, коли Адлер пішов з індустрії ШІ, його слова служать тверезим нагадуванням:
Майбутнє людства може залежати від того, чи вдасться нам знайти баланс між інноваціями та безпекою, перш ніж стане занадто пізно.