Гонка вооружений ИИ или коллективное самоубийство? Бывший исследователь OpenAI предупреждает о катастрофических рисках неконтролируемого развития ИИ
Из одной из ведущих лабораторий искусственного интеллекта Стивен Адлер, бывший исследователь безопасности в OpenAI, подал в отставку, заявив о чрезмерно быстром развитии ИИ и его потенциальных угрозах для человечества.

Из одной из ведущих лабораторий искусственного интеллекта Стивен Адлер, бывший исследователь безопасности в OpenAI, подал в отставку, заявив о чрезмерно быстром развитии ИИ и его потенциальных угрозах для человечества. Его заявление, опубликованное в X (бывший Twitter), вновь разожгло дискуссии об этике, безопасности и регулировании искусственного общего интеллекта (AGI) — технологии, которая может превзойти человеческий интеллект и кардинально изменить цивилизацию.
Но слова Адлера — это не просто разочарованная критика бывшего сотрудника. Это тревожный сигнал об индустрии, которая мчится в неизвестность.
«Меня пугают темпы развития ИИ сегодня», — написал Адлер.
«Даже если лаборатория действительно хочет развивать AGI ответственно, другие могут пойти на нарушения, чтобы догнать её — и это может привести к катастрофе. Это вынуждает всех ускоряться. Сегодня ни у одной лаборатории нет решения проблемы выравнивания ИИ (AI alignment).»
Гонка без финишной черты
Опасения Адлера находят отклик у ведущих экспертов по ИИ, таких как Стюарт Рассел, профессор Калифорнийского университета в Беркли. Он сравнивает гонку за AGI с «забегом к краю пропасти».
Рассел предупреждает, что стремление к созданию AGI без надлежащих мер безопасности может привести к катастрофе, вплоть до возможного вымирания человечества.
«Даже генеральные директора компаний, участвующих в этой гонке, признают, что у победителя будет значительный шанс вызвать исчезновение человечества, потому что у нас нет способов контролировать системы, более умные, чем мы сами,» — сказал он в интервью Financial Times.
Эти предостережения — не преувеличение. Речь идет о выживании человечества. Если AGI не будет соответствовать человеческим ценностям, он может действовать непредсказуемо или даже враждебно. Однако, как отмечает Адлер, конкуренция в индустрии ИИ вынуждает компании ставить скорость выше безопасности, создавая «порочный круг», в котором сокращение мер предосторожности становится нормой.
Проблемы безопасности в OpenAI
Отставка Адлера — это не единичный случай. OpenAI уже давно подвергается критике за свое отношение к безопасности.
Смерть бывшего исследователя OpenAI Сучира Баладжи в ноябре 2024 года, предположительно из-за самоубийства, бросила мрачную тень на компанию. Баладжи стал разоблачителем, заявив о жестких соглашениях о неразглашении и проблемах с прозрачностью в OpenAI.
Кроме того, из компании продолжает уходить ключевой персонал.
В 2023 году OpenAI покинули сооснователь Илья Суцкевер и Ян Лейке, руководители команды Superalignment. Лейке открыто критиковал OpenAI за отход от приоритетов безопасности, заявив:
«Культура безопасности и процессы отошли на второй план ради блестящих продуктов.»
Эти увольнения подчеркивают тревожную тенденцию: по мере того как лаборатории ИИ борются за доминирование, голоса, призывающие к осторожности и этическому подходу, заглушаются.
Уход Адлера — очередное напоминание о том, что развитие AGI — это не только технологическая, но и моральная проблема.
ИИ как приоритет национальной политики
Гонка за ИИ вышла за пределы корпоративных лабораторий и стала ареной геополитического соперничества.
Президент Дональд Трамп пообещал отменить политику Байдена, которая, по его словам, мешает инновациям в сфере ИИ, и выстроить развитие американского ИИ в соответствии с «здравым смыслом» и национальными интересами.
Тем временем OpenAI запустила ChatGPT Gov — версию чат-бота, разработанную специально для государственных учреждений США, что говорит о растущей интеграции ИИ в сферу национальной безопасности.
Однако, как предупреждают Адлер и другие эксперты, стремление к доминированию в сфере ИИ может привести к игнорированию ключевых аспектов безопасности.
Запуск ChatGPT Gov и других масштабных проектов может укрепить позиции США в глобальной гонке, но какой ценой?
Если предостережения исследователей, таких как Адлер и Рассел, будут проигнорированы, последствия могут быть необратимыми.
Баланс между инновациями и безопасностью
Теперь, когда Адлер ушел из индустрии ИИ, его слова служат трезвым напоминанием:
Будущее человечества может зависеть от того, удастся ли нам найти баланс между инновациями и безопасностью, прежде чем станет слишком поздно.
0