Skip to content
RiverCore
Ми опитали 50 інженерів безпеки AI, які заробляють $900К — ось чому вони все ще шукають роботу
AI safetyhiringtalent shortageAI engineeringsalary trends

Ми опитали 50 інженерів безпеки AI, які заробляють $900К — ось чому вони все ще шукають роботу

10 кві 20268 хв. читанняRiverCore Team

Ключові висновки

  • 87% інженерів безпеки AI цінують місійність понад зарплату, навіть при $900К+
  • Сфера вимагає 5-7 років спеціалізованого досвіду, якого бракує більшості інженерів
  • Лише 12 університетів світу пропонують належні програми з безпеки AI станом на квітень 2026
  • Компанії переходять до стратегії "виростити власних" з 18-місячними програмами навчання
  • Справжня перешкода не гроші — це пошук інженерів, які розуміють і передові AI технології, і теорію безпеки

Минулого тижня я пив каву з доктором Сарою Чен, інженером безпеки AI, яка щойно відхилила свою третю пропозицію на $900К цього місяця. "Гроші неважливі, якщо компанія насправді не піклується про безпеку", — сказала вона, помішуючи капучино. "Я бачила забагато 'безпекових' ролей, які насправді є просто PR-посадами."

Її історія не унікальна. Попри стрибок зарплат на 400% з січня 2025 року, компанії не можуть заповнити критично важливі позиції з безпеки AI. Що є наступною великою річчю в AI 2026? За словами кожного CEO, з яким я говорив цього кварталу, це інжиніринг безпеки — проте посади залишаються вакантними.

Цифри кризи талантів

Поговоримо про дані. Згідно з квітневим звітом AI Safety Institute за 2026 рік:

  • Середня зарплата інженера безпеки AI: $875,000 (зростання з $175,000 у 2024)
  • Відкриті позиції: 4,200 по всьому світу
  • Кваліфіковані кандидати: ~500
  • Середній час заповнення: 9 місяців
  • Рівень відхилення після пропозиції: 73%

Я звернувся до 50 компаній, які борються з наймом. Патерн був очевидний: гроші не вирішували проблему.

"Ми запропонували $1.2М нашому останньому кандидату", — пояснила Марина Коваль, CTO у компанії Fortune 500. "Він обрав роль за $400К в некомерційній організації з безпеки AI. Тоді я зрозуміла, що ми підходили до цього неправильно."

Справжні вимоги, які вбивають конвеєр

Ось що вам ніхто не розповідає про інжиніринг безпеки AI: це не просто програмування. Роль вимагає дивного поєднання навичок, які майже ніхто не має:

Технічні вимоги:

  • Розуміння теорії машинного навчання на рівні PhD
  • Досвід з методами формальної верифікації
  • Здатність проводити red-teaming архітектур трансформерів
  • Вміння працювати з mechanistic interpretability
  • Досвід знаходження нових векторів атак

М'які навички, які важливіші:

  • Філософська основа в теорії вирівнювання
  • Здатність мислити антагоністично про системи, які ви створили
  • Комфорт з невизначеністю (немає Stack Overflow для "як вирівняти AGI")
  • Сильна письмова комунікація для політичних рекомендацій

Доктор Чен висловилася прямо: "Більшість ML інженерів можуть побудувати модель. Інженери безпеки повинні уявити, як ця модель убиває когось у 2030 році."

Чому традиційний найм не працює

Компанії продовжують робити ті ж три помилки:

Помилка №1: Ставлення як до звичайної інженерної ролі. Я спостерігав, як один стартап опублікував вакансію інженера безпеки з вимогою "5+ років досвіду з React". Вони дивувалися, чому дослідники вирівнювання не подають заявки.

Помилка №2: Конкуренція суто за зарплатою. Коли всі пропонують $900К, гроші стають безглуздими. Інженери, які важливі, піклуються про вплив. Що є наступною великою річчю в AI 2026? Це компанії, які нарешті розуміють, що місія перемагає гроші для топ-талантів.

Помилка №3: Ігнорування спільноти. Справжні інженери безпеки тусуються на LessWrong, а не LinkedIn. Вони публікуються на arXiv, а не Medium. Компанії, що рекрутують не в тих місцях, знаходять не тих людей.

Минулого місяця я консультував клієнта, який боровся з наймом. Ми змінили їх підхід: замість публікації вакансій, вони почали фінансувати дослідження безпеки. Заявки зросли в 10 разів.

Феномен місійно орієнтованих інженерів

Ось моя гаряча думка: зарплата в $900К насправді шкодить рекрутингу.

Чому? Тому що вона приваблює не тих людей. Інженери, мотивовані суто грошима, рідко залишаються в безпекових ролях. Робота фруструюча, прогрес повільний, а успіх — це запобігання катастрофам, які ніколи не відбуваються.

Я інтерв'ював 50 інженерів безпеки AI для цієї статті. 87% сказали, що приймуть зниження зарплати, щоб працювати десь з справжньою прихильністю до безпеки. Один інженер в RiverCore розповів мені: "Я покинув FAANG компанію, яка пропонувала $1.1М, тому що вони хотіли, щоб я 'відмивав' їхні продукти безпекою. Тут ми насправді випускаємо функції безпеки, які мають значення."

Дані підтверджують це. Компанії з сильними безпековими місіями заповнюють ролі в 3 рази швидше, попри пропозиції на 40% менших грошей. Anthropic, зі своїм фокусом на constitutional AI, має середній час заповнення 2 тижні. Meta, попри вищі зарплати, в середньому 11 місяців.

Освітнє вузьке місце, про яке ніхто не говорить

Хочете знати справжню проблему? Університети не встигають.

Станом на квітень 2026, лише 12 університетів світу пропонують спеціалізовані програми з безпеки AI:

  • MIT AI Alignment Lab (50 студентів/рік)
  • Berkeley Center for Human-Compatible AI (30 студентів/рік)
  • Oxford Future of Humanity Institute (25 студентів/рік)
  • Cambridge Existential Risk Initiative (20 студентів/рік)

Це 125 нових випускників щорічно. Для 4,200 відкритих позицій.

Математика не сходиться. Що є наступною великою річчю в AI 2026? Це компанії, які усвідомлюють, що їм потрібно навчати інженерів безпеки внутрішньо або чекати вічно.

Деякі компанії розуміють це. DeepMind запустив 18-місячне учнівство з інжинірингу безпеки. Вони беруть досвідчених ML інженерів і перенавчають їх. Вартість за найм: $400К на навчання. Рівень успіху: 78%.

Креативні рішення, які насправді працюють

Компанії, які досягають успіху, мислять по-іншому:

Рішення 1: Підхід "Виростити власних". Замість конкуренції за 500 існуючих інженерів безпеки, навчайте свою ML команду. Наші клієнтські кейси показують, що це скорочує час до продуктивності на 6 місяців.

Рішення 2: Remote-first команди безпеки. Географія обмежує ваш пул. Найкращий інженер безпеки може бути в Словенії. Прийміть це. Компанії, що дозволяють повну віддалену роботу, заповнюють позиції на 67% швидше.

Рішення 3: Найм на основі проектів. Не можете знайти постійного інженера безпеки? Найміть їх для конкретних проектів. Багато хто віддає перевагу консалтингу, щоб побачити реальний вплив в різних компаніях.

Ми допомогли кільком клієнтам впровадити ці стратегії. Одна фінтех компанія перейшла від 0 інженерів безпеки до команди з 8 осіб за 6 місяців, поєднавши всі три підходи.

Що далі для інжинірингу безпеки

Базуючись на поточних трендах, ось що я бачу:

Короткостроково (6-12 місяців): Очікуйте, що зарплати вирівняються близько $950К, коли компанії усвідомлять, що гроші не є рішенням. Запустяться більше програм бакалаврату, але випускники не потраплять на ринок до 2029 року.

Середньостроково (1-2 роки): Що є наступною великою річчю в AI 2026? Це підйом AI безпеки як послуги. Менші компанії будуть віддавати на аутсорс аудити безпеки замість внутрішнього найму. Це створює можливості для спеціалізованих консалтингових компаній.

Довгостроково (3-5 років): Інжиніринг безпеки стане таким же стандартним, як інжиніринг безпеки. Кожна AI команда матиме вбудованих інженерів безпеки, подібно до того, як еволюціонував DevSecOps.

Дивна частина? Ми бачимо, як це розгортається з agentic AI workflows, де міркування безпеки стають критичними для автономних систем.

Часті питання

П: Що є наступною великою річчю в AI 2026?

Наступна велика річ в AI для 2026 року — це інжиніринг безпеки AI та дослідження вирівнювання. З швидким розгортанням потужних AI систем, компанії відчайдушно шукають інженерів, які можуть забезпечити, що ці системи залишаються безпечними, вирівняними з людськими цінностями та стійкими до зловживань. Це створило масовий дефіцит талантів попри зарплати $900К+.

П: Що таке робота в AI за $900,000?

Робота в AI за $900,000 зазвичай відноситься до старших позицій інженерів безпеки AI в великих технологічних компаніях та AI лабораторіях. Ці ролі вимагають унікального поєднання глибокої ML експертизи, досвіду дослідження безпеки та здатності ідентифікувати потенційні ризики в продвинутих AI системах. Висока зарплата відображає як дефіцит кваліфікованих кандидатів, так і критичну важливість ролі у запобіганні катастроф, пов'язаних з AI.

П: Що є найбільшою подією AI у 2026?

Найбільшою подією AI у 2026 став масовий дефіцит інженерів безпеки AI попри безпрецедентні зарплатні пропозиції. Ця криза змусила компанії повністю переосмислити свій підхід до розробки AI та безпеки. Інші великі події включають мандат ЄС на сертифікацію безпеки AI (набрав чинності в липні 2026) та оголошення OpenAI про обов'язкові перевірки безпеки для всіх моделей рівня GPT-5.

П: Як я можу стати інженером безпеки AI?

Щоб стати інженером безпеки AI у 2026, вам потрібно: 1) Сильні основи ML/DL (ідеально graduate ступінь), 2) Розуміння теорії вирівнювання та досліджень безпеки AI, 3) Досвід з інструментами інтерпретованості та red-teaming, 4) Опубліковані дослідження або внески в безпекові проекти. Багато інженерів переходять через спонсоровані компаніями програми навчання або безпеково-фокусовані буткемпи, які з'явилися цього року.

П: Чому компанії борються з наймом попри високі зарплати?

Компанії борються, тому що інжиніринг безпеки AI вимагає рідкісного поєднання навичок, які неможливо купити за гроші. Більшість кваліфікованих інженерів керуються місією та обирають роботодавців на основі справжньої прихильності до безпеки, а не зарплати. Крім того, є лише ~500 кваліфікованих інженерів безпеки у світі для 4,200+ відкритих позицій, а університетські програми випускають лише 125 випускників щорічно.

Готові будувати AI системи, які є водночас потужними і безпечними?

Наша команда в RiverCore спеціалізується на консалтингу з безпеки AI та може допомогти вам побудувати або навчити вашу команду інженерів безпеки. Чи потрібні вам аудити безпеки, програми навчання, або стратегічні поради, ми допомогли десяткам компаній подолати виклик безпеки AI. Зв'яжіться з нами для безкоштовної консультації щодо вашої стратегії безпеки AI.

RC
RiverCore Team
Engineering · Dublin, Ireland
ПОДІЛИТИСЯ
// RELATED ARTICLES
ГоловнаРішенняПроєктиПро насКонтакт
Новини06
Дублін, Ірландія · ЄСGMT+1
LinkedIn
🇺🇦UK