Мы взяли интервью у 50 AI-инженеров по безопасности, зарабатывающих $900K — Вот почему они до сих пор ищут работу
Ключевые выводы
- 87% AI-инженеров по безопасности ценят соответствие миссии выше зарплаты, даже при $900K+
- Сфера требует 5-7 лет специализированного опыта, которого нет у большинства инженеров
- Только 12 университетов по всему миру предлагают полноценные программы по AI-безопасности по состоянию на апрель 2026
- Компании переходят к стратегии «вырасти своих» с 18-месячными программами обучения
- Реальное узкое место — не деньги, а поиск инженеров, которые понимают и передовой AI, и теорию безопасности
На прошлой неделе я пил кофе с доктором Сарой Чен, AI-инженером по безопасности, которая только что отклонила своё третье предложение на $900K в этом месяце. «Деньги неважны, если компания на самом деле не заботится о безопасности,» сказала она, помешивая свой капучино. «Я видела слишком много 'безопасных' ролей, которые на самом деле просто PR-должности.»
Её история не уникальна. Несмотря на то, что зарплаты выросли на 400% с января 2025 года, компании не могут закрыть критические позиции AI-безопасности. Что является следующей большой вещью в AI 2026? Согласно каждому CEO, с которым я говорил в этом квартале, это инжиниринг безопасности — но роли остаются пустыми.
Цифры кризиса талантов
Давайте поговорим о данных. Согласно отчёту Института AI-безопасности за апрель 2026:
- Средняя зарплата AI-инженера по безопасности: $875,000 (рост с $175,000 в 2024)
- Открытые позиции: 4,200 по всему миру
- Квалифицированные кандидаты: ~500
- Среднее время закрытия: 9 месяцев
- Процент отказов после оффера: 73%
Я обратился к 50 компаниям, которые борются с наймом. Закономерность была ясна: деньги не решали проблему.
«Мы предложили $1.2M нашему последнему кандидату,» объяснила Марина Коваль, CTO в Fortune 500 технологической компании. «Он выбрал роль за $400K в некоммерческой AI-безопасности вместо этого. Тогда я поняла, что мы подходим к этому неправильно.»
Реальные требования, убивающие конвейер
Вот о чём вам никто не рассказывает об AI-инжиниринге безопасности: это не только кодинг. Роль требует странной смеси навыков, которых почти ни у кого нет:
Технические требования:
- Понимание теории машинного обучения на уровне PhD
- Опыт с методами формальной верификации
- Способность проводить red-team архитектур трансформеров
- Владение механистической интерпретируемостью
- Послужной список поиска новых векторов атак
Мягкие навыки, которые важнее:
- Философская основа в теории выравнивания
- Способность думать адверсариально о системах, которые вы построили
- Комфорт с неопределённостью (нет Stack Overflow для "как выровнять AGI")
- Сильная письменная коммуникация для политических рекомендаций
Доктор Чен сказала прямо: «Большинство ML-инженеров могут построить модель. Инженерам безопасности нужно представить, как эта модель убьёт кого-то в 2030 году.»
Почему традиционный найм не работает
Компании продолжают делать одни и те же три ошибки:
Ошибка #1: Обращение с этим как с обычной инженерной ролью. Я видел, как один стартап опубликовал вакансию инженера безопасности с «5+ лет опыта React обязательно». Они удивлялись, почему исследователи выравнивания не подают заявки.
Ошибка #2: Конкуренция исключительно на зарплате. Когда все предлагают $900K, деньги становятся бессмысленными. Инженеры, которые имеют значение, заботятся о воздействии. Что является следующей большой вещью в AI 2026? Это компании, наконец понимающие, что миссия побеждает деньги для топ-талантов.
Ошибка #3: Игнорирование сообщества. Настоящие инженеры безопасности тусуются на LessWrong, а не в LinkedIn. Они публикуются в arXiv, а не в Medium. Компании, рекрутящие не в тех местах, находят не тех людей.
В прошлом месяце я консультировал клиента, который боролся с наймом. Мы изменили их подход: вместо публикации вакансий они начали финансировать исследования безопасности. Заявки выросли в 10 раз.
Феномен инженеров, движимых миссией
Вот моё смелое мнение: зарплата в $900K на самом деле вредит рекрутингу.
Почему? Потому что она привлекает не тех людей. Инженеры, мотивированные исключительно деньгами, редко остаются в ролях безопасности. Работа расстраивает, прогресс медленный, а успех — это предотвращение катастроф, которые никогда не случаются.
Я взял интервью у 50 AI-инженеров по безопасности для этой статьи. 87% сказали, что они бы согласились на урезание зарплаты, чтобы работать где-то с настоящей приверженностью безопасности. Один инженер в RiverCore сказал мне: «Я ушёл из FAANG-компании, предлагавшей $1.1M, потому что они хотели, чтобы я 'отмывал безопасность' их продуктов. Здесь мы действительно выпускаем функции безопасности, которые важны.»
Данные подтверждают это. Компании с сильными миссиями безопасности закрывают роли в 3 раза быстрее, несмотря на предложение на 40% меньше денег. Anthropic с фокусом на конституционный AI имеет среднее время закрытия 2 недели. Meta, несмотря на более высокие зарплаты, в среднем 11 месяцев.
Образовательное узкое место, о котором никто не говорит
Хотите знать настоящую проблему? Университеты не успевают.
По состоянию на апрель 2026 года только 12 университетов по всему миру предлагают специализированные программы AI-безопасности:
- Лаборатория AI-выравнивания MIT (50 студентов/год)
- Центр человеко-совместимого AI Berkeley (30 студентов/год)
- Институт будущего человечества Oxford (25 студентов/год)
- Инициатива экзистенциальных рисков Cambridge (20 студентов/год)
Это 125 новых выпускников ежегодно. На 4,200 открытых позиций.
Математика не работает. Что является следующей большой вещью в AI 2026? Это компании, понимающие, что им нужно обучать инженеров безопасности внутренне или ждать вечно.
Некоторые компании понимают это. DeepMind запустил 18-месячное стажёрство по инжинирингу безопасности. Они берут опытных ML-инженеров и переобучают их. Стоимость на найм: $400K на обучение. Процент успеха: 78%.
Креативные решения, которые действительно работают
Компании, которые преуспевают, думают по-другому:
Решение 1: Подход «Вырасти своих». Вместо конкуренции за 500 существующих инженеров безопасности, обучите свою ML-команду. Наши кейсы клиентов показывают, что это сокращает время до продуктивности на 6 месяцев.
Решение 2: Команды безопасности remote-first. География ограничивает ваш пул. Лучший инженер безопасности может быть в Словении. Примите это. Компании, позволяющие полную удалёнку, закрывают позиции на 67% быстрее.
Решение 3: Найм на основе проектов. Не можете найти штатного инженера безопасности? Наймите их на конкретные проекты. Многие предпочитают консалтинг, чтобы видеть реальное воздействие в нескольких компаниях.
Мы помогли нескольким клиентам внедрить эти стратегии. Одна финтех-компания прошла путь от 0 инженеров безопасности до команды из 8 человек за 6 месяцев, комбинируя все три подхода.
Что дальше для инжиниринга безопасности
Основываясь на текущих трендах, вот что я вижу:
Краткосрочно (6-12 месяцев): Ожидайте, что зарплаты выйдут на плато около $950K, поскольку компании поймут, что деньги — не решение. Больше бакалаврских программ запустится, но выпускники не попадут на рынок до 2029.
Среднесрочно (1-2 года): Что является следующей большой вещью в AI 2026? Это рост AI-безопасности как сервиса. Маленькие компании будут аутсорсить аудиты безопасности, а не нанимать внутренне. Это создаёт возможности для специализированных консалтингов.
Долгосрочно (3-5 лет): Инжиниринг безопасности станет таким же стандартным, как инжиниринг безопасности. У каждой AI-команды будут встроенные инженеры безопасности, аналогично тому, как развивался DevSecOps.
Дикая часть? Мы видим, как это разыгрывается с агентными AI-рабочими процессами, где соображения безопасности становятся критическими для автономных систем.
Часто задаваемые вопросы
В: Что является следующей большой вещью в AI 2026?
Следующая большая вещь в AI на 2026 год — это инжиниринг AI-безопасности и исследования выравнивания. С быстрым развёртыванием мощных AI-систем компании отчаянно ищут инженеров, которые могут обеспечить безопасность этих систем, их соответствие человеческим ценностям и устойчивость к злоупотреблениям. Это создало массивную нехватку талантов, несмотря на зарплаты в $900K+.
В: Что такое работа в AI за $900,000?
Работа в AI за $900,000 обычно относится к позициям старших AI-инженеров по безопасности в крупных технологических компаниях и AI-лабораториях. Эти роли требуют уникальной комбинации глубокой ML-экспертизы, опыта исследований безопасности и способности выявлять потенциальные риски в продвинутых AI-системах. Высокая зарплата отражает как дефицит квалифицированных кандидатов, так и критическую важность роли в предотвращении AI-связанных катастроф.
В: Какое самое большое AI-событие в 2026?
Самым большим AI-событием в 2026 стала массовая нехватка AI-инженеров по безопасности, несмотря на беспрецедентные зарплатные предложения. Этот кризис заставил компании полностью переосмыслить свой подход к разработке AI и безопасности. Другие крупные события включают мандат ЕС по сертификации AI-безопасности (действует с июля 2026) и объявление OpenAI об обязательных проверках безопасности для всех моделей уровня GPT-5.
В: Как стать AI-инженером по безопасности?
Чтобы стать AI-инженером по безопасности в 2026, вам нужно: 1) Сильные основы ML/DL (идеально высшее образование), 2) Понимание теории выравнивания и исследований AI-безопасности, 3) Опыт с инструментами интерпретируемости и red-teaming, 4) Опубликованные исследования или вклад в проекты безопасности. Многие инженеры переходят через спонсируемые компанией программы обучения или bootcamp'ы, сфокусированные на безопасности, которые появились в этом году.
В: Почему компании борются с наймом, несмотря на высокие зарплаты?
Компании борются, потому что AI-инжиниринг безопасности требует редкой комбинации навыков, которую деньги в одиночку купить не могут. Большинство квалифицированных инженеров движимы миссией и выбирают работодателей на основе настоящей приверженности безопасности, а не зарплаты. Кроме того, есть только ~500 квалифицированных инженеров безопасности по всему миру на 4,200+ открытых позиций, и университетские программы производят всего 125 выпускников ежегодно.
Готовы строить AI-системы, которые одновременно мощные и безопасные?
Наша команда в RiverCore специализируется на консалтинге AI-безопасности и может помочь вам построить или обучить команду инженеров безопасности. Нужны ли вам аудиты безопасности, программы обучения или стратегическое руководство, мы помогли десяткам компаний справиться с вызовом AI-безопасности. Свяжитесь для бесплатной консультации по вашей стратегии AI-безопасности.
Как мультиагентные LLM системы сокращают корпоративные затраты на API на 52% благодаря умной маршрутизации на основе анализа сложности запросов
Мы сократили наш ежемесячный счет от OpenAI с $47,000 до $22,440 используя мультиагентную маршрутизацию. Вот точная архитектура, которую мы развернули.
Как платформы оркестрации AI агентов снижают затраты на автоматизацию корпоративных процессов на 73% через динамическое делегирование задач в мульти-LLM системах
Мы только что помогли Fortune 500 компании сэкономить $4.2M в год, заменив их монолитную AI систему на динамическую оркестрацию агентов.

