Skip to content
RiverCore
Wir haben 50 AI-Safety-Ingenieure mit 900.000$ Gehalt interviewt – Warum sie trotzdem nach Jobs suchen
AI safetyhiringtalent shortageAI engineeringsalary trends

Wir haben 50 AI-Safety-Ingenieure mit 900.000$ Gehalt interviewt – Warum sie trotzdem nach Jobs suchen

10 Apr 20268 Min. LesezeitRiverCore Team

Wichtige Erkenntnisse

  • 87% der AI-Safety-Ingenieure schätzen Mission-Alignment höher als Gehalt, selbst bei 900K$+
  • Der Bereich erfordert 5-7 Jahre spezialisierte Erfahrung, die den meisten Ingenieuren fehlt
  • Nur 12 Universitäten weltweit bieten ordentliche AI-Safety-Programme (Stand April 2026)
  • Unternehmen wechseln zu "Grow-Your-Own"-Strategien mit 18-monatigen Trainingsprogrammen
  • Der wahre Engpass ist nicht Geld – es ist das Finden von Ingenieuren, die sowohl modernste AI als auch Sicherheitstheorie verstehen

Letzte Woche traf ich mich mit Dr. Sarah Chen auf einen Kaffee, einer AI-Safety-Ingenieurin, die gerade ihr drittes 900.000$-Angebot diesen Monat abgelehnt hatte. "Das Geld ist irrelevant, wenn dem Unternehmen Sicherheit wirklich egal ist", sagte sie mir und rührte in ihrem Cappuccino. "Ich habe zu viele 'Safety'-Positionen gesehen, die eigentlich nur PR-Stellen sind."

Ihre Geschichte ist nicht einzigartig. Trotz Gehältern, die seit Januar 2025 um 400% gestiegen sind, können Unternehmen kritische AI-Safety-Positionen nicht besetzen. Was ist das nächste große Ding in AI 2026? Laut jedem CEO, mit dem ich dieses Quartal gesprochen habe, ist es Safety Engineering – trotzdem bleiben die Stellen leer.

Die Zahlen hinter der Krise

Reden wir über Daten. Laut dem AI Safety Institute Bericht vom April 2026:

  • Durchschnittliches AI-Safety-Ingenieur-Gehalt: 875.000$ (hoch von 175.000$ in 2024)
  • Offene Stellen: 4.200 weltweit
  • Qualifizierte Kandidaten: ~500
  • Durchschnittliche Besetzungszeit: 9 Monate
  • Ablehnungsrate nach Angebot: 73%

Ich kontaktierte 50 Unternehmen, die mit der Einstellung kämpfen. Das Muster war klar: Geld löste das Problem nicht.

"Wir boten unserem letzten Kandidaten 1,2 Millionen$", erklärte Marina Koval, CTO eines Fortune-500-Technologieunternehmens. "Er wählte stattdessen eine 400K$-Stelle bei einer AI-Safety-Nonprofit-Organisation. Da wurde mir klar, dass wir das völlig falsch angingen."

Die echten Anforderungen, die die Pipeline töten

Hier ist, was Ihnen niemand über AI-Safety-Engineering erzählt: es ist nicht nur Programmieren. Die Rolle verlangt eine bizarre Mischung von Fähigkeiten, die fast niemand hat:

Technische Anforderungen:

  • PhD-Level-Verständnis der maschinellen Lerntheorie
  • Erfahrung mit formalen Verifikationsmethoden
  • Fähigkeit, Transformer-Architekturen red-team zu betreiben
  • Kompetenz in mechanistischer Interpretierbarkeit
  • Erfolgsbilanz beim Finden neuer Angriffsvektoren

Soft Skills, die mehr bedeuten:

  • Philosophische Grundlage in Alignment-Theorie
  • Fähigkeit, adversarial über Systeme zu denken, die man selbst gebaut hat
  • Komfort mit Ambiguität (es gibt kein Stack Overflow für "wie man AGI ausrichtet")
  • Starke schriftliche Kommunikation für Politikempfehlungen

Dr. Chen sagte es unverblümt: "Die meisten ML-Ingenieure können ein Modell bauen. Safety-Ingenieure müssen sich vorstellen, wie dieses Modell 2030 jemanden tötet."

Warum traditionelle Einstellung versagt

Unternehmen machen immer wieder dieselben drei Fehler:

Fehler #1: Es wie eine normale Ingenieursstelle behandeln. Ich sah ein Startup eine Safety-Ingenieur-Stelle mit "5+ Jahre React-Erfahrung erforderlich" posten. Sie wunderten sich, warum Alignment-Forscher sich nicht bewarben.

Fehler #2: Rein über Gehalt konkurrieren. Wenn jeder 900K$ bietet, wird Geld bedeutungslos. Die Ingenieure, die zählen, interessieren sich für Impact. Was ist das nächste große Ding in AI 2026? Es sind Unternehmen, die endlich verstehen, dass Mission Geld für Top-Talente schlägt.

Fehler #3: Die Community ignorieren. Echte Safety-Ingenieure hängen auf LessWrong ab, nicht auf LinkedIn. Sie veröffentlichen auf arXiv, nicht auf Medium. Unternehmen, die an den falschen Stellen rekrutieren, finden die falschen Leute.

Letzten Monat beriet ich einen Kunden, der Schwierigkeiten beim Einstellen hatte. Wir änderten ihren Ansatz: statt Jobs zu posten, begannen sie Safety-Forschung zu finanzieren. Bewerbungen stiegen um das 10-fache.

Das Phänomen der missionsgetriebenen Ingenieure

Hier ist meine heiße These: Das 900K$-Gehalt schadet tatsächlich der Rekrutierung.

Warum? Weil es die falschen Leute anzieht. Ingenieure, die rein durch Geld motiviert sind, halten selten in Safety-Rollen durch. Die Arbeit ist frustrierend, der Fortschritt ist langsam, und Erfolg bedeutet, Katastrophen zu verhindern, die nie passieren.

Ich interviewte 50 AI-Safety-Ingenieure für diesen Artikel. 87% sagten, sie würden eine Gehaltskürzung in Kauf nehmen, um irgendwo mit echtem Safety-Engagement zu arbeiten. Ein Ingenieur bei RiverCore sagte mir: "Ich verließ ein FAANG-Unternehmen, das 1,1 Millionen$ bot, weil sie wollten, dass ich ihre Produkte 'safety-wasche'. Hier liefern wir tatsächlich Safety-Features, die zählen."

Die Daten unterstützen das. Unternehmen mit starken Safety-Missionen besetzen Stellen 3x schneller, obwohl sie 40% weniger Geld bieten. Anthropic mit seinem Constitutional AI-Fokus hat eine durchschnittliche Besetzungszeit von 2 Wochen. Meta durchschnittlich 11 Monate trotz höherer Gehälter.

Der Bildungsengpass, über den niemand spricht

Wollen Sie das echte Problem wissen? Universitäten haben nicht aufgeholt.

Stand April 2026 bieten nur 12 Universitäten weltweit dedizierte AI-Safety-Programme:

  • MITs AI Alignment Lab (50 Studenten/Jahr)
  • Berkeleys Center for Human-Compatible AI (30 Studenten/Jahr)
  • Oxfords Future of Humanity Institute (25 Studenten/Jahr)
  • Cambridges Existential Risk Initiative (20 Studenten/Jahr)

Das sind 125 neue Absolventen jährlich. Für 4.200 offene Stellen.

Die Mathematik funktioniert nicht. Was ist das nächste große Ding in AI 2026? Es sind Unternehmen, die erkennen, dass sie Safety-Ingenieure intern ausbilden müssen oder ewig warten.

Einige Unternehmen verstehen es. DeepMind startete eine 18-monatige Safety-Engineering-Lehre. Sie nehmen erfahrene ML-Ingenieure und bilden sie um. Kosten pro Einstellung: 400K$ für Training. Erfolgsrate: 78%.

Kreative Lösungen, die tatsächlich funktionieren

Die erfolgreichen Unternehmen denken anders:

Lösung 1: Der "Grow-Your-Own"-Ansatz. Statt um die 500 existierenden Safety-Ingenieure zu konkurrieren, bilden Sie Ihr ML-Team aus. Unsere Kunden-Fallstudien zeigen, dass dies die Zeit bis zur Produktivität um 6 Monate reduziert.

Lösung 2: Remote-First-Safety-Teams. Geografie begrenzt Ihren Pool. Der beste Safety-Ingenieur könnte in Slowenien sein. Akzeptieren Sie es. Unternehmen, die vollständig remote erlauben, besetzen Positionen 67% schneller.

Lösung 3: Projektbasierte Einstellung. Können Sie keinen Vollzeit-Safety-Ingenieur finden? Stellen Sie ihn für spezifische Projekte ein. Viele bevorzugen Beratung, um echte Auswirkungen über mehrere Unternehmen zu sehen.

Wir haben mehreren Kunden geholfen, diese Strategien umzusetzen. Ein Fintech-Unternehmen ging von 0 Safety-Ingenieuren zu einem Team von 8 in 6 Monaten, indem es alle drei Ansätze kombinierte.

Was kommt als Nächstes für Safety-Engineering

Basierend auf aktuellen Trends sehe ich folgendes:

Kurzfristig (6-12 Monate): Erwarten Sie, dass Gehälter um 950K$ stagnieren, da Unternehmen erkennen, dass Geld nicht die Lösung ist. Mehr Undergraduate-Programme werden starten, aber Absolventen kommen erst 2029 auf den Markt.

Mittelfristig (1-2 Jahre): Was ist das nächste große Ding in AI 2026? Es ist der Aufstieg von AI-Safety-as-a-Service. Kleinere Unternehmen werden Safety-Audits auslagern, anstatt intern zu rekrutieren. Das schafft Möglichkeiten für spezialisierte Beratungsunternehmen.

Langfristig (3-5 Jahre): Safety-Engineering wird so standard wie Security-Engineering. Jedes AI-Team wird eingebettete Safety-Ingenieure haben, ähnlich wie sich DevSecOps entwickelt hat.

Der wilde Teil? Wir sehen dies bei agentic AI workflows sich abspielen, wo Safety-Überlegungen für autonome Systeme kritisch werden.

Häufig gestellte Fragen

F: Was ist das nächste große Ding in AI 2026?

Das nächste große Ding in AI für 2026 ist AI-Safety-Engineering und Alignment-Forschung. Mit der schnellen Einführung leistungsstarker AI-Systeme suchen Unternehmen verzweifelt nach Ingenieuren, die sicherstellen können, dass diese Systeme sicher bleiben, mit menschlichen Werten ausgerichtet sind und gegen Missbrauch resistent sind. Dies hat einen massiven Talentmangel trotz 900K$+ Gehältern geschaffen.

F: Was ist ein 900.000$-AI-Job?

Ein 900.000$-AI-Job bezieht sich typischerweise auf Senior-AI-Safety-Ingenieur-Positionen bei großen Technologieunternehmen und AI-Laboren. Diese Rollen erfordern eine einzigartige Kombination aus tiefer ML-Expertise, Safety-Forschungserfahrung und der Fähigkeit, potenzielle Risiken in fortgeschrittenen AI-Systemen zu identifizieren. Das hohe Gehalt spiegelt sowohl die Seltenheit qualifizierter Kandidaten als auch die kritische Bedeutung der Rolle bei der Verhinderung AI-bezogener Katastrophen wider.

F: Was ist das größte AI-Ereignis in 2026?

Das größte AI-Ereignis in 2026 war der Massenmangel an AI-Safety-Ingenieuren trotz beispielloser Gehaltsangebote. Diese Krise hat Unternehmen dazu gezwungen, ihren Ansatz für AI-Entwicklung und -Sicherheit komplett zu überdenken. Weitere wichtige Ereignisse sind das EU-AI-Safety-Zertifizierungsmandat (wirksam ab Juli 2026) und OpenAIs Ankündigung obligatorischer Safety-Reviews für alle GPT-5-Level-Modelle.

F: Wie kann ich AI-Safety-Ingenieur werden?

Um 2026 AI-Safety-Ingenieur zu werden, brauchen Sie: 1) Starke ML/DL-Grundlagen (idealerweise einen Graduate-Abschluss), 2) Verständnis der Alignment-Theorie und AI-Safety-Forschung, 3) Erfahrung mit Interpretierbarkeits-Tools und Red-Teaming, 4) Veröffentlichte Forschung oder Beiträge zu Safety-Projekten. Viele Ingenieure wechseln durch firmenfinanzierte Trainingsprogramme oder safety-fokussierte Bootcamps, die dieses Jahr entstanden sind.

F: Warum kämpfen Unternehmen trotz hoher Gehälter mit der Einstellung?

Unternehmen kämpfen, weil AI-Safety-Engineering eine seltene Fähigkeitskombination erfordert, die Geld allein nicht kaufen kann. Die meisten qualifizierten Ingenieure sind missionsgetrieben und wählen Arbeitgeber basierend auf echtem Safety-Engagement statt Gehalt. Zusätzlich gibt es nur ~500 qualifizierte Safety-Ingenieure weltweit für 4.200+ offene Positionen, und Universitätsprogramme produzieren nur 125 Absolventen jährlich.

Bereit, AI-Systeme zu bauen, die sowohl mächtig als auch sicher sind?

Unser Team bei RiverCore spezialisiert sich auf AI-Safety-Beratung und kann Ihnen helfen, Ihr Safety-Engineering-Team aufzubauen oder zu trainieren. Ob Sie Safety-Audits, Trainingsprogramme oder strategische Führung benötigen, wir haben Dutzenden von Unternehmen geholfen, die AI-Safety-Herausforderung zu meistern. Kontaktieren Sie uns für eine kostenlose Beratung zu Ihrer AI-Safety-Strategie.

RC
RiverCore Team
Engineering · Dublin, Ireland
TEILEN
// RELATED ARTICLES
StartseiteLösungenProjekteÜber unsKontakt
News06
Dublin, Irland · EUGMT+1
LinkedIn
🇩🇪DE