Mentoring ROI messen: Frameworks, KPIs und der Weg zur datenbasierten Programmsteuerung

Visual zu Mentoring ROI mit Frameworks und KPIs für datenbasierte Programmsteuerung

Stellen Sie sich folgende Situation vor: Die CFO Ihres Unternehmens bittet Sie in einer Budgetbesprechung, den Wert des Mentoring-Programms in drei konkreten Datenpunkten zu belegen. Welche Antwort haben Sie bereit?

Für die meisten HR- und L&D-Teams ist diese Frage unangenehm ehrlich. Mentoring-Programme gelten intuitiv als wertvoll – doch die methodisch saubere Antwort auf die Frage, was sie dem Unternehmen tatsächlich bringen, bleibt häufig offen. Nicht weil die Programme nichts leisten. Sondern weil die Messung des Mentoring ROI selten systematisch geplant und noch seltener konsequent umgesetzt wird.

Dieser Artikel zeigt, warum das ein strukturelles Problem ist – und wie HR-Verantwortliche, L&D-Professionals und People-Analytics-Teams es mit einer robusten Methodik dauerhaft lösen können. Von den richtigen Evaluationsrahmen über die drei KPI-Ebenen bis zur ROI-Berechnung und zur executive-tauglichen Darstellung.


Das Messproblem: Warum Zufriedenheitsumfragen nicht ausreichen

Die überwiegende Mehrheit der Unternehmen evaluiert ihre Mentoring-Programme ausschließlich auf der ersten Ebene: Reaktionsmessung. Was das bedeutet? Teilnehmende füllen nach dem Programm einen Feedbackbogen aus, der bewertet, ob sie die Erfahrung als wertvoll erlebt haben. Das Ergebnis: eine durchschnittliche Bewertung, gelegentlich ein NPS-Score.

Diese Daten haben ihren Platz – aber sie beantworten nur eine einzige Frage: Hat es den Teilnehmenden gefallen? Die drei Fragen, die Führungsgremien tatsächlich interessieren, bleiben unbeantwortet:

  • Wirkt das Programm auf Performance? Entwickeln sich Mentees messbar schneller als vergleichbare Kolleginnen und Kollegen ohne Mentoring?
  • Beeinflusst es die Retention? Bleiben Mitarbeitende, die an einem Mentoring-Programm teilgenommen haben, länger im Unternehmen?
  • Ist die Investition gerechtfertigt? Was kostet das Programm – und was gibt es zurück?

Das entscheidende Missverständnis dabei: Die Messlücke ist kein Datenproblem. Es ist ein Designproblem. Organisationen, die ihren Mentoring ROI wirklich messen können, haben ihre Evaluationslogik vor dem Programmstart festgelegt – nicht dann, wenn der Rechtfertigungsdruck entsteht.


ROI in der Talententwicklung: Mehr als eine Zahl

ROI ist keine Kennzahl. ROI ist eine Denkhaltung: Was bedeutet Erfolg – bevor das Programm beginnt? Was verändert sich durch das Programm? Und wie verbindet sich diese Veränderung mit Kosten und Nutzen?

In der Talententwicklung ist diese Frage komplexer als in anderen Unternehmensbereichen. Outcomes entstehen mit Zeitverzögerung, sie sind durch viele Faktoren beeinflusst, und ein Teil der Wirkung ist naturgemäß schwer zu monetarisieren. Dennoch lassen sich drei Wertdimensionen klar unterscheiden:

Wertdimension Beispiele
Harte Werte Reduzierte Fluktuation, kürzere Time-to-Productivity, messbare Kompetenzentwicklung, Beförderungsraten
Weiche Werte Stärkeres Engagement, bessere Führungsbeziehungen, Wissenstransfer, Zugehörigkeitsgefühl
Strategische Werte Leadership-Pipeline, DEI-Fortschritt, Employer Brand, Nachfolgeplanung

Programme, die ausschließlich weiche Werte erfassen, führen ein unsicheres Dasein im Budgetprozess. Programme, die harte und strategische Werte mit glaubwürdigen Daten belegen, werden zu geschützten strategischen Assets.


Das Kirkpatrick-Phillips-Modell: Fünf Ebenen für eine vollständige Evaluation

Das weltweit am häufigsten eingesetzte Evaluationsframework für Lern- und Entwicklungsmaßnahmen ist das Kirkpatrick-Modell – entwickelt von Donald Kirkpatrick in den 1950er Jahren und bis heute der Goldstandard in der L&D-Praxis.

Die vier Kirkpatrick-Ebenen

Das Modell strukturiert die Programmwirkung in vier aufeinander aufbauenden Ebenen:

Ebene Bezeichnung Leitfrage Beispiel im Mentoring-Kontext
Level 1 Reaktion Hat das Programm den Teilnehmenden gefallen? Post-Programm-Umfrage, NPS-Score
Level 2 Lernen Haben Teilnehmende Wissen oder Kompetenzen erworben? Prä/Post-Kompetenzerhebung, Zielerreichungsmessung
Level 3 Verhalten Wenden sie Erlerntes im Berufsalltag an? 360-Grad-Feedback, Beobachtung durch Führungskräfte
Level 4 Ergebnisse Entstehen messbare Organisationsergebnisse? Retentionsrate, Beförderungsrate, Engagement-Score

Die kritische Erkenntnis: Die meisten Organisationen enden auf Level 1. Strategische Wirkung wird erst ab Level 3 sichtbar – und der Businesscase erst auf Level 4.

Die Phillips-Erweiterung: Level 5 – der ROI

Jack Phillips ergänzte das Kirkpatrick-Modell um eine fünfte Ebene: die explizite Berechnung des finanziellen Return on Investment. Phillips entwickelte die Methodik ab 1973 und veröffentlichte sie 1983 in seinem Werk Handbook of Training Evaluation and Measurement Methods – dem ersten amerikanischen Buch zur Trainingsevaluation.

Die Phillips-Erweiterung fügt zwei wesentliche Komponenten hinzu:

  • Datenisolierung: Der Versuch, den spezifischen Beitrag des Mentoring-Programms von anderen Einflussgrößen zu trennen – etwa durch Vergleichsgruppen, Trendanalysen oder Experteneinschätzungen.
  • Monetarisierung: Die Übertragung von Level-4-Ergebnissen (Retention, Produktivität, Beförderungen) in finanzielle Werte zur Berechnung eines Netto-ROI.

Die ROI-Formel nach Phillips:

ROI (%) = [(Gesamtnutzen des Programms − Gesamtkosten) ÷ Gesamtkosten] × 100

Ein ROI von 100 % bedeutet: Das Programm hat das Doppelte seiner Kosten zurückgebracht (Kosten-Nutzen-Verhältnis 1:2). Ein ROI von 0 % entspricht einer Kostendeckung. Negative ROI-Werte zeigen an, dass Kosten den Nutzen übersteigen – und sollten eine Programmrestrukturierung auslösen, keine Programmstreichung.

New World Kirkpatrick: Contributive ROI (cROI)

Kirkpatrick Partners hat das ursprüngliche Modell in den vergangenen Jahren substantiell weiterentwickelt – als Antwort auf eine berechtigte Kritik: In komplexen Organisationssystemen wird ein Ergebnis selten durch ein einzelnes Programm verursacht. Die Aktualisierungen führen drei neue Konzepte ein:

  • Return on Expectations (ROE): Erfolgsdefinition durch Stakeholder im Voraus – was gilt für CHRO, CFO und Geschäftsbereiche als Erfolg?
  • Return on Performance (ROP): Nachweis, dass kritische Verhaltensänderungen (Level 3) zur Zielerreichung (Level 4) beigetragen haben.
  • Contributive ROI (cROI): Eine belastbare finanzielle Schätzung des Anteils der Verbesserungen, die dem Mentoring-Programm zugerechnet werden können – ohne Alleinverursachung zu beanspruchen.

Für Mentoring-Programme ist cROI der intellektuell ehrlichste Ansatz. Er erkennt an, dass Retention und Performance durch viele Faktoren beeinflusst werden – und gewinnt dadurch bei kritischen Führungsgremien an Glaubwürdigkeit.


Das Logic Model: ROI-Messung beginnt vor dem Programmstart

Das Logic Model ist das wirksamste Einzelinstrument für ROI-fähige Mentoring-Programme – und es muss vor dem Programmstart eingesetzt werden. Es wurde durch das W.K. Kellogg Foundation Logic Model Development Guide (2004) breit etabliert und kartiert die Kausallogik vom Ressourceneinsatz bis zur Wirkung:

INPUTS ACTIVITIES OUTPUTS OUTCOMES IMPACT
Budget, Personalaufwand, technische Plattform, Mentorenzeit Matching, Sessions, Zielvereinbarungen, Check-ins, Trainings Aktive Paare, gehaltene Sessions, gesetzte Ziele, abgeschlossene Umfragen Kompetenzgewinne, Zielerreichung, Verhaltensveränderung, Engagement Retention, Leadership-Pipeline, ROI

Das Kernprinzip ist einfach, aber konsequent: Wer vor Programmstart keinen plausiblen Kausalweg von den Inputs zur beabsichtigten Wirkung skizzieren kann, wird den ROI nachträglich nicht glaubwürdig messen können. Die Evaluation ist kein Add-on. Sie ist Teil des Programmdesigns.


Attribution vs. Contribution – der entscheidende methodische Unterschied

Dies ist die wichtigste methodische Unterscheidung in der Mentoring-Evaluation – und zugleich die, die am häufigsten übergangen wird.

Attribution fragt: War dieses Ergebnis durch das Mentoring-Programm verursacht?
Contribution fragt: Hat das Mentoring-Programm einen wesentlichen Beitrag zu diesem Ergebnis geleistet?

In komplexen Organisationsumfeldern ist Attribution ohne randomisierte kontrollierte Studien kaum erreichbar – und solche Designs sind in Unternehmen praktisch nicht umsetzbar. Contribution Framing ist ehrlicher, methodisch robuster und überzeugender bei anspruchsvollen Führungsgremien.

Praktische Methoden zur Feststellung von Contribution:

  • Matched Comparison Groups: Ergebnisvergleich zwischen Programmteilnehmenden und demografisch vergleichbaren Nicht-Teilnehmenden aus dem HRIS
  • Selbsteinschätzung der Teilnehmenden: Standardtechnik nach Phillips – „Welchen Anteil Ihrer Leistungsverbesserung führen Sie auf das Mentoring zurück?”
  • Beurteilung durch Führungskräfte: Strukturierte Ratings zu Verhaltensveränderungen, die Vorgesetzte kausal mit der Programmteilnahme verknüpfen
  • Prä/Post-Design: Basiswerte vor dem Programm erheben, Veränderung nach Abschluss messen

Wer Attribution beansprucht, wo nur Contribution belegt werden kann, verliert Glaubwürdigkeit. Wer Contribution präzise und mit transparenten Annahmen darstellt, gewinnt sie.


Die drei KPI-Ebenen: Programmgesundheit, People Impact, Business Outcomes

Eine wirksame Mentoring-Evaluation erfordert KPIs auf drei distinkt verschiedenen Ebenen. Die meisten Programme messen nur die erste Ebene. Glaubwürdiger ROI setzt alle drei voraus.

Ebene 1: Programm-Health-KPIs – Läuft das Programm wie geplant?

Diese KPIs messen, ob das Programm wie vorgesehen durchgeführt wird. Sie sind notwendig, aber nicht hinreichend für ROI-Aussagen.

KPI Datenquelle Relevanz
Einschreibungs- und Abschlussquote Plattform / HRIS Abschluss ist Voraussetzung für Wirkungsmessung
Aktive Matching-Quote Plattform / Admin-Tracking Inaktive Matches verschwenden Investition und verzerren Ergebnisse
Session-Frequenz Plattform / Check-in-Logs Dosis wirkt – niedrigfrequente Beziehungen zeigen geringere Wirkung
Teilnehmerzufriedenheit (NPS/Rating) Post-Session-Umfragen Kirkpatrick Level 1 – notwendige Basisinformation
Match-Qualitätsscore Midpoint-Survey Schlechte Matches müssen früh erkannt werden, um Abbrüche zu verhindern

Ebene 2: People-Impact-KPIs – Wachsen die Teilnehmenden?

Diese KPIs messen, ob Mentoring individuelle Kompetenzen, Verhaltensweisen und Karriereverläufe verändert. Sie erfordern Basiswerte vor dem Programm, um aussagekräftig zu sein.

KPI Datenquelle Relevanz
SMART-Zielerreichungsquote Zielverfolgungstool / Selbstauskunft Direkteste Messung programmspezifischen Werts – Kirkpatrick L2/L3
Kompetenzdelta (Prä/Post) Kompetenzerhebungen, 360-Grad-Feedback Quantifiziert den Lerneffekt – erfordert Basiswert
Beförderungsrate Teilnehmende vs. Kontrollgruppe HRIS-Vergleich Mittelfristiger Karriereeffekt – 6–18-Monats-Fenster
Gehaltsgraden-Veränderungen HRIS-Vergleich Proxy für formale Anerkennung von Entwicklung
Führungskraft-bewertete Leistungsveränderung Performance-Review-System Externe Validierung des Entwicklungsfortschritts
Selbst eingeschätzte Kompetenz und Selbstwirksamkeit Periodische Pulse-Umfragen Frühindikator für Verhaltensveränderung

Ebene 3: Business-Outcome-KPIs – Profitiert die Organisation?

Das sind die KPIs, die Budgetentscheidungen beeinflussen. Sie verbinden Mentoring direkt mit den Metriken, die CFOs und CHROs ohnehin verfolgen. Ihre Messung erfordert HRIS-Daten und eine Vergleichsgruppe oder ein Prä/Post-Design.

KPI Datenquelle Relevanz
Retentionsrate Teilnehmende vs. Nicht-Teilnehmende HRIS Kohortenanalyse Finanziell bedeutsamster Indikator – speist direkt in die ROI-Formel
Time-to-Productivity (Onboarding-Mentoring) Manager-Ratings / HR-Unterlagen Kritisch für Programme mit hohem Einstellungsvolumen
Interne Mobilitätsrate HRIS – Job-Change-Tracking Signal für Pipeline-Entwicklung und Talentverteilung
Employee Net Promoter Score (eNPS) Engagement-Survey Engagement korreliert mit Produktivität
Nachfolgeplanung: Readiness-Bewertungen Talent-Review-Prozess Strategisches Ergebnis mit 12–24-Monats-Horizont
DEI-Advancement-Metriken HRIS Demografieanalyse Relevant, wo Mentoring zur Equity-Beschleunigung eingesetzt wird

ROI konkret berechnen: Ein illustratives Rechenbeispiel

Theorie wird greifbar, wenn sie auf Zahlen trifft. Das folgende Beispiel ist illustrativ und transparent als solches gekennzeichnet – es soll die Methodik verdeutlichen, keine empirischen Daten darstellen.

Programmparameter: 50 Mentor-Mentee-Paare, mittleres Level, Durchschnittsgehalt 80.000 USD

Kosten (Inputs):
– Programmmanagement & Administration: ~20 Std./Monat × Kostensatz
– Technologieplattform-Lizenz (sofern vorhanden)
– Mentorenzeit: ~2 Std./Monat × 50 Paare × belasteter Stundensatz
– Menteezeit: ~2 Std./Monat × 50 Paare × belasteter Stundensatz
– Schulungen für Mentoren und Koordinatorinnen
– Aufwand für Messung und Reporting

Geschätzte Gesamtkosten: ~42.000 USD pro Kohortenzyklus

Nutzen (Outputs):
– Retentionsdifferenzial: Teilnehmende mit 78 % Retention vs. 62 % in der Vergleichsgruppe → 8 zusätzliche Mitarbeitende gehalten
– Ersatzkostenschätzung (auf Basis SHRM/Gallup-Bandbreite): 64.000 USD pro Person (80 % von 80.000 USD)
– Geschätzte Retentionseinsparung: 8 × 64.000 USD = 512.000 USD

ROI-Berechnung:

(512.000 – 42.000) ÷ 42.000 × 100 = 1.119 %

Wichtiger methodischer Hinweis: Das Retentionsdifferenzial muss als Contribution, nicht als Alleinkausalität, dem Mentoring zugerechnet werden. Ein konservativer Attributionsfaktor von 40–60 % ist methodisch angemessen und erhöht die Glaubwürdigkeit beim Führungsgremium. Selbst bei 40 % Attributionsfaktor ergibt sich:

Bereinigter Nutzen: 512.000 × 0,40 = 204.800 USD
Bereinigter ROI: (204.800 – 42.000) ÷ 42.000 × 100 = ca. 388 %

Die Stärke dieser Berechnung liegt nicht in der Höhe der Zahl – sondern in ihrer Transparenz. Annahmen sind offengelegt, der Attributionsfaktor ist begründet, Unsicherheiten sind benannt. Das ist es, was executive credibility aufbaut.


Executive Reporting: Narrative statt Datenberge

Führungsgremien brauchen kein Metriken-Inventar. Sie brauchen eine Erzählung.

Effektives Executive Reporting zu Mentoring ROI folgt einer dreigliedrigen Struktur:

1. Der strategische Anknüpfungspunkt
Verbinden Sie das Programm mit einer strategischen Priorität, die bereits auf der Führungsagenda steht – Retentionskrise, Talent-Pipeline-Lücken, DEI-Commitments oder die Stärke des Führungskräfte-Bench. Kein Programm kommuniziert im Vakuum.

2. Die Evidenzgeschichte
Präsentieren Sie zwei bis drei KPIs, die eine klare Vorher/Nachher-Differenzierung zwischen Teilnehmenden und Nicht-Teilnehmenden zeigen. Visualisieren Sie den Vergleich – nicht absolute Zahlen allein. Ein Retentionsgap von 16 Prozentpunkten ist anschaulicher als eine Retentionsquote von 78 %.

3. Die Contribution-Kalkulation
Präsentieren Sie eine klar gekennzeichnete, annahmentransparente ROI-Schätzung. Zeigen Sie die Inputs, den Attributionsfaktor und das Ergebnis. Benennen Sie, was einbezogen wurde – und was nicht.

Zu vermeiden: Dashboards mit 20 KPIs, Fachjargon aus dem Evaluationsumfeld und überzogene Kausalitätsbehauptungen. Die Glaubwürdigkeit der Darstellung liegt in der intellektuellen Ehrlichkeit – nicht in imposant wirkenden Zahlen.


Sieben Prinzipien für eine robuste Mentoring-Evaluation

Als Orientierungsrahmen für HR- und L&D-Teams, die ihre Mentoring-Evaluation systematisch aufbauen wollen:

  1. Evaluation ist Programmdesign. Bauen Sie Ihr Logic Model vor dem Launch – nicht dann, wenn die Rechtfertigung gefordert wird.

  2. Alle fünf Kirkpatrick-Phillips-Ebenen nutzen. Wer auf Level 1 stoppt, hat den strategischen Case nicht gemacht. Level 3–5 sind entscheidend.

  3. Retention ist der stärkste ROI-Hebel. Selbst konservative Schätzungen der Fluktuationskosten (SHRM: 50–200 % des Jahresgehalts) erzeugen bei geringen Retentionsdifferenzialen überzeugende Returns.

  4. Contribution, nicht Causation. Mentoring ist ein Faktor in einem komplexen System. Alleinkausalität beanspruchen zerstört Glaubwürdigkeit. Meaningful Contribution mit ehrlichen Annahmen aufzuzeigen baut sie auf.

  5. Drei KPI-Ebenen sind nicht verhandelbar. Program-Health-KPIs zeigen, ob das Programm läuft. People-Impact-KPIs zeigen, ob es wirkt. Business-Outcome-KPIs zeigen, ob es sich rentiert.

  6. Executive Reporting ist Narrativdesign. Zwei bis drei KPIs, die direkt mit strategischen Prioritäten verbunden sind. Vorher/Nachher. Eine klar gekennzeichnete ROI-Schätzung mit transparenten Annahmen.

  7. Unvollständige Messung, die konsistent durchgeführt wird, schlägt perfekte Messung, die nie stattfindet. Ein einfaches Prä/Post-Retentionsvergleich mit einer Vergleichsgruppe, jede Kohorte wiederholt, baut eine belastbare Evidenzbasis über die Zeit auf.


Fazit: Messen Sie Mentoring wie eine strategische Investition

Mentoring-Programme, die ausschließlich Reaktionsdaten erfassen, führen ein institutionell gefährdetes Dasein. Nicht weil sie nicht wirken – sondern weil die Wirkung nicht sichtbar gemacht wird. In Budgetprozessen gewinnt nicht das Programm mit dem höchsten tatsächlichen Wert, sondern das Programm mit dem überzeugendsten Nachweis seines Werts.

Die Methodik dafür existiert. Das Kirkpatrick-Phillips-Modell bietet eine erprobte Evaluationsstruktur. Das Logic Model verankert die Messlogik im Programmdesign. Drei KPI-Ebenen decken Programm, Menschen und Business ab. Die Unterscheidung zwischen Attribution und Contribution schützt vor überzogenen Ansprüchen und erhöht damit die Glaubwürdigkeit.

Was fehlt, ist selten das Wissen – es ist die Konsequenz in der Umsetzung. Und die beginnt mit einer einfachen Frage, bevor der nächste Programmzyklus startet: Was müssen wir heute messen, um in zwölf Monaten eine überzeugende Antwort auf die Frage nach dem Mentoring ROI geben zu können?


Drei erste Schritte für Ihr nächstes Programm

  1. Evaluationsebene ermitteln: Auf welchem Kirkpatrick-Level messen Sie heute? Was fehlt bis zu Level 3 und 4?
  2. Logic Model vor dem Launch entwickeln: Skizzieren Sie den Kausalweg von Inputs bis Impact – bevor die nächste Kohorte beginnt.
  3. Zwei Business-Outcome-KPIs festlegen: Bestimmen Sie jetzt, welche zwei primären Geschäftskennzahlen Sie messen werden – und stellen Sie sicher, dass die HRIS-Daten dafür verfügbar sind.

Mentoring ist eine strategische Investition. Messen Sie es als eine.


Bereit, den ROI Ihres Mentoring-Programms sichtbar zu machen?

Wir begleiten HR- und L&D-Teams dabei, Mentoring-Programme methodisch sauber aufzubauen, die richtigen KPIs zu definieren und den Businesscase für Ihr Führungsgremium zu entwickeln – von der Evaluation über das Logic Model bis zur executive-tauglichen Darstellung.

Vereinbaren Sie jetzt ein kostenloses Erstgespräch – und erfahren Sie, wie Sie den ROI Ihres Programms bereits mit der nächsten Kohorte belastbar messen können.

👉 Termin vereinbaren →


Quellen

  • Kirkpatrick, D.L.: Evaluating Training Programs – The Four Levels (1950er/1959)
  • Phillips, J.J.: Handbook of Training Evaluation and Measurement Methods. Gulf Publishing, 1983
  • Kirkpatrick Partners: New World Kirkpatrick Model – aktuelle Dokumentation (kirkpatrickpartners.com)
  • W.K. Kellogg Foundation: Logic Model Development Guide, 2004
  • SHRM (Society for Human Resource Management): Fluktuation und Ersatzkosten-Forschung
  • Gallup: Voluntary Turnover and Employee Engagement Research (u.a. 2019 Report)
  • Training Magazine: 2022 Training Industry Report
  • Bersin/Deloitte: Analyst Research on Turnover Cost Components

Learning in the flow of work

Read more

Browse knowledge articles and announcements from our blog “High-tech & high-human”