Risiko & Compliance Projektmanagement Daten & Analytics
Beratung Pharma & Life Sciences Energie & Rohstoffe Fertigung & Automotive Finanzdienstleistungen Konsumgüter & Handel Technologie & IT
Nach Outcome
Frühwarnung Risiko-Transparenz Vorausschauende Intelligenz Zeitersparnis Finanzielle Absicherung Organisationswissen
Nach Anwendungsfall
Budgetüberschreitung PMO-Reporting Portfolio Risiko-Transparenz Alle 10 Anwendungsfälle →
Wie wir arbeiten Technologie Preise Kostenlosen Maturity Check starten →
Forschung

Agile oder Traditional? Wie Machine Learning die richtige Projektmanagement-Methode vorhersagt

Ben Kraiem et al. (2023) analysieren 99 reale IT-Projekte mit 7 Machine-Learning-Modellen. Gradient Boosting erreicht 94% Accuracy. Die wichtigsten Erkenntnisse für Ihr Portfolio.

Ben Kraiem et al. (2023)Procedia Computer ScienceLesezeit: 6 Min.

Kontext: Warum die Methodenauswahl das Projekt macht

Die Standish Group hat es seit Jahrzehnten dokumentiert: Nur 31% aller Projekte gelten als erfolgreich. 50% sind “gehindert” (Budget-, Zeit- oder Qualitätsprobleme) und 19% scheitern komplett. Einer der Hauptgründe: Die falsche Wahl der Projektmanagement-Methodologie.

Ines Ben Kraiem, Mouna Ben Mabrouk und Lucas De Jode von Sogeti (Capgemini) haben in ihrer 2023 auf der KES International Conference vorgestellten Studie untersucht, ob Machine Learning diese Wahl objektiv vorhersagen kann. Ihr Datensatz: 140 abgeschlossene IT-Projekte aus Frankreich, davon 99 nach Bereinigung valide. Ihre Frage: Welche Faktoren bestimmen, ob Agile oder Traditional die bessere Methode ist — und kann ein Algorithmus das zuverlässig vorhersagen?

Kernergebnisse: Was die Daten sagen

Die Autoren identifizierten 33 Variablen in sechs Kategorien: Projektfaktoren, Organisationsfaktoren, Kundenfaktoren, Teamfaktoren, Projekterfolg und Methodenauswahl. Nach statistischer Bereinigung (Chi-Quadrat-Test, Cramér's V) blieben 18 relevante Variablen übrig.

Die stärksten Prädiktoren

Team-Expertise in AgileHoch korreliert
Team-Expertise in TraditionalHoch korreliert
Organisationskultur (Agile akzeptiert?)Hoch korreliert
Kundenrolle (Beteiligungsgrad)Hoch korreliert
Stakeholder-EngagementModerat korreliert
AnforderungsklarheitModerat korreliert
ProjektkomplexitätNicht korreliert*
KommunikationsfrequenzNicht korreliert*

* Laut Statistik nicht signifikant, obwohl Geschäftserfahrung das Gegenteil suggeriert. Wahrscheinlich aufgrund der kleinen Stichprobengröße.

Das überraschendste Ergebnis: Budget, Projektdauer und technologische Unsicherheit sind keine signifikanten Prädiktoren. Was zählt, ist das menschliche Kapital — die Expertise des Teams und die Kultur der Organisation. Ein Projekt mit klaren Anforderungen und engagierten Stakeholdern neigt eher zu Traditional. Ein Projekt mit iterativer Kundenbeteiligung und agiler Kultur neigt eher zu Agile.

Die Modelle im Vergleich

Sieben Machine-Learning-Algorithmen wurden trainiert und mit Accuracy, Precision, Recall und F1-Score bewertet. Das Dataset war imbalance (61 Traditional, 38 Agile), daher wurde SMOTEN-Resampling eingesetzt.

Modelle und Accuracy

Gradient Boosting (ohne Resampling)94%
K-Nearest Neighbors (mit SMOTEN)94%
SVM (mit SMOTEN)91%
Naïve Bayes (mit SMOTEN)88%
Neural Network88–90%
Decision TreeDurchschnitt
Bayesian NetworkDurchschnitt

Gradient Boosting zeigte die beste Performance und Stabilität — mit und ohne Resampling. Die Learning Curves zeigten kein Overfitting, was bei einem so kleinen Dataset bemerkenswert ist. KNN profitierte stark vom SMOTEN-Resampling und sprang von durchschnittlich auf 94% Accuracy. Neural Networks zeigten dagegen Schwankungen (95% Confidence Intervals) und schwächere Performance bei der Agile-Klasse.

Kritik: Die blinden Flecken der Studie

Die Studie ist methodisch sauber, aber nicht ohne Schwächen:

Die vermisste Variable: Kontinuierliches Monitoring

Die Studie trifft eine Vorhersage zum Projektstart und betrachtet sie als final. Aber Projekte entwickeln sich. Ein Team, das zu Beginn wenig Agile-Erfahrung hat, kann sich innerhalb von drei Monaten signifikant verbessern. Ein Kunde, der anfangs hoch engagiert war, kann durch interne Umstrukturierung abnehmen. Die Methodenauswahl sollte ein dynamischer, kontinuierlich aktualisierter Prozess sein — nicht eine einmalige Entscheidung zu Projektbeginn.

Handlungsempfehlung: Was das für Ihr Portfolio bedeutet

Die Ergebnisse lassen sich auf drei Prinzipien herunterbrechen, die jedes Portfolio-Team anwenden kann:

1. Die richtige Methode ist keine Glaubensfrage

Oft wird die Methodenauswahl vom Projektleiter nach Bauchgefühl getroffen — oder vom Kunden vorgegeben. Die Studie zeigt, dass objektive Faktoren (Team-Expertise, Kultur, Kundenbeteiligung) die Trefferquote auf 94% heben können. Systematisieren Sie die Methodenauswahl mit einem standardisierten Fragebogen oder — noch besser — einem Algorithmus, der Ihre historischen Projektdaten nutzt.

2. Menschliche Faktoren wiegen schwerer als technische Parameter

Budget, Dauer und technologische Unsicherheit waren in der Studie nicht signifikant. Was zählte, waren Team-Expertise, Kultur und Stakeholder-Engagement. Investieren Sie in die Weiterbildung Ihrer Teams — nicht nur in Tools und Prozesse. Ein Team mit hoher Agile-Erfahrung wird ein agiles Projekt erfolgreicher umsetzen als ein Team mit hervorragenden Tools aber falscher Kultur.

3. Methodenauswahl ist kein Einmal-Event

Die Studie trifft eine Vorhersage zu Projektbeginn. In der Realität verändern sich Teams, Kunden und Anforderungen. Eine Methode, die in Monat 1 optimal war, kann in Monat 6 suboptimal sein. Implementieren Sie ein kontinuierliches Monitoring der Methodenfitness — basierend auf Echtzeitdaten aus Ihren Projektmanagement-Tools.

Aversight im Kontext der Studie

Aversight integriert die Prinzipien der Studie in den täglichen Workflow: Statt einer einmaligen Methodenauswahl-Entscheidung analysiert das System kontinuierlich 15 Signale aus SAP, Jira, SharePoint und weiteren Quellen. Budget-Verbrauch, Meilenstein-Fortschritt, Ressourcenbelegung und Risiko-Scores werden stündlich aktualisiert. Wenn ein Projekt von einer stabilen in eine volatile Phase übergeht, erkennt Aversight das Muster — und empfiehlt eine Methodenanpassung, bevor der Schaden entsteht. Das ist der Unterschied zwischen statischer Vorhersage und dynamischer Intelligenz.

Fazit

Ben Kraiem et al. liefern einen überzeugenden Nachweis, dass Machine Learning die Projektmanagement-Methodenauswahl objektiv unterstützen kann. Die 94% Accuracy von Gradient Boosting zeigen, dass die Entscheidung nicht dem Bauchgefühl überlassen werden muss.

Die Einschränkungen der Studie (kleine Stichprobe, subjektive Variablen, statische Analyse, binäre Klassifikation) zeigen aber auch, wo der nächste Schritt liegt: von der einmaligen Methodenvorhersage zur kontinuierlichen, datengetriebenen Methodenoptimierung. Wer diesen Schritt geht, transformiert die Methodenauswahl von einer Glückssache zu einer Wissenschaft.

Risk Intelligence ist kein Black Box. Lassen Sie uns zeigen, wie sie funktioniert.

30 Sekunden — und wir melden uns innerhalb von 24 Stunden.

Kostenlosen Maturity Check starten →