ICE Scoring
ICE Scoring ist ein leichtgewichtiges Priorisierungsframework, das vom Growth-Experten Sean Ellis — Erfinder des Begriffs 'Growth Hacking' — als schnelles Werkzeug zur Bewertung und Sortierung von Experimenten und Initiativen populär gemacht wurde. ICE steht für Impact (wie stark bewegt dies die Zielmetrik, wenn es funktioniert?), Confidence (wie sicher ist man, dass es tatsächlich funktioniert?) und Ease (wie einfach ist die Umsetzung — das Inverse des Aufwands?). Jeder Faktor wird auf einer Skala von 1–10 bewertet, und der ICE-Score ist der einfache Durchschnitt: (Impact + Confidence + Ease) ÷ 3. Die Formel gewichtet bewusst alle drei Faktoren gleich und verwendet einen arithmetischen Durchschnitt statt einer Multiplikation, was sie resistenter gegen extreme Ausreißer macht als RICE. ICE wurde speziell für Hochgeschwindigkeits-Wachstumsteams entwickelt, die viele Experimente parallel durchführen — Kontexte, in denen die Kosten der Überanalyse einer Entscheidung die Kosten einer gelegentlich falschen Wette übersteigen. Seine primäre Stärke ist die Geschwindigkeit: ein erfahrenes Team kann 20–30 Items in 30 Minuten bewerten, dramatisch schneller als RICE oder gewichtete Scoring-Modelle. Im Workshop-Kontext wird ICE für die schnelle Sichtung von Experiment-Backlogs, Sprint-Planung und das Filtern einer großen Optionsliste auf eine handhabbare Shortlist eingesetzt.
So geht's
- 1
Kandidatenliste zusammenstellen: 10–50 Experimente, Features oder Initiativen sammeln. ICE eignet sich für umfangreiche Listen — bei weniger als 10 Items reicht oft eine einfache Diskussion.
- 2
Metrik-Kontext vereinbaren (5 Min.): Welche primäre Metrik sollen diese Items bewegen? ICE-Scores sind nur innerhalb eines gemeinsamen Ziels vergleichbar. Falls Items verschiedene Ziele bedienen, in getrennten Sessions bewerten.
- 3
Impact bewerten (5–10 Min.): für jedes Item fragen: 'Wenn dies genau wie erwartet funktioniert, wie stark bewegt es unsere Zielmetrik?' Bewertung 1–10 (1 = vernachlässigbar, 10 = massiv). Zügig durchgehen — erste Einschätzungen sind hier oft richtig.
- 4
Confidence bewerten (5–10 Min.): fragen: 'Wie zuversichtlich sind wir, dass dies wie vorhergesagt funktioniert?' Bewertung 1–10 (1 = reine Spekulation, 10 = durch Daten oder Vorerfahrungen belegt). Items unter 4 markieren — diese könnten sich als günstige Validierungsexperimente lohnen.
- 5
Ease bewerten (5–10 Min.): fragen: 'Wie einfach ist die Umsetzung mit unseren aktuellen Ressourcen und Rahmenbedingungen?' Bewertung 1–10 (1 = sehr schwer, viele Monate Arbeit; 10 = heute ohne Abhängigkeiten umsetzbar).
- 6
ICE-Scores berechnen und sortieren: (Impact + Confidence + Ease) ÷ 3 für jedes Item berechnen. Absteigend sortieren. Items mit Scores über 7 sind starke Kandidaten für den nächsten Zyklus.
- 7
Rangliste ĂĽberprĂĽfen und kalibrieren (10 Min.): ICE bevorzugt oft Quick Wins (hohe Ease) gegenĂĽber strategischen Wetten (hoher Impact, niedrige Ease). Diskutieren, ob die Rangliste die strategische Absicht des Teams widerspiegelt oder nur auf Geschwindigkeit optimiert.
- 8
Verantwortlichkeiten zuweisen: für die Top 5–10 Items, die für den nächsten Sprint oder das nächste Quartal ausgewählt werden, einen Owner benennen, der für Scoping und Durchführung verantwortlich ist.
Tipps
ICE Scoring ist schnell, weil es approximativ ist. Gruppen nicht 5 Minuten über den Unterschied zwischen Score 6 und 7 diskutieren lassen — dieses Präzisionsniveau ist ohnehin illusorisch.
Confidence ist der wichtigste Filter. Ein 10/10-Impact-Score bei einem 1/10-Confidence-Item ist ein Forschungsprojekt, keine Priorität. Items mit niedriger Confidence und hohem Impact als Validierungsexperimente einplanen, nicht als volle Launches.
Ease-Scoring wird oft von technischen Teammitgliedern manipuliert, die Items hoch bewerten, die ihren aktuellen Sprint begünstigen. Gegen tatsächliche Lieferzeiten des letzten Quartals kalibrieren.
ICE zunächst in Stille durchführen — alle bewerten unabhängig, bevor irgendeine Gruppendiskussion stattfindet — um Ankereffekte und sozialen Konformitätsbias zu verhindern.
ICE ist ein Shortlisting-Werkzeug, kein finales Entscheidungsframework. Die Top-Items immer gegen strategische Passung prĂĽfen, bevor man sich committet.
Variationen
Für Wachstumsexperiment-Programme einen vierten Faktor hinzufügen — 'Zeit bis Ergebnisse' — um ein ICET-Modell zu schaffen, das auch berücksichtigt, wie schnell man weiß, ob ein Experiment funktioniert hat. Für strategieorientierte Teams Impact stärker gewichten (z.B. 2×) statt eines einfachen Durchschnitts. ICE für wöchentliche Experiment-Sichtung und RICE für quartalsweise Roadmap-Priorisierung verwenden.
Einsatzbereiche
Häufig gestellte Fragen
Wann sollte ich ICE Scoring einsetzen?â–ľ
Setze ICE Scoring ein, wenn du Folgendes erreichen möchtest:: Wöchentliche Sichtung des Wachstumsexperiment-Backlogs; Schnelle Shortlist-Erstellung in der Sprint-Planung; Priorisierung von Marketing-Kanal-Experimenten; Erster Filterpass für die Innovations-Pipeline; CRO-Testqueue-Management (Conversion Rate Optimization).
Wie lange dauert ICE Scoring?â–ľ
ICE Scoring dauert typischerweise 30–60 Minuten.
FĂĽr wie viele Teilnehmer eignet sich ICE Scoring?â–ľ
ICE Scoring eignet sich am besten für Gruppen von 2–12 Personen.
Welche Materialien brauche ich fĂĽr ICE Scoring?â–ľ
Für ICE Scoring benötigst du: ICE-Scoring-Tabelle oder einfache Tabelle, Backlog an Experimenten oder Initiativen, Haftnotizen, Stifte, Gemeinsames Scoring-Dokument (digital oder physisch).
Wie schwierig ist es, ICE Scoring zu facilitieren?â–ľ
ICE Scoring ist als Einsteiger-Methode eingestuft — leicht zu facilitieren, auch ohne Vorerfahrung.
Plane deinen nächsten Workshop mit KI
Workshop Weaver hilft dir, Methoden wie ICE Scoring zu einer vollständigen, zeitlich geplanten Agenda zu kombinieren – in Minuten.
Kostenlos testenMethod descriptions on Workshop Weaver are original content written by our team, based on established facilitation practices. This method was inspired by work from Sean Ellis.