top of page

A/B-Tests im E-Mail-Marketing: So testest Du richtig und holst echten Umsatz-Uplift

image_1 2

04.03.2026 | 2 Min. Lesezeit

Liebe Leserin, lieber Leser,


A/B-Tests im E-Mail-Marketing sind kein Deko-Element. Sie sind Dein Werkzeug, um Entscheidungen zu treffen, die am Ende auf dem Kontoauszug landen. Genau da scheitern die meisten Teams. Sie testen entweder zu viel und glauben am Ende alles und nichts. Oder sie testen zu wenig und leben jahrelang mit Setups, die Geld verbrennen, weil niemand mehr hinschaut.

Wir sehen in der Praxis vor allem ein Muster: Viele Tests werden gemacht, weil man eben testet. Nicht, weil man eine saubere Entscheidung treffen will. Das Ergebnis sind bunte Tabellen, viel Betriebsamkeit und kaum Veränderung im Alltag. Wenn Du A/B-Tests wirklich nutzen willst, musst Du sie als Teil Deiner Arbeit denken – bei jedem Versand, bei jedem Flow, bei jeder wichtigen Stellschraube.

Und noch etwas, das unbequem ist, aber wahr bleibt: Wenn Du nicht vorab weißt, was Du mit dem Ergebnis machst, brauchst Du den Test nicht. Dann ist es Beschäftigungstherapie.


Warum so viele A/B-Tests nichts wert sind

Ein Test ist nur dann gut, wenn er eine klare Entscheidung ermöglicht. Klingt banal. Ist es aber nicht. Viele Tests sind so gebaut, dass am Ende Interpretationsspielraum bleibt. Dann gewinnt nicht Variante A oder B, sondern die lauteste Meinung im Raum.

Wir begegnen zwei Extremen. Beide sind gefährlich. Beide kosten Geld.

  • Zu viele Tests: Zu viele Varianten, zu viele Kennzahlen, zu viele kleine Abweichungen. Das Team schaut nur noch auf Zahlen, aber niemand traut sich, daraus eine robuste Regel zu machen. Am Ende bist Du blind vor lauter Daten.

  • Zu wenig Tests: Ein Setup bleibt unangetastet, weil es irgendwann mal funktioniert hat. Klassiker sind Warenkorb-Abbrecher-Mails oder alte Welcome-Strecken. Sie laufen, also fasst man sie nicht an. Genau da liegt oft der größte Hebel.

Beide Extreme haben denselben Kernfehler: Es fehlt ein System. Ohne System wird Testen schnell zur Gewohnheit oder zur Ausrede.


Drei Filter, bevor ein Test überhaupt starten darf

Wenn Du nur eine Sache aus diesem Text mitnimmst, dann diese drei Filter. Sie retten Dich vor falschen Gewissheiten und vor Entscheidungen auf Basis von Zufall.

Filter 1: Ist Deine Stichprobe groß genug? Wenn Du mit zu wenig Daten testest, misst Du vor allem Rauschen. Dann sieht jede Variante mal besser aus. Nicht weil sie besser ist, sondern weil Du zu früh hinschaust. Wir lassen Tests lieber ausfallen, als eine vermeintliche Erkenntnis zu produzieren, die sich nächste Woche wieder umdreht.

Filter 2: Hast Du eine klare Entscheidungsmetrik? Lege vor dem Versand fest, welche Kennzahl entscheidet. Und zwar die Kennzahl, die zum Ziel passt. Wenn Umsatz das Ziel ist, dann wird bis zur Conversion gemessen. Öffnungen und Klicks sind Zwischenwerte. Sie können in die falsche Richtung führen, wenn Du sie zum Siegerkriterium machst.

Filter 3: Läuft der Test lange genug? Viele Teams brechen ab, sobald eine Linie hübsch nach oben zeigt. So baut man sich seine eigene Wahrheit. Gib dem Test Zeit, über typische Schwankungen hinweg zu laufen. Sonst optimierst Du auf Tagesform, nicht auf Wirkung.

Und jetzt der Zusatz, den viele vergessen, der aber über den Wert des Tests entscheidet: Definiere vorab, was Du tust, wenn Variante B gewinnt. Und was Du tust, wenn sie verliert. Wenn beides offen ist, ist der Test nicht entscheidungsfähig.


Teste in der Reihenfolge, in der Geld auf dem Tisch liegt

Testen ist kein Selbstzweck. Teste dort, wo ein kleiner Effekt einen großen Unterschied macht. Wir nennen das intern schlicht: Folge dem Geld. Nicht weil wir romantikfrei sind, sondern weil Budgets und Aufmerksamkeit begrenzt sind.

Ein Prozent mehr Conversion an der richtigen Stelle ist mehr wert als zehn Prozent an einer Stelle, die kaum Umsatz berührt. Das bedeutet für die Praxis: Priorisiere die Strecken, die nahe an Umsatz und Wiederkauf hängen. Und wenn Du unsicher bist, dann starte dort, wo die meisten Menschen durchlaufen.

Die zweite Regel ist genauso wichtig: Teste erst große Änderungen, dann die kleinen. Wer mit Button-Farben beginnt, hat meistens Angst vor echten Entscheidungen. Große Änderungen bringen klare Signale. Kleine Änderungen bringen oft nur Diskussionen.


Drei Bereiche, in denen Du fast immer schnell etwas findest

Wenn Du heute anfangen willst, systematischer zu testen, dann geh nicht in die exotischen Ecken. Geh an die Stellen, die fast jedes Setup hat und die fast immer Optimierungspotenzial tragen.

  • Signup-Formulare: Prüfe die Logik des Anreizes, die Platzierung und den Moment der Ausspielung. Und entscheide bewusst, welche Daten Du wirklich brauchst. Zero-Party-Daten können wertvoll sein – sie können aber auch Reibung erzeugen, wenn Du sie ohne Nutzenversprechen abfragst.

  • Welcome Flow: Hier zählt Sequenz, Kadenz und Timing. Die erste Phase entscheidet oft über Erwartung, Vertrauen und die spätere Kaufbereitschaft. Teste nicht nur Texte, teste auch Abstände, Reihenfolge und den Moment, in dem Du ein Angebot bringst.

  • Abandoned Cart Flow: Teste Timing, Tonalität und die Frage, ob ein Angebot überhaupt nötig ist. Viele Teams geben zu früh Rabatt, weil sie es immer so gemacht haben. Manchmal rettet eine klare Erinnerung mehr Marge als ein Gutschein.

Wichtig ist dabei nicht, dass Du alles gleichzeitig testest. Wichtig ist, dass Du einen Plan hast. Ein Test nach dem anderen, sauber gemessen, sauber entschieden, sauber ausgerollt.


Das 8-Uhr-gegen-9-Uhr-Beispiel: Warum die richtige Metrik entscheidet

Ein Klassiker aus der Praxis: Zwei Versandzeiten, minimaler Unterschied, große Wirkung. Sonntag 8 Uhr oder Sonntag 9 Uhr. Klingt nach Kleinkram. Ist es aber nicht, wenn Du den Test richtig auswertest.

In so einem Setup passiert häufig Folgendes: Um 8 Uhr ist die Öffnungsrate besser. Um 9 Uhr ist die Klickrate besser. Und jetzt kommt die Stelle, an der viele Teams falsch abbiegen. Sie entscheiden nach Öffnungen oder Klicks, weil es schneller sichtbar ist und weil man sich damit gut fühlt.

Wenn Umsatz das Ziel ist, zählt am Ende nur eine Frage: Welche Variante bringt mehr Conversion und damit mehr Umsatz? In unserem Beispiel lag die Conversion bei einer der beiden Versandzeiten um 237 Prozent höher. Das ist kein kosmetischer Effekt. Das ist ein echter Hebel.

Das Learning ist simpel, aber es verändert Deine Testkultur: Bewerte immer den relevanten Wert. Öffnen ist nett. Klicken ist besser. Kaufen ist die Entscheidung.

Wenn Du A/B-Tests so aufsetzt, dass sie klar, entscheidungsfähig und umsetzbar sind, wird Testen automatisch Teil Deiner Arbeitsweise. Nicht als Pflichtübung, sondern als Routine. Und genau dann entsteht der Uplift, der sich wirklich lohnt.


Herzliche Grüße von Uwe und dem Meister Lampe Team!

bottom of page