A/B-Tests im E-Mail-Marketing: So erhältst du aussagekräftige Ergebnisse im E-Commerce

20.05.2023 | 4 Min. Lesezeit
Liebe Leserin, lieber Leser,
A/B-Tests gehören zu den wirkungsvollsten Methoden, um E-Mail-Marketing datenbasiert zu optimieren. Dennoch liefern viele Tests keine belastbaren Ergebnisse, weil Stichproben zu klein sind oder falsch interpretiert werden.
Gerade im E-Commerce entscheiden valide Tests über Öffnungsraten, Klicks und letztlich Umsatz.
In diesem Artikel erfährst du, welche Voraussetzungen erfüllt sein müssen, damit A/B-Tests wirklich aussagekräftig sind – und wie du sie praxisnah in Systemen wie Klaviyo umsetzt.
Was ist ein A/B-Test im E-Mail-Marketing?
Beim A/B-Test werden zwei Varianten eines Mailings parallel getestet:
Variante A an einen Teil der Empfängerliste
Variante B an einen gleich großen Teil
die erfolgreichere Version wird anschließend an den Rest des Verteilers gesendet
Getestet werden können unter anderem:
Betreffzeilen
Tonalität
Bilder
Call-to-Action-Buttons
Farben und Platzierungen
Wer nicht testet, verzichtet dauerhaft auf Optimierungspotenzial und lässt bei jedem Versand messbare Performance liegen.
Wann ist ein A/B-Test aussagekräftig? Damit ein Test valide Ergebnisse liefert, müssen zwei Bedingungen erfüllt sein:
1. Repräsentative Stichprobe
Die Testgruppe darf nicht willkürlich gewählt werden (z. B. „die ersten 5 % der Liste“), sondern muss einen repräsentativen Querschnitt der Empfänger abbilden.
Professionelle E-Mail-Marketing-Systeme wie Klaviyo übernehmen diese zufällige Verteilung automatisch.
2. Ausreichende Stichprobengröße
Die Stichprobe muss groß genug sein, um statistisch belastbare Aussagen zu ermöglichen. Dabei spielen drei Faktoren eine Rolle:
Größe des Gesamtverteilers
gewünschte Fehlertoleranz (z. B. ±1 % oder ±2 %)
Konfidenzniveau (z. B. 95 % Sicherheit)
Ein Konfidenzniveau von 95 % bedeutet:
Mit 95-prozentiger Wahrscheinlichkeit liegt das Ergebnis der Stichprobe nahe am tatsächlichen Ergebnis der Gesamtgruppe.
Beispiel: Wann ein Testergebnis wirklich eindeutig ist
Fall 1 – klarer Gewinner:
Variante A: Öffnungsrate 22 % (mit 95 % Sicherheit zwischen 21–23 %)
Variante B: Öffnungsrate 25 % (mit 95 % Sicherheit zwischen 24–26 %)
Hier ist mit sehr hoher Wahrscheinlichkeit Variante B besser, da sich die Wertebereiche kaum überschneiden.
Fall 2 – nicht aussagekräftig:
Variante A: 22 % (21–23 %)
Variante B: 23 % (22–24 %)
Die Werte liegen zu nah beieinander. Der Unterschied kann reiner Zufall sein.
Lösung: Stichprobe vergrößern und Fehlertoleranz senken.
Einflussfaktoren auf die Stichprobengröße
1. Größe der Verteilerliste
Je größer der Verteiler, desto größer die notwendige Stichprobe – allerdings sinkt der relative Anteil.
Beispiel (95 % Sicherheit, 3 % Fehlertoleranz):
Verteilergröße 1.000 → Stichprobe ca. 517
Verteilergröße 10.000 → Stichprobe ca. 965
2. Gewünschte Fehlermarge
Je genauer das Ergebnis sein soll, desto größer muss die Stichprobe sein:
3 % Fehlertoleranz → ca. 965
2 % Fehlertoleranz → ca. 1.936
1 % Fehlertoleranz → ca. 4.891
Das ist besonders wichtig, wenn nicht die Öffnungsrate, sondern die Klickrate getestet wird – denn diese ist in der Regel deutlich niedriger und schwankt stärker.
Empfehlungen für die Praxis im E-Mail-Marketing
Kleine Verteiler (unter 1.000 Empfänger)
Ein klassischer „5 % A / 5 % B / 90 % Gewinner“-Test ist nicht sinnvoll.
Empfehlung:
50 % Variante A
50 % Variante B
Erkenntnisse für zukünftige Mailings nutzen
Typische Fragestellungen:
Funktioniert Personalisierung im Betreff?
Welche Buttonfarbe performt besser?
Mittlere Verteiler (ab ca. 10.000 Empfänger)
Hier sind valide Tests möglich, z. B.:
20 % A
20 % B
60 % Gewinner
Besonders geeignet für:
Klickraten-Tests
Angebotsvarianten
CTA-Formulierungen
Große Verteiler (ab ca. 25.000 Empfänger)
Bewährte Aufteilung:
10 % A
10 % B
80 % Gewinner
So lassen sich Unterschiede schnell und statistisch belastbar erkennen.
Schlechte Listen = größere Stichproben
Bei sehr niedrigen Öffnungs- und Klickraten (z. B. bei Mietadressen) müssen die Stichproben größer sein, da die statistische Unsicherheit steigt.
Wie lange sollte ein A/B-Test laufen?
Im E-Mail-Marketing reicht in der Regel eine Wartezeit von 24 Stunden:
ca. 90 % aller Klicks sind dann erfolgt
Ergebnisse sind stabil
Bei normalem Versandzeitpunkt (nicht nachts):
nach 2–3 Stunden sind oft schon 50 % aller Öffnungen erreicht
bei großen Stichproben können Entscheidungen sehr früh getroffen werden
Warum A/B-Tests im E-Commerce unverzichtbar sind
Im E-Commerce E-Mail-Marketing geht es nicht primär um Öffnungen, sondern um:
Klicks
Conversions
Umsatz
A/B-Tests ermöglichen:
kontinuierliche Optimierung
datenbasierte Entscheidungen
bessere Kundenansprache
höhere Rentabilität jeder Kampagne
In Tools wie Klaviyo lassen sich Betreffzeilen, Inhalte und CTAs automatisiert testen und anhand realer Performance auswählen.
Fazit: Aussagekräftige A/B-Tests brauchen Struktur
A/B-Tests funktionieren nur dann wirklich, wenn sie statistisch sauber aufgesetzt sind.
Die wichtigsten Grundsätze:
repräsentative Stichproben
ausreichende Größe
realistische Fehlertoleranz
Fokus auf Klick- und Conversion-Raten
konsequente Nutzung der Ergebnisse für zukünftige Mailings
Wer diese Prinzipien beachtet, macht aus jedem Versand ein Lerninstrument und verbessert sein E-Mail-Marketing im E-Commerce Schritt für Schritt.
Nächster Schritt: A/B-Tests strategisch einsetzen
Statt nur gelegentlich Betreffzeilen zu testen, sollten A/B-Tests fester Bestandteil der E-Mail-Marketing-Strategie sein:
in Kampagnen
in Automationen
in Segmenten
So wird Testing nicht zur Ausnahme, sondern zur systematischen Optimierung – unterstützt durch Plattformen wie Klaviyo und getragen von klaren Daten statt Bauchgefühl.