top of page

A/B-Tests im E-Mail-Marketing: So erhältst du aussagekräftige Ergebnisse im E-Commerce

image_1 2

20.05.2023 | 4 Min. Lesezeit

Liebe Leserin, lieber Leser,


A/B-Tests gehören zu den wirkungsvollsten Methoden, um E-Mail-Marketing datenbasiert zu optimieren. Dennoch liefern viele Tests keine belastbaren Ergebnisse, weil Stichproben zu klein sind oder falsch interpretiert werden.
Gerade im E-Commerce entscheiden valide Tests über Öffnungsraten, Klicks und letztlich Umsatz.


In diesem Artikel erfährst du, welche Voraussetzungen erfüllt sein müssen, damit A/B-Tests wirklich aussagekräftig sind – und wie du sie praxisnah in Systemen wie Klaviyo umsetzt.


Was ist ein A/B-Test im E-Mail-Marketing?

Beim A/B-Test werden zwei Varianten eines Mailings parallel getestet:

  • Variante A an einen Teil der Empfängerliste

  • Variante B an einen gleich großen Teil

  • die erfolgreichere Version wird anschließend an den Rest des Verteilers gesendet

Getestet werden können unter anderem:

  • Betreffzeilen

  • Tonalität

  • Bilder

  • Call-to-Action-Buttons

  • Farben und Platzierungen

Wer nicht testet, verzichtet dauerhaft auf Optimierungspotenzial und lässt bei jedem Versand messbare Performance liegen.


Wann ist ein A/B-Test aussagekräftig? Damit ein Test valide Ergebnisse liefert, müssen zwei Bedingungen erfüllt sein:


1. Repräsentative Stichprobe

Die Testgruppe darf nicht willkürlich gewählt werden (z. B. „die ersten 5 % der Liste“), sondern muss einen repräsentativen Querschnitt der Empfänger abbilden.
Professionelle E-Mail-Marketing-Systeme wie Klaviyo übernehmen diese zufällige Verteilung automatisch.


2. Ausreichende Stichprobengröße

Die Stichprobe muss groß genug sein, um statistisch belastbare Aussagen zu ermöglichen. Dabei spielen drei Faktoren eine Rolle:

  • Größe des Gesamtverteilers

  • gewünschte Fehlertoleranz (z. B. ±1 % oder ±2 %)

  • Konfidenzniveau (z. B. 95 % Sicherheit)

Ein Konfidenzniveau von 95 % bedeutet:
Mit 95-prozentiger Wahrscheinlichkeit liegt das Ergebnis der Stichprobe nahe am tatsächlichen Ergebnis der Gesamtgruppe.


Beispiel: Wann ein Testergebnis wirklich eindeutig ist

Fall 1 – klarer Gewinner:

  • Variante A: Öffnungsrate 22 % (mit 95 % Sicherheit zwischen 21–23 %)

  • Variante B: Öffnungsrate 25 % (mit 95 % Sicherheit zwischen 24–26 %)

Hier ist mit sehr hoher Wahrscheinlichkeit Variante B besser, da sich die Wertebereiche kaum überschneiden.

Fall 2 – nicht aussagekräftig:

  • Variante A: 22 % (21–23 %)

  • Variante B: 23 % (22–24 %)

Die Werte liegen zu nah beieinander. Der Unterschied kann reiner Zufall sein.
Lösung: Stichprobe vergrößern und Fehlertoleranz senken.


Einflussfaktoren auf die Stichprobengröße

1. Größe der Verteilerliste

Je größer der Verteiler, desto größer die notwendige Stichprobe – allerdings sinkt der relative Anteil.

Beispiel (95 % Sicherheit, 3 % Fehlertoleranz):

  • Verteilergröße 1.000 → Stichprobe ca. 517

  • Verteilergröße 10.000 → Stichprobe ca. 965


2. Gewünschte Fehlermarge

Je genauer das Ergebnis sein soll, desto größer muss die Stichprobe sein:

  • 3 % Fehlertoleranz → ca. 965

  • 2 % Fehlertoleranz → ca. 1.936

  • 1 % Fehlertoleranz → ca. 4.891

Das ist besonders wichtig, wenn nicht die Öffnungsrate, sondern die Klickrate getestet wird – denn diese ist in der Regel deutlich niedriger und schwankt stärker.


Empfehlungen für die Praxis im E-Mail-Marketing


Kleine Verteiler (unter 1.000 Empfänger)

Ein klassischer „5 % A / 5 % B / 90 % Gewinner“-Test ist nicht sinnvoll.
Empfehlung:

  • 50 % Variante A

  • 50 % Variante B

  • Erkenntnisse für zukünftige Mailings nutzen

Typische Fragestellungen:

  • Funktioniert Personalisierung im Betreff?

  • Welche Buttonfarbe performt besser?


Mittlere Verteiler (ab ca. 10.000 Empfänger)

Hier sind valide Tests möglich, z. B.:

  • 20 % A

  • 20 % B

  • 60 % Gewinner

Besonders geeignet für:

  • Klickraten-Tests

  • Angebotsvarianten

  • CTA-Formulierungen


Große Verteiler (ab ca. 25.000 Empfänger)

Bewährte Aufteilung:

  • 10 % A

  • 10 % B

  • 80 % Gewinner

So lassen sich Unterschiede schnell und statistisch belastbar erkennen.


Schlechte Listen = größere Stichproben

Bei sehr niedrigen Öffnungs- und Klickraten (z. B. bei Mietadressen) müssen die Stichproben größer sein, da die statistische Unsicherheit steigt.


Wie lange sollte ein A/B-Test laufen?

Im E-Mail-Marketing reicht in der Regel eine Wartezeit von 24 Stunden:

  • ca. 90 % aller Klicks sind dann erfolgt

  • Ergebnisse sind stabil

Bei normalem Versandzeitpunkt (nicht nachts):

  • nach 2–3 Stunden sind oft schon 50 % aller Öffnungen erreicht

  • bei großen Stichproben können Entscheidungen sehr früh getroffen werden


Warum A/B-Tests im E-Commerce unverzichtbar sind

Im E-Commerce E-Mail-Marketing geht es nicht primär um Öffnungen, sondern um:

  • Klicks

  • Conversions

  • Umsatz

A/B-Tests ermöglichen:

  • kontinuierliche Optimierung

  • datenbasierte Entscheidungen

  • bessere Kundenansprache

  • höhere Rentabilität jeder Kampagne

In Tools wie Klaviyo lassen sich Betreffzeilen, Inhalte und CTAs automatisiert testen und anhand realer Performance auswählen.


Fazit: Aussagekräftige A/B-Tests brauchen Struktur

A/B-Tests funktionieren nur dann wirklich, wenn sie statistisch sauber aufgesetzt sind.

Die wichtigsten Grundsätze:

  • repräsentative Stichproben

  • ausreichende Größe

  • realistische Fehlertoleranz

  • Fokus auf Klick- und Conversion-Raten

  • konsequente Nutzung der Ergebnisse für zukünftige Mailings

Wer diese Prinzipien beachtet, macht aus jedem Versand ein Lerninstrument und verbessert sein E-Mail-Marketing im E-Commerce Schritt für Schritt.


Nächster Schritt: A/B-Tests strategisch einsetzen

Statt nur gelegentlich Betreffzeilen zu testen, sollten A/B-Tests fester Bestandteil der E-Mail-Marketing-Strategie sein:

  • in Kampagnen

  • in Automationen

  • in Segmenten

So wird Testing nicht zur Ausnahme, sondern zur systematischen Optimierung – unterstützt durch Plattformen wie Klaviyo und getragen von klaren Daten statt Bauchgefühl.

bottom of page