A/B Testing (auch Split Testing) bezeichnet die kontrollierte Methode, zwei Varianten einer Seite, Anzeige oder eines Elements gleichzeitig gegeneinander zu testen, um danach datenbasiert zu entscheiden, welche Variante besser konvertiert.
Das Prinzip
Der Traffic wird zufällig auf zwei Varianten aufgeteilt. Variante A (die Kontrollversion) wird gegen Variante B (die veränderte Version) getestet und nach ausreichend Daten gewinnt die statistisch bessere Variante.
50 % der Besucher sehen Version A
50 % der Besucher
50 % der Besucher sehen Version A → 50 % sehen Version B → CVR-Vergleich entscheidet
Was kann getestet werden?
Grundsätzlich alles, was eine Nutzerin oder ein Nutzer wahrnimmt und das die Entscheidung beeinflusst:
Headline und Subheadline
CTA-Text und -Farbe
Angebot oder Formulierung des Nutzenversprechens
Seitenlänge und Struktur
Social Proof (Anzahl, Position, Format von Testimonials)
Bilder und visuelle Elemente
Anzeigentexte und -headlines in Google Ads
Worauf es bei validen Tests ankommt
Eine Variable gleichzeitig: Wer Headline und Layout gleichzeitig ändert, weiß nicht, was gewirkt hat.
Ausreichende Stichprobengröße: Zu wenig Traffic führt zu zufälligen Ergebnissen ohne statistische Signifikanz.
Faire Bedingungen: Beide Varianten laufen im gleichen Zeitraum, um saisonale Effekte auszuschließen.
Klare Erfolgskennzahl: Was ist das Ziel – Formularabsendungen, Klicks, Scroll-Tiefe?
A/B Test vs. Multivariate Test
Beim A/B Test wird eine Variable isoliert getestet.
Beim multivariaten Test werden mehrere Elemente gleichzeitig in verschiedenen Kombinationen getestet, was jedoch deutlich mehr Traffic erforder, damit du signifikante Ergebnisse erhältst.
Häufige Fehler
Test zu früh abbrechen, wenn eine Variante vorne liegt
Zu viele Tests gleichzeitig laufen lassen
Testen ohne vorherige Hypothese – was soll warum besser funktionieren?