A/B Testing to eksperyment gdzie pokazujesz różnym użytkownikom różne wersje produktu i mierzysz która działa lepiej. To naukowa metoda podejmowania decyzji produktowych.
1. Hipoteza
"Zmiana koloru CTA button z niebieskiego na zielony zwiększy conversion o 10%"
2. Warianty
3. Split traffic
50% użytkowników widzi A, 50% widzi B (losowo)
4. Mierzenie
Która wersja ma wyższy conversion rate?
5. Decyzja
Jeśli B wygrywa statystycznie — rollout do 100%
Testuj JEDNĄ zmianę na raz. Jeśli testujesz kolor i tekst jednocześnie — nie wiesz co zadziałało.
Rób A/B test gdy:
NIE rób A/B test gdy:
Nie wystarczy że B ma 5% wyższy conversion. Musisz mieć pewność że to nie przypadek.
p-value < 0.05 = 95% confidence że różnica nie jest przypadkowa
Sample size calculator: Ile użytkowników potrzebujesz?
1. Stopping test za wcześnie
"B wygrywa po 2 dniach!" — ale nie ma statistical significance. Poczekaj.
2. Testing too many things
10 wariantów jednocześnie = potrzebujesz 10x więcej trafficu
3. Ignoring seasonality
Test w Black Friday vs normalny tydzień — różne wyniki
4. Not testing long enough
Novelty effect — użytkownicy klikają bo nowe, nie bo lepsze
High-impact areas:
1. Hipoteza
"Jeśli [zmiana], to [metryka] wzrośnie o [X%], bo [powód]"
2. Success metric
Primary: Conversion rate
Secondary: Time on page, bounce rate
3. Sample size
Ile users potrzebujesz? (użyj kalkulatora)
4. Duration
Minimum 1 tydzień (żeby pokryć cały tydzień)
5. Analysis
p-value, confidence interval, segmentation
Zaplanuj A/B test dla swojego produktu:
🎉 Gratulacje!
Ukończyłeś ścieżkę Product Ownera w Assadante Academy. Masz teraz solidne fundamenty do zarządzania produktem — od discovery do analytics.