A/B-testen zijn de gouden standaard bij experimenteren. Het is bedoeld om bedrijven te helpen snellere, betere, datagestuurde beslissingen te nemen. Maar al te vaak gebeurt het tegenovergestelde. De bijeenkomst begint met optimisme: een nieuw prijsidee, advertentie-indeling of aanmeldingsscherm wordt onderworpen aan een A/B-test. Na weken wachten komen analisten terug met p-waarden, betrouwbaarheidsdrempels van 95% en een bekende conclusie: “We moeten wachten op meer gegevens. We hebben nog niet genoeg bewijs, en het is statistisch niet significant.”



