<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Research on callas1900.net</title><link>https://callas1900.net/tags/research/</link><description>Recent content in Research on callas1900.net</description><generator>Hugo</generator><language>en-us</language><lastBuildDate>Mon, 04 May 2026 17:15:00 +0900</lastBuildDate><atom:link href="https://callas1900.net/tags/research/index.xml" rel="self" type="application/rss+xml"/><item><title>A/Bテスト再考</title><link>https://callas1900.net/posts/2026/05/refine-ab-testing/</link><pubDate>Mon, 04 May 2026 17:15:00 +0900</pubDate><guid>https://callas1900.net/posts/2026/05/refine-ab-testing/</guid><description>&lt;h2 id="1-良くないを分解する"&gt;1. 「良くない」を分解する&lt;/h2&gt;
&lt;p&gt;A/Bテストは、ボタンを差し替えて数字を見比べるだけのシンプルなツールに見える。だから運用していて違和感が出たとき、その違和感を言語化できない人も結構いる。&lt;/p&gt;
&lt;p&gt;実際、先日こんな相談を受けた。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;「私たちがやっているA/Bテスト、何かが良くないって意見があるんですが、どうしたらいいのかわからなくて」&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;この「良くない」を分解する準備が自分にもなかったので、調査整理してみました。&lt;/p&gt;
&lt;h2 id="2-abテストの見落とされがちな前提"&gt;2. A/Bテストの見落とされがちな前提&lt;/h2&gt;
&lt;h3 id="リサーチ結果"&gt;リサーチ結果&lt;/h3&gt;
&lt;p&gt;何か革新的な新しいやり方がないかと論文やレポートをリサーチしてわかるのは、A/Bテストの失敗は、ツールや計測の設定、そして統計学の基礎的な知識不足が主な原因で起きているという点。足元が疎かなのだ。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;SRM（サンプル比率不一致）は「AとBの割り当て比率がずれている」という設定・計測上の問題&lt;/li&gt;
&lt;li&gt;ピーキング（早期停止）は「A/Bテストが &amp;ldquo;事前にサンプル数を固定する前提&amp;rdquo; で設計されていることを知らない」という統計の問題&lt;/li&gt;
&lt;li&gt;多重比較は「指標を増やせばその分偽陽性が増える」という統計の問題&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;どれも、ツールの操作や派手な手法の話ではなく、そもそもA/BテストがAとB出すだけだという勘違いから起きている。&lt;/p&gt;
&lt;p&gt;業界の論文や失敗事例を大きく３つに分類してみる。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;統計的推論とデータ品質&lt;/strong&gt;&lt;br&gt;
そもそもツールがうまく使えていない、基礎的な統計の使い方がわかっていない&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;指標設計と仮説構築&lt;/strong&gt;&lt;br&gt;
何を成功とするか、グッドハートの法則などの指標に関する知識不足と副作用を考えた設計不足。もしくはシンプルにA/Bテストの設計の質の低さ&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;組織運用・文化・システム&lt;/strong&gt;&lt;br&gt;
失敗を隠す、上司などの声の大きい人の意見が優先されるなど&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;a href="https://www.kadokawa.co.jp/product/302101000901/"&gt;A/Bテスト実践ガイド 真のデータドリブンへ至る信用できる実験とは(kadokawa.co.jp)&lt;/a&gt; でRon Kohavi氏が丸々一章使って語っているようにA/Aテストを実施しない企業が多い。当たり前のように思えるただのツールチェックだが、これで見つかるミスが多いことが指摘されている。&lt;/p&gt;
&lt;p&gt;次にサンプル数の設定と期間の設定をシンプルにやっていないケースだってある。&lt;/p&gt;
&lt;p&gt;冒頭の「A/Bテスト、何かが良くない」の &amp;ldquo;何か&amp;rdquo; の正体は、そもそもA/Bテストを理解できていない可能性もある。A/Bテストのツールは非常にシンプルだが、それを実行するためにはデータドリブンに意思決定する組織と、そもそもの統計学（決して高いレベルが必要なわけではない）への学習が不足しているケースが多いと複数の研究(最後に参考になるもののリストを提示する)で指摘されている。&lt;/p&gt;
&lt;h3 id="abテストの骨組み"&gt;A/Bテストの骨組み&lt;/h3&gt;
&lt;p&gt;A/Bテストは簡易版のランダム化比較試験（Randomized Controlled Trial）。1920年代にフィッシャーが農学（どの肥料が効くか）で確立した手法を、ソフトウェアの世界に持ち込んだものになります。&lt;/p&gt;
&lt;p&gt;ビジネスの文脈から色々と時短、コスパのためのテクニックが開発されているが一旦それは横に置く。
A/Bテストのステップは以下のようになります。&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;仮説を立てる&lt;/strong&gt;&lt;br&gt;
A/Bテストは常に仮説によって推進されます。仮説とは、特定の変更がパフォーマンスにどのように影響するかを予測する、検証可能な仮定です。例えば、「『今すぐ購入』ボタンを青から赤に変更すると、クリック率が10%向上する」といったものが仮説になります。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;試験を設計する&lt;/strong&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;試験グループの設計&lt;/strong&gt;&lt;br&gt;
A/Bテストでは、比較対象となる2つの条件が必要です。グループが明確に区別され、重複する可能性がないことを確認することが重要です。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;サンプルサイズ決定&lt;/strong&gt;&lt;br&gt;
テストを実行する前に、信頼できる結果を得るために必要なサンプルサイズ（参加者数）を計算する必要があります。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;グループのランダム化&lt;/strong&gt;&lt;br&gt;
バイアスの可能性を最小限に抑えるために、ユーザーは2つのグループのいずれかにランダムに割り当てられる必要があります。&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;試験実装&lt;/strong&gt;&lt;br&gt;
テスト対象の2つのバージョンをサンプルグループに展開します。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;結果収集・分析&lt;/strong&gt;&lt;br&gt;
要なサンプルサイズを収集するのに十分な期間テストを実行した後、結果を分析して、どちらのバージョンが優れたパフォーマンスを示したかを判断します。&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;A/Bテストは１つの目標に対して統計学的な試験を行ったに過ぎず、その結果をもって、ビジネス上の勝ちになるかとは切り分けて考えないといけない。そもそも切り分けられないなら、A/Bテスト手法を採用すべきではない。&lt;/p&gt;
&lt;p&gt;ビジネス的な勝ち（何を持って勝ちとするかは議論の余地あり）と、統計的優位性には特に関係性はない。統計的試験をせずとも、感で選んだ結果の方がビジネス的な勝ちを拾えることはある。&lt;/p&gt;
&lt;p&gt;このあたりを忘れて運用すると、後述する&lt;strong&gt;ピーキング&lt;/strong&gt;や&lt;strong&gt;多重比較&lt;/strong&gt;といった罠に落ちやすい。統計の前提が、思っているより繊細にできているからだ。&lt;/p&gt;
&lt;h3 id="そもそも勝つテストは少ないという前提"&gt;そもそも勝つテストは少ない、という前提&lt;/h3&gt;
&lt;p&gt;もう一つ、リサーチの中で印象に残った内容を補足しておく。Microsoft Bingの実験成功率は約15%、Google Ads・Netflix・Booking.comでも、新しいアイデアが統計的に有意な改善をもたらすのは10%前後にとどまる、と報告されている。残りはフラット（差がない）かネガティブだ。&lt;/p&gt;
&lt;p&gt;この前提を踏まえると、「何回も連続で勝っているテスト」をは眉唾になる。業界には「驚くほど良い数字が出たときほど計測や設定を疑え」という経験則（&lt;strong&gt;Twymanの法則&lt;/strong&gt;）がある。&lt;/p&gt;
&lt;h2 id="3-よくある5つの落とし穴"&gt;3. よくある5つの落とし穴&lt;/h2&gt;
&lt;h3 id="1-計測トラッキング設定の不備"&gt;#1 計測・トラッキング設定の不備&lt;/h3&gt;
&lt;p&gt;A/Bテストの統計は「ランダムに割り当てた群が、施策以外は均質」という前提の上に成立している。この前提は、実装ミスで簡単に壊れる。&lt;/p&gt;
&lt;p&gt;代表的な症状が &lt;strong&gt;SRM（Sample Ratio Mismatch：サンプル比率の不一致）&lt;/strong&gt; で、50対50で配分したつもりなのに、ログ上の比率が52対48にずれているような状態を指す。誤差の範囲に見えても、サンプルサイズが大きいとこの程度のズレでも統計的に異常な確率になる。原因はターゲットオーディエンス定義のミス、フロントエンドサイドの計測プログラムの実行遅延でイベントが取りこぼされる、リダイレクトベースの実験での離脱、ボット検知が片方の群を誤判定して除外、実験途中での配分比率の変更などなど。&lt;/p&gt;
&lt;p&gt;割り当てが歪んだ瞬間、その後の統計的設計は意味を消失する。「BがAより2%良かった」と見えていても、その2%は施策の効果なのか、消えてしまったユーザー群のせいなのかを区別できない。&lt;/p&gt;
&lt;p&gt;DoorDashの事例では、ある実験で「年間1000万ドルの増収」と結論しかけたが、SRM検証で購買意欲の低いユーザーがバグで実験群から脱落していたことが判明し、結果は無効化されている。&lt;/p&gt;</description></item></channel></rss>