コンテンツ情報
公開日 |
2018/06/14 |
フォーマット |
PDF |
種類 |
製品資料 |
ページ数・視聴時間 |
7ページ |
ファイルサイズ |
2.07MB
|
要約
ビッグデータの活用をはじめ、データ分析の重要性がますます高まりを見せている。特にサイト訪問者の流入経路や滞在時間、広告やバナーをクリックしたかどうかといったデータは、ビジネスの意思決定の根拠となり得る。だが、そこから得られるインサイトの価値は、収集しているデータが適切なものでなければ、大きく下がってしまう。
データの正確性を揺るがす原因の1つに、ネットワークトラフィックの大半を占めるといわれる「bot」によるアクセスがある。botの目的はマッピングなど有益なものからDDoS攻撃のような悪意のあるものまでさまざまだが、そうしたbotトラフィックと正規のユーザートラフィックを正しく見分けることができなければ、正確なデータ分析を行うことは難しくなる。
ただし、botと人間のトラフィックを区別するために過度なセキュリティコントロールを行うことは、ユーザーにストレスを与えてしまう可能性もある。本コンテンツでは、その状況の打開策として、サイトトラフィックを管理し、自動化されたアクセスと実際の人間のアクセスを分けてフィルタリングする効果的な方法を紹介する。