はい、承知いたしました。Cloudflare Logpushに関する約5000語の詳細な解説記事を作成します。記事の内容を直接表示します。
Cloudflare Logpushとは?機能と概要を解説:膨大なログデータを価値ある情報へ
現代のデジタル環境において、Webサイトやアプリケーションはビジネスの生命線です。これらを安全かつ高性能に運用するためには、システムが生成する「ログデータ」の分析が不可欠です。ログデータには、誰が、いつ、どのようにシステムにアクセスしたか、どのような処理が行われたか、エラーが発生したかなど、運用状況、セキュリティ、パフォーマンスに関する宝の山が眠っています。
しかし、クラウドベースのセキュリティ・パフォーマンス・信頼性サービスを提供するCloudflareのようなプラットフォームを利用している場合、そのログデータは膨大かつ分散している可能性があります。Cloudflareは世界中に張り巡らされたエッジネットワークを通じてトラフィックを処理するため、生成されるログの量は莫大になり、手動や従来のAPIポーリングによる収集・分析には限界があります。
ここで重要となるのが、「Cloudflare Logpush」です。Logpushは、Cloudflareが生成する様々なログデータを、お客様が指定するストレージサービスやSIEM(Security Information and Event Management)ツールへ自動的かつ継続的にプッシュ(転送)するサービスです。これにより、Cloudflareの高度な機能が収集した詳細なログを、効率的かつ大規模に活用することが可能になります。
本記事では、Cloudflare Logpushの基本的な概要から、その豊富な機能、対応するログの種類、活用例、導入・設定方法、そして利用上の考慮事項まで、網羅的に解説します。Logpushを通じて、Cloudflareの膨大なログデータを最大限に活用し、セキュリティ態勢の強化、パフォーマンスの最適化、運用の効率化、ビジネスインテリジェンスの向上を実現する方法を探求します。
1. はじめに:なぜログデータが重要なのか?
インターネット上のトラフィックの多くはCloudflareのエッジネットワークを経由します。これにより、ユーザーはCloudflareのDDoS攻撃対策、WAF(Web Application Firewall)、キャッシュ、CDN(Content Delivery Network)、Bot管理などの恩恵を受けることができます。この巨大なネットワークが毎日処理するリクエストやイベントは、文字通り天文学的な数に上ります。
これらのトラフィック処理やイベントに関する情報は、詳細なログデータとして記録されます。具体的には、以下のような情報が含まれます。
- HTTPリクエストログ: どのIPアドレスから、いつ、どのURLに、どのようなHTTPメソッドでアクセスがあったか。User AgentやReferer、Cookie情報、Cloudflareが適用したセキュリティ設定(WAFアクションなど)、キャッシュヒット状況、エッジおよびオリジンサーバーの応答時間など、リクエストに関するあらゆる詳細。
- ファイアウォールイベントログ: WAFルールによってブロックまたはチャレンジされたアクセス、レート制限によって拒否されたリクエスト、IPアドレスや国によるブロックなど、セキュリティに関するイベントの詳細。
- 監査ログ: Cloudflareアカウント上で行われた設定変更やアクション(ユーザー追加、ゾーン設定変更など)の詳細。
- Bot管理ログ: ボットスコア、ボットのアクション(ブロック、マネージドチャレンジなど)に関する詳細。
- Workersトレースログ: Cloudflare Workersの実行に関するログ、エラー、リクエスト詳細。
これらのログデータは、以下のような目的で極めて重要です。
- セキュリティ: 不正アクセス、サイバー攻撃(DDoS、SQLインジェクション、XSSなど)、異常なトラフィックパターンを検出し、対応策を講じるため。インシデント発生時の原因特定や影響範囲調査のため。
- パフォーマンス: Webサイトやアプリケーションの応答時間、キャッシュヒット率、エラー率などを分析し、ボトルネックを特定して改善するため。地理的なパフォーマンス差異を把握するため。
- 運用: システムの健全性を監視し、エラーや異常を早期に検知するため。トラフィック量の傾向を把握し、リソース計画に役立てるため。
- ビジネスインテリジェンス: ユーザーのアクセス元、利用デバイス、人気コンテンツなどを分析し、マーケティング戦略やコンテンツ改善に役立てるため。
- コンプライアンス: 規制要件(例:PCI DSS、HIPAA)に基づいたアクセスログやセキュリティイベントログの長期保存と監査証跡のため。
Cloudflareのダッシュボードでも、一部のログは集計されたメトリクスやサンプリングされたデータとして確認できます。しかし、詳細なログレコード全てにアクセスし、自由な条件で横断的に分析・検索・保存するためには、生のログデータを自社のシステムに取り込む必要があります。従来のAPIポーリングは、大規模なログデータをリアルタイムに近い形で継続的に取得するには効率が悪く、システム負荷も大きくなる可能性があります。
Cloudflare Logpushは、この課題を解決するために設計されたサービスです。Cloudflare側からお客様の指定した宛先へログを「プッシュ」することで、大量のログデータを効率的に、ほぼリアルタイムで収集・活用する基盤を提供します。
2. Cloudflare Logpushの概要:仕組みと解決する課題
Cloudflare Logpushは、Cloudflareが生成する様々な種類のログを、お客様が事前に設定した外部のストレージサービスやSIEMシステムに、自動的かつ定期的に転送する機能です。Cloudflareのエッジサーバーで発生したログは、内部的に集約され、指定された形式でバッチとしてまとめられた後、Logpushサービスを通じて宛先に送信されます。
Logpushの基本的な仕組み
- ログ生成: 世界中のCloudflareエッジサーバーで、HTTPリクエスト、ファイアウォールイベント、Workers実行などの様々なログが発生します。
- ログ集約: これらのログはCloudflareの内部システムで集約・整理されます。
- Logpushジョブ: お客様はCloudflareダッシュボードまたはAPIを使用して、Logpushジョブを設定します。このジョブには、転送したいログの種類、出力先、データフォーマット、フィルタリング/サンプリング設定などが含まれます。
- バッチ処理: Cloudflareは、設定されたログタイプ、フォーマット、分割設定に基づいて、一定期間(通常は数分間)または一定サイズごとにログをバッチとしてまとめます。
- プッシュ: まとめられたログバッチファイルは、Logpushジョブで指定された宛先(S3バケット、GCSバケット、Splunk HECなど)に自動的にプッシュされます。
- 消費と分析: 宛先に転送されたログファイルは、お客様のシステム(データレイク、データウェアハウス、SIEM、分析プラットフォームなど)で読み込まれ、保存、処理、分析、可視化、アラート生成などに活用されます。
Logpushが解決する主な課題
- 大量ログの収集効率: 膨大な量のログデータを、ポーリングではなくプッシュによって効率的に、スケールを気にせずに収集できます。
- リアルタイムに近い分析: ログが生成されてから比較的短時間で宛先に転送されるため(通常5分以内、多くの場合は1分以内)、ニアリアルタイムでの分析や監視が可能です。
- 長期保存と検索性: ログを独自のストレージに保存できるため、Cloudflareダッシュボードの保持期間に縛られず、法規制や監査要件に合わせて長期保存できます。また、自社の分析基盤上で自由に検索・クエリできます。
- 既存システムとの連携: 既存のSIEM、ログ分析プラットフォーム、データレイクなどにCloudflareログを取り込み、他のシステムのログと統合して分析できます。
- 詳細な分析: 集計されたメトリクスではなく、個々のリクエストやイベントの詳細なログレコードにアクセスできるため、より深く、特定の条件に基づいた詳細な分析が可能です。
- コスト最適化: 不要なログをフィルタリングしたり、サンプリングしたり、必要なフィールドだけを選択したりすることで、データ量とストレージ・分析コストを削減できます。
Logpushが対応するログの種類
Cloudflare Logpushは、Cloudflareが提供する様々なサービスに関連するログを転送できます。利用可能なログタイプは、Cloudflareの提供するサービスやお客様の契約プランによって異なります。主要なログタイプを以下に示します。
-
HTTP Requests logs (http_requests):
- 最も一般的で詳細なログタイプ。
- Cloudflareエッジを経由する全てのHTTP/HTTPSリクエストに関する情報を含みます。
- 主なフィールド: Ray ID (各リクエスト固有のID), Client IP, Client Country, Request URL, Request Method, HTTP Status Code, User Agent, Referer, Host, Edge Start/End Timestamps, Origin Start/End Timestamps, Cache Cache Status, WAF Action, Firewall Matches (詳細なルールIDやアクション), Bot Score, TLS Version/Cipher, Workers Subrequest details など。
- 活用シーン: トラフィック分析、パフォーマンス監視、セキュリティ分析(不審なアクセス元、攻撃パターン特定)、ユーザー行動分析。
-
Firewall Events logs (firewall_events):
- Cloudflareファイアウォール機能(WAF、レート制限、IP/国ブロック、User Agentブロックなど)によって発生したイベントに特化したログ。
- 主なフィールド: Ray ID, Client IP, Rule ID, Action (block, challenge, log, etc.), Matched rule details, Firewall ID, Source (WAF, Rate Limiting, etc.), Timestamp など。
- 活用シーン: セキュリティ監視、WAFチューニング、攻撃パターンの把握、セキュリティインシデント調査。
-
Audit Logs (audit_logs):
- Cloudflareアカウントレベルで行われた設定変更やアクションに関するログ。
- 主なフィールド: Actor (実行ユーザー/APIキー), Action (e.g.,
zone:settings:update
), Resource (対象リソース), Timestamp, IP Address (実行元のIP), Metadata (変更内容の詳細) など。 - 活用シーン: コンプライアンス、セキュリティ監査、設定変更の追跡、不正な変更の検出。
-
Network Analytics logs (net_analytics_logs):
- L3/L4層のネットワークトラフィックに関するログ。DDoS攻撃緩和などに関連します。
- 主なフィールド: Protocol, Source/Destination IP/Port, Traffic volume, DDoS mitigation details など。
- 活用シーン: L3/L4 DDoS攻撃の分析、ネットワークトラフィックパターンの把握。
-
Worker Traces logs (worker_traces):
- Cloudflare Workersの実行に関する詳細なトレースログ。
- 主なフィールド: Worker Name, Script Name, Request details, Response details, Logs from
console.log
, Errors, Duration, Subrequests details など。 - 活用シーン: Workersのデバッグ、パフォーマンス分析、エラー監視、Workers内部のロギング。
-
Access Requests logs (access_requests):
- Cloudflare Accessによって保護されたリソースへのアクセス試行に関するログ。
- 主なフィールド: User Identity (メールアドレスなど), Decision (allow/block), Timestamp, Policy Details, Application details, Device posture details など。
- 活用シーン: ゼロトラストセキュリティモデルにおけるアクセス監査、アクセスポリシー遵守状況の確認。
-
Bot Management Logs (bot_management):
- Cloudflare Bot Management機能によって検出・処理されたボットトラフィックの詳細ログ。
- 主なフィールド: Ray ID, Client IP, Bot Score, Bot Fight Mode status, Action (block, managed_challenge, etc.), Bot type (verified, likely_automated, etc.) など。
- 活用シーン: ボットトラフィックの分析、悪意のあるボット活動の特定、ボット対策の効果測定。
-
Load Balancing Logs (load_balancing):
- Cloudflare Load Balancingによって分散されたトラフィックに関するログ。
- 主なフィールド: Ray ID, Selected Origin, Failover details, Health check status, Load balancing decision details など。
- 活用シーン: ロードバランシングの効果測定、オリジンの健全性監視、フェイルオーバー発生時の原因分析。
-
DNS Logs (dns_logs):
- Cloudflare DNSによって処理されたDNSクエリに関するログ。
- 主なフィールド: Query Name, Query Type, Client IP, Response IP, Resolver IP, DNSSEC validation status, Response time など。
- 活用シーン: DNSトラフィック分析、異常なDNSクエリの検出、DDoS攻撃の分析(DNSフラッドなど)。
-
Spectrum Logs (spectrum_events):
- Cloudflare SpectrumによってプロキシされたTCP/UDPトラフィックに関するログ。
- 主なフィールド: Protocol, Source/Destination IP/Port, Bytes transferred, Spectrum application details, DDoS mitigation status など。
- 活用シーン: 非HTTPトラフィック(SSH、RDP、ゲームサーバーなど)の監視、DDoS攻撃緩和の分析。
-
API Gateway Logs (api_gateway):
- Cloudflare API Gatewayによって処理されたAPIリクエストに関するログ。
- 主なフィールド: Ray ID, Client IP, Request URL, API Gateway rules applied, Authentication/Authorization status, Rate limiting details など。
- 活用シーン: API利用状況の分析、APIセキュリティポリシーの効果測定、不正なAPI利用の検出。
-
WAF Attack Logs (waf_attacks):
- WAF managed rules, custom rules, rate limiting rulesによって検出された攻撃に関するログ。firewall_eventsよりも詳細な攻撃シグネチャ情報を含む場合があります。
- 主なフィールド: Ray ID, Client IP, Rule ID, Action, Pattern matched, Attack type など。
- 活用シーン: WAFの効果測定、攻撃手法の分析、脆弱性スキャンや攻撃試行の検出。
-
Page Shield Logs (page_shield_events):
- Cloudflare Page Shieldによって検出された、Webサイトのクライアントサイドで実行されるスクリプトに関するログ。
- 主なフィールド: Page URL, Script URL, Script Hash, Script Source (inline, external), Action (report, block), Policy details, Timestamp など。
- 活用シーン: クライアントサイド攻撃(スキミング、改ざん)の検出、許可されていないスクリプトの特定、CSP (Content Security Policy) の適用状況確認。
-
CASB Logs (casb_events):
- Cloudflare CASB (Cloud Access Security Broker) 機能によって検出されたSaaSアプリケーションに関するイベントログ。
- 主なフィールド: SaaS Application (Google Workspace, Microsoft 365など), User, Event Type (file sharing, login failureなど), Severity, Details of the event など。
- 活用シーン: SaaS利用状況の監視、データ漏洩リスクの検出、不正なアクティビティの監視。
-
DDoS Attack Logs (ddos_attacks):
- Cloudflareの高度なDDoS緩和システムによって検出・緩和された攻撃に関する詳細ログ(L3/L4とL7の両方)。
- 主なフィールド: Protocol, Source/Destination IP/Port, Attack Vector, Mitigation Action, Traffic Volume, Attack Start/End Timestamps など。
- 活用シーン: DDoS攻撃の詳細分析、攻撃元の特定、緩和の効果測定。
-
Account Logs (account_logs):
- Cloudflareアカウント全体に関連するログ(Zone Logpushでは取得できない、より広範なログ)。Logpush for Accountsで利用可能です。
- 主なフィールド: Audit Logs, Billing Logs, Workers Usage Logs, Certificate Logs など、アカウントレベルで発生する様々なイベントログ。
- 活用シーン: アカウント全体のリソース利用状況の把握、請求額の内訳分析、アカウント設定の監査。
上記以外にも、Health Check Logs, SSL/TLS Recommender Logs, Magic Transit Logs, Magic Firewall Logsなど、Cloudflareが提供する様々なサービスに関連するログタイプがLogpushに対応しています。対応するログタイプは常に進化しているため、最新の情報はCloudflare公式ドキュメントを確認することが重要です。
対応プランと料金体系
Cloudflare Logpushは、通常、Enterpriseプランで提供される機能です。一部のログタイプや機能(例:Logpush for Accounts)は、特定のエンタープライズ契約でのみ利用可能な場合があります。BusinessプランでもLogs APIは利用できますが、Logpushのような自動プッシュ機能は制限されることが多いです。
Logpush自体の料金は、契約プランに含まれている場合や、転送量に応じて課金される場合があります。しかし、一般的にはCloudflareへの支払い以外に、ログを転送する先のストレージサービスやSIEMにかかる料金(ストレージ容量、取り込み量、データ転送量など)が主なコストとなります。これらの費用は、選択した出力先、ログの量、保持期間によって大きく変動するため、事前に見積もりを行う必要があります。
3. Cloudflare Logpushの機能と特徴:データを最大限に活用するためのオプション
Cloudflare Logpushは単にログを転送するだけでなく、収集・転送プロセスを最適化し、後続の分析を容易にするための様々な機能を提供しています。
自動化されたログ転送
一度Logpushジョブを設定すれば、Cloudflareは継続的にログを収集し、設定された宛先へ自動的にプッシュします。手動でのログダウンロードやAPIポーリングスクリプトの実行は不要になります。これにより、運用負荷を大幅に軽減し、ログ収集漏れのリスクを低減できます。
豊富なログフィールド
各ログタイプは非常に詳細な情報を含む多数のフィールドを提供します。例えば、HTTP Requests logsには数十から百以上のフィールドが含まれることがあります。これらのフィールドを組み合わせることで、特定の条件に合致するリクエストを絞り込んだり、様々な角度からトラフィックの挙動を分析したりすることが可能になります。前述のログタイプ説明で触れたフィールドは、ごく一部の例に過ぎません。公式ドキュメントでは、各ログタイプで利用可能な全フィールドとその説明が詳細にリストアップされています。
多様な出力先 (Destinations)
Cloudflare Logpushは、業界標準の様々なストレージサービスやSIEMツールへの出力をサポートしています。これにより、お客様は既に利用しているインフラや使い慣れた分析ツールにCloudflareログを取り込むことができます。主要な出力先は以下の通りです(対応状況は常に変化する可能性があります)。
-
オブジェクトストレージ:
- Amazon S3: AWSのマネージドオブジェクトストレージ。安価で耐久性が高く、データレイクの構築や長期保存に適しています。AWS Lambda, Athena, EMRなど、AWSエコシステムの他のサービスとの連携が容易です。
- Google Cloud Storage (GCS): Google Cloudのオブジェクトストレージ。S3と同様に、データレイクや長期保存に適しており、BigQueryやDataflowなどGCPのサービスと連携できます。
- Microsoft Azure Blob Storage: Azureのオブジェクトストレージ。Azure Data Lake AnalyticsやAzure Synapse Analyticsなど、Azureの分析サービスと連携できます。
- Cloudflare R2 Storage: Cloudflareが提供するオブジェクトストレージ。Cloudflareプラットフォーム内でデータ保存が完結し、データ転送費用が発生しないことが大きな利点です。
-
SIEM/ログ管理プラットフォーム:
- Splunk: エンタープライズ向けのSIEMプラットフォーム。ログの収集、検索、分析、可視化、アラート、相関分析に特化しています。HTTP Event Collector (HEC) を通じてログを取り込みます。
- Sumo Logic: クラウドベースのログ管理およびセキュリティ分析プラットフォーム。ログとメトリクスの一元管理と分析を提供します。
- Datadog: 監視・分析プラットフォーム。ログ管理機能も提供しており、インフラ、アプリケーション、ログ、セキュリティイベントなどを統合して監視・分析できます。
- Logz.io: ELKスタック(Elasticsearch, Logstash, Kibana)をベースとしたクラウドログ管理・分析プラットフォーム。
- New Relic: APM (Application Performance Monitoring) を中心としたオブザーバビリティプラットフォーム。ログ管理機能も提供しています。
-
データウェアハウス/分析サービス:
- Google BigQuery: Google Cloudのフルマネージドなペタバイトスケールデータウェアハウス。Logpushから直接BigQueryテーブルにログを取り込むことができます。大規模なログデータの高速クエリと分析に適しています。
- Elasticsearch (Managed/Cloud): Elastic Stackのコアコンポーネント。ログの検索、分析、可視化に優れており、Kibanaと組み合わせて利用されます。AWS OpenSearch ServiceやElastic Cloudなどのマネージドサービスへのプッシュも可能です。
- Microsoft Azure Sentinel: クラウドネイティブなSIEMおよびSOAR (Security Orchestration, Automation, and Response) ソリューション。Azure Blob Storage経由または他の取り込み方法でCloudflareログを取り込み、セキュリティ分析に活用できます。
-
ストリーミングプラットフォーム:
- Kafka: 分散ストリーミングプラットフォーム。大量のログデータをリアルタイムに近い形で複数のコンシューマーに配信するパイプラインの中継地点として利用できます。
- HTTP Endpoint: カスタムで構築したWebサービスエンドポイントにHTTP POSTリクエストとしてログをプッシュできます。これにより、独自のログ処理システムや、Cloudflareが公式にサポートしていない特定のサービスへの連携が可能になります。
-
その他:
- Honeycomb: オブザーバビリティプラットフォーム。
- Loki: Prometheusのエコシステムと統合されたログ集約システム。
各出力先には、設定時に必要な認証情報(APIキー、アクセスキー、バケット名、エンドポイントURLなど)があります。これらの認証情報は安全に管理する必要があります。
データフォーマット
Logpushは複数の出力フォーマットをサポートしています。
- JSON (Newline-delimited JSON): 各ログレコードが独立したJSONオブジェクトとして1行に記録される形式。最も一般的で、多くのログ処理ツールや分析システムで容易にパースできます。フィールド名と値がペアで含まれるため、後からスキーマ変更が発生しても比較的影響が少ないという利点があります。
- CSV (Comma Separated Values): カンマ区切りのテキスト形式。スプレッドシートでの簡単な確認や、一部の分析ツールでの利用に適しています。ただし、含まれるフィールドは固定され、ログによっては特定のフィールドが欠落する可能性があるため、注意が必要です。
- Parquet: 列指向のデータストレージフォーマット。大規模なデータセットの分析クエリにおいて、I/O効率とクエリパフォーマンスに優れています。特にオブジェクトストレージに保存し、AthenaやBigQueryなどの分析エンジンでクエリする場合に適しています。データ量はJSONやCSVよりも圧縮される傾向があります。
どのフォーマットを選択するかは、ログの利用目的、下流の分析システムのサポート状況、ストレージコストなどを考慮して決定します。一般的には、柔軟性と互換性の高さからJSON、大規模分析における効率からParquetがよく利用されます。
データ分割 (Partitioning)
Logpushは、出力ファイルを時間ベースで分割します。例えば、5分ごと、1時間ごとなどのバッチとしてファイルを作成し、プッシュします。これにより、個々のファイルサイズが管理可能な範囲に収まり、下流のシステムでの処理が容易になります。ファイル名は通常、ログタイプ、ゾーンID、タイムスタンプ、バッチIDなどを含んでおり、時系列での整理や検索を助けます。
オブジェクトストレージに出力する場合、パス構造を時間ベースで設計すること(例: bucket-name/http_requests/zone_id/year/month/day/hour/filename.json.gz
)が、データ分析におけるパーティショニングプルーニング(不要な時間範囲のデータをスキャンしないようにする最適化)に役立ちます。
フィルタリング (Filtering)
Logpushでは、特定の条件に合致するログレコードのみを転送するようにフィルタリングを設定できます。例えば:
- 特定のHTTPステータスコード(例: 5xxエラーのみ)
- 特定の国からのアクセス
- 特定のIPアドレスまたはIP範囲
- 特定のホスト名またはURLパス
- 特定のUser Agent
- 特定のCloudflare機能(例: WAFによってブロックされたリクエストのみ)
フィルタリングを活用することで、興味のあるデータだけを収集し、ログの総量を削減できます。これはストレージコスト、データ転送コスト、そして下流システムでの処理・分析コストを削減する上で非常に効果的です。また、必要なデータだけを分析パイプラインに流すことで、分析の効率も向上します。
サンプリング (Sampling)
大量のログデータを全て分析する必要がない場合、サンプリングを設定してログの一部のみを転送できます。例えば、サンプリングレートを0.1%に設定した場合、リクエスト全体の0.1%にあたるログレコードのみがランダムに選択され、転送されます。
サンプリングは、データ量が極めて多い場合に、コストと分析リソースを大幅に削減するための強力な手段です。ただし、サンプリングされたデータは全体の傾向を示すのに役立ちますが、発生頻度の低い特定のイベント(例: 特定のIPからの攻撃試行)を見落とす可能性があるというトレードオフがあります。詳細なインシデント調査など、網羅性が必要な場合はサンプリングを無効にするか、低い割合に設定する必要があります。
フィールドの選択 (Field Selection)
各ログタイプに含まれる多数のフィールドの中から、転送したいフィールドを明示的に選択できます。不要なフィールドを除外することで、個々のログレコードのサイズを小さくし、ログの総量を削減できます。これは、ストレージコストと転送コストの削減に加えて、下流システムでのデータの読み込み・パース・処理の効率化にも繋がります。
どのようなフィールドが必要かは、Logpushデータをどのような目的で分析・活用するかによって異なります。例えば、セキュリティ分析が主目的であれば、Ray ID, Client IP, Request URL, WAF Action, Firewall Matches, Bot Scoreなどのフィールドが重要になります。パフォーマンス分析であれば、Edge/Origin Timestamps, Cache Status, HTTP Status Codeなどが重要です。
データ圧縮
Logpushは、転送するログファイルをgzip形式で圧縮するオプションをサポートしています。これにより、ファイルサイズを大幅に削減できます。圧縮されたファイルは、ストレージ容量を節約し、データ転送時間を短縮し、転送コスト(データ転送量に基づく課金がある場合)を削減するのに役立ちます。多くの分析ツールやストレージサービスはgzip圧縮されたファイルを直接読み込むことができるため、圧縮によるデメリットはほとんどありません。
信頼性と耐久性
Logpushサービスは、ログの欠損を防ぐための仕組みを備えています。例えば、宛先へのプッシュが一時的に失敗した場合、Cloudflareは設定された期間内(例: 数時間または数日)にわたってプッシュをリトライします。これにより、ネットワーク障害や宛先システムの一時的な問題が発生しても、ログデータが失われるリスクを最小限に抑えることができます。リトライ期間を超えてもプッシュが成功しない場合は、アラートが通知される仕組みもあります。
設定方法
Logpushジョブの設定は、Cloudflareダッシュボードの直感的なUIから簡単に行えます。ログタイプ、出力先、認証情報、各種オプション(フォーマット、圧縮、フィルタリング、サンプリング、フィールド選択)を選択し、テスト実行で設定を確認してからジョブを有効化します。
より高度な設定や自動化が必要な場合は、Cloudflare APIを利用してLogpushジョブを作成・管理することも可能です。これは、多数のゾーンを持つアカウントで一元的なログ収集設定を行いたい場合や、Infrastructure as Code (IaC) のワークフローにLogpush設定を組み込みたい場合に有用です。
4. Cloudflare Logpushの導入と設定:実践的なステップ
Cloudflare Logpushの導入と設定は、主に以下のステップで行います。ここではダッシュボードからの設定を例に説明します。
ステップ1:前提条件の確認
- Cloudflareプラン: Logpushが利用可能なEnterpriseプランまたは適切な契約をしていることを確認します。
- 出力先の準備: ログを転送する先のストレージサービス(S3, GCS, Azure Blob, R2など)またはSIEM/分析プラットフォームのアカウントと、必要なリソース(バケット、トピック、HTTPエンドポイントなど)が準備済みであることを確認します。また、Cloudflare Logpushがその宛先にアクセスするための認証情報(アクセスキー、IAMロールARN、SASトークン、HECトークンなど)を払い出しておく必要があります。これらの認証情報は、Logpush設定時に入力するため、安全に保管しておきます。
- 必要な権限: CloudflareアカウントまたはZoneに対するLogpush設定権限が必要です。
ステップ2:Logpushジョブの作成を開始
- Cloudflareダッシュボードにログインします。
- 対象となるゾーンを選択します(アカウント全体のログをプッシュしたい場合は、アカウントレベルの設定に移動します – Logpush for Accounts)。
- 左側のナビゲーションメニューで「Analytics & Logs」または「Logs」などの項目を探し、「Logpush」を選択します。
- 「Create a Logpush job」または同様のボタンをクリックします。
ステップ3:ログタイプを選択
転送したいログタイプを選択します。前述の「対応するログの種類」リストから、必要に応じて1つまたは複数のログタイプを選択できます。複数のログタイプを同じ宛先に送ることも、異なる宛先に送ることも可能です。
ステップ4:出力先を選択して認証情報を入力
利用可能な出力先の中から、事前に準備した宛先を選択します。選択した出力先に応じて、認証情報や接続情報(例: バケット名、リージョン、パス、エンドポイントURL、認証キーなど)の入力が求められます。入力フィールドは出力先によって異なりますので、画面の指示に従い、準備しておいた認証情報を正確に入力します。オブジェクトストレージの場合、Cloudflareにバケットへの書き込み権限を付与する必要があります(IAMロールやサービスプリンシパルを利用するのが推奨される方法です)。
ステップ5:データフォーマットとオプションを設定
- データフォーマット: JSON, CSV, Parquetの中から選択します。
- 圧縮: ログファイルをgzip圧縮するかどうかを選択します。通常は有効にすることが推奨されます。
- 分割: ファイルの分割設定(例: 5分ごと、1時間ごと)を確認します。これはログタイプや宛先によって固定されている場合や、設定可能な場合があります。
- フィルタリング (Optional): 必要に応じて、フィルタリング条件を設定します。ドロップダウンメニューや入力フィールドを使って、HTTPステータスコード、国、IPアドレスなどの条件を指定します。複数の条件をAND/ORで組み合わせることも可能です。
- サンプリング (Optional): 全体の何%のログを転送するか、サンプリングレート(例: 0.1, 1, 100)を設定します。100でサンプリングなし(全量転送)です。
- フィールドの選択 (Optional): 転送したいフィールドをリストから選択します。デフォルトでは全てのフィールドが選択されていることが多いですが、不要なフィールドのチェックを外すことでデータ量を削減できます。
ステップ6:設定のテストと確認
設定した内容でログが正しくプッシュされるかテストを行います。「Test Destination」または同様のボタンをクリックすると、Cloudflareはテスト用のログファイルを生成し、設定した宛先にプッシュします。
テストが成功した場合、設定した宛先(例: S3バケット)にテストファイルが作成されていることを確認できます。テストが失敗した場合は、認証情報や設定に誤りがないか確認し、再度テストを行います。
ステップ7:ジョブの作成と有効化
テストが成功し、設定内容に問題がなければ、「Create job」または同様のボタンをクリックしてLogpushジョブを作成し、有効化します。ジョブが有効になると、Cloudflareは設定に従ってログの収集とプッシュを開始します。
設定後の監視と管理
Logpushジョブ作成後も、ダッシュボード上でジョブのステータスを監視することが重要です。ログのプッシュが正常に行われているか、エラーが発生していないか、遅延が発生していないかなどを確認できます。宛先サービス側でも、ログファイルが到着しているか、処理が正常に行われているかを確認します。
必要に応じて、既存のLogpushジョブを編集して設定を変更したり、一時停止したり、削除したりすることも可能です。
5. Cloudflare Logpushの活用例とユースケース:ログデータを価値ある情報へ変える
Cloudflare Logpushによって収集されたログデータは、様々な分野で強力なインサイトを提供し、ビジネス価値を生み出すことができます。以下に主要な活用例とユースケースを挙げます。
セキュリティ分析と脅威ハンティング
- 攻撃の検出と分析: HTTP Requests logsやFirewall Events logsを分析することで、DDoS攻撃、Webアプリケーション攻撃(SQLi, XSS)、ボットによる悪意のある活動、脆弱性スキャンなどを検出できます。特定のIPからの大量アクセス、異常なリクエストパターン、WAFブロックイベントなどを可視化し、アラートを設定することで、攻撃発生時に迅速に対応できます。WAF Attack Logsは、検出された攻撃手法の詳細を提供し、防御態勢の改善に役立ちます。
- インシデントレスポンス: セキュリティインシデント発生時(例: Webサイトの改ざん、不正アクセス)、詳細なログを時系列で追跡することで、攻撃の経路、使用された手法、影響範囲などを正確に特定できます。Ray IDをキーとして、HTTPリクエスト、ファイアウォールイベント、Worker実行ログなどを関連付けて調査することが可能です。
- 脅威ハンティング: 既知または未知の脅威指標(IoC: Indicator of Compromise)に基づいてログデータを検索し、組織への攻撃試行や侵入の痕跡を発見します。例えば、特定の悪意のあるUser Agentや、過去の攻撃で使われたIPアドレスからのアクセスを検索します。
- Botトラフィックの可視化: Bot Management Logsを利用して、ボットトラフィックの割合、ボットの種類(正当なボット、悪意のあるボットなど)、およびCloudflareのボット対策がどのように機能しているかを詳細に分析できます。
- アカウント活動の監視: Audit Logsを分析して、Cloudflareアカウントに対する不審な設定変更や管理者権限の利用を監視し、内部犯行やアカウント乗っ取りのリスクを低減します。Logpush for Accountsを利用すれば、組織全体のアカウント活動を包括的に監視できます。
- クライアントサイドセキュリティ: Page Shield Logsを活用し、ウェブサイト上で実行されるサードパーティ製JavaScriptなどの挙動を監視します。許可されていないスクリプトの実行や、DOM要素への不正なアクセスなどを検出し、スキミング攻撃や改ざんからユーザーを保護します。
パフォーマンス分析と最適化
- Webサイトパフォーマンスの監視: HTTP Requests logsに含まれるEdgeStartTimestamp, EdgeEndTimestamp, OriginStartTimestamp, OriginEndTimestampなどのフィールドを分析することで、Cloudflareエッジでの処理時間、オリジンサーバーへの接続時間、オリジンサーバーの応答時間などを詳細に測定できます。これにより、パフォーマンスのボトルネックがCloudflare側にあるのか、オリジンサーバー側にあるのかを特定できます。
- キャッシュヒット率の分析: Cache Cache Statusフィールドを確認することで、Cloudflareキャッシュがどれだけ効果的に機能しているかを把握できます。キャッシュヒット率が低いURLやリソースを特定し、キャッシュ設定を最適化することで、オリジンサーバーの負荷を軽減し、ユーザーへの応答時間を短縮できます。
- 地理的パフォーマンス: Client Countryフィールドと応答時間のメトリクスを組み合わせることで、特定の国や地域からのアクセスが遅いといった地理的なパフォーマンスの問題を特定できます。これは、CDNの最適化や追加のエッジロケーション検討に役立ちます。
- Workersパフォーマンス: Worker Traces logsを分析することで、Workersスクリプトの実行時間、エラー発生率、リソース消費などを詳細に把握し、Workersのパフォーマンスチューニングやエラー原因特定に役立てることができます。
- オリジンサーバーの健全性: HTTP Status Codeフィールドとオリジン応答時間を見ることで、オリジンサーバーのエラー発生状況や負荷状況を監視できます。特に5xxエラーの急増は、オリジンサーバーに問題が発生しているサインである可能性が高いです。
運用監視とトラブルシューティング
- トラフィック傾向の把握: HTTP Requests logsを時系列で集計することで、総リクエスト数、帯域幅、特定のURLへのアクセス数など、トラフィックの傾向を詳細に把握できます。これにより、プロモーションの効果測定、ピーク時間の特定、リソース計画に役立てられます。
- エラー監視とアラート: HTTP Status Codeが4xx(クライアントエラー)や5xx(サーバーエラー)のリクエストをフィルタリングし、エラー率を監視することで、Webサイトやアプリケーションで発生している問題を早期に検知できます。SIEMなどと連携して、特定のエラー率が閾値を超えた場合にアラートを生成できます。
- Workersのデバッグと監視: Worker Traces logsに出力される
console.log
の内容やエラー情報を確認することで、Workersスクリプトのデバッグや本番環境での挙動監視を効率的に行えます。 - Load Balancerの挙動確認: Load Balancing Logsを利用して、トラフィックがどのオリジンにルーティングされたか、フェイルオーバーが発生したか、ヘルスチェックの結果などを確認し、Load Balancerの設定やオリジンサーバーの健全性を監視できます。
- DNSの問題特定: DNS Logsを分析することで、特定のドメインに対するDNSクエリのパターン、応答時間、エラー率などを確認し、DNS設定の問題やDNSフラッド攻撃などを特定できます。
ビジネスインテリジェンス (BI)
- ユーザー属性と行動分析: Client Country, User Agent, Referer, Request URLなどのフィールドを分析することで、ユーザーがどこからアクセスし、どのようなデバイスやブラウザを使用し、どのページをよく見ているかなどのインサイトを得られます。これらの情報は、コンテンツ戦略、ターゲティング、ユーザー体験改善に役立ちます。
- マーケティング効果測定: 特定のキャンペーンや参照元からのアクセスをフィルタリングして分析することで、マーケティング活動の効果を測定できます。
- API利用状況分析: API Gateway Logsを利用して、どのユーザー(APIキー)、どのエンドポイントがどの程度利用されているか、エラー率はどうかなどを分析し、APIの利用状況や収益化に関する意思決定に役立てられます。
コンプライアンスと監査
- ログの長期保存: 法規制や業界標準(例: PCI DSS、HIPAA、GDPRなど)によって要求されるログの保存期間に合わせて、Logpushで収集したログを独自のストレージに長期保存できます。
- 監査証跡: Audit Logs、HTTP Requests logs、Firewall Events logsなどは、セキュリティ監査やコンプライアンス遵守状況を確認するための重要な証拠となります。Logpushによってこれらのログを収集・管理することで、監査対応を効率化できます。
6. Logpushを利用する上での考慮事項とベストプラクティス:成功のためのヒント
Logpushを効果的に活用するためには、いくつかの重要な考慮事項とベストプラクティスがあります。
コスト管理
Logpush自体の料金(プランによる)に加えて、最も大きなコスト要因はログの出力先に発生する費用です。
- ストレージコスト: 収集するログの量と保持期間に応じて、オブジェクトストレージなどの容量コストが発生します。適切なフィルタリング、サンプリング、フィールド選択、圧縮によってデータ量を削減することが重要です。
- データ取り込みコスト: SIEMやログ分析プラットフォームによっては、取り込むデータ量(ギガバイト単位など)に基づいて課金されます。ここでもデータ量の削減がコスト削減に直結します。
- データ転送コスト: Cloudflareから出力先へのデータ転送に費用が発生する場合があります(特に異なるクラウドプロバイダー間の場合)。Cloudflare R2 Storageのように、Cloudflareプラットフォーム内で完結するストレージを利用すると、データ転送コストを大幅に削減できる可能性があります。
- 分析コスト: 収集したログを分析するために、データベース、分析エンジン、可視化ツールなどにかかるコストも考慮が必要です。効率的なデータフォーマット(例: Parquet)の選択や、パーティショニングされたデータ構造は、分析コスト削減に役立ちます。
ベストプラクティス:
* 本当に必要なログタイプ、フィールド、フィルタリング条件を慎重に検討する。
* データ量を削減するために、サンプリング(許容できる場合)やフィルタリングを積極的に活用する。
* 出力先の料金体系を理解し、コスト効率の良いストレージや分析プラットフォームを選択する。
* Cloudflare R2 Storageなど、コストメリットの高い出力先を検討する。
* 定期的にログの量とコストを監視し、必要に応じてLogpush設定を調整する。
データ量と処理能力
Cloudflareから出力されるログデータは膨大になる可能性があります。特にトラフィックの多いWebサイトやアプリケーションの場合、1日に数百ギガバイト、あるいは数テラバイトに達することもあります。この大量のデータを下流のシステムで効率的に処理・保存・分析できるか、事前に計画が必要です。
ベストプラクティス:
* 出力先のストレージやSIEMシステムが、予想されるログデータ量を処理できるキャパシティとパフォーマンスを持っていることを確認する。
* データレイクアーキテクチャを採用し、生データを安価なストレージに保存した後、必要に応じて変換・処理・分析を行うパイプラインを構築する。
* Apache Spark, Presto/Trino, AWS Athena, Google BigQueryなどの分散処理・分析エンジンを利用して、大規模データセットのクエリパフォーマンスを向上させる。
* ログデータを時間ベースやログタイプベースで適切にパーティショニングする。
セキュリティと認証情報管理
LogpushはCloudflareの機密性の高いログデータを外部システムに転送するため、セキュリティは最優先事項です。
ベストプラクティス:
* Logpushが宛先にアクセスするための認証情報は、最小限の権限(ログファイルの書き込みのみなど)が付与されたものを使用する。
* AWS IAMロールやAzure Service Principalなど、一時的な認証情報や役割ベースのアクセス制御を利用し、長期的なアクセスキーの使用を避ける。
* 認証情報は安全に管理し、Logpush設定時以外は露出しないようにする。
* 出力先のストレージバケットやSIEMシステムへのアクセス制御を厳格に行い、必要なユーザーやシステムのみがログデータにアクセスできるようにする。
* 可能であれば、プライベートリンクやVPN接続など、セキュアなネットワーク経由でログを転送するオプションを検討する(一部の出力先でサポート)。
監視とアラート
Logpushジョブが正常に実行されているか、継続的に監視することが重要です。ログのプッシュ遅延や失敗は、後続の分析パイプラインに影響を与え、セキュリティや運用上の問題を見落とす可能性があります。
ベストプラクティス:
* CloudflareダッシュボードでLogpushジョブのステータスを定期的に確認する。
* Logpushジョブのエラーや遅延に関する通知(メール、Webhookなど)を設定し、問題発生時に即座に把握できるようにする。
* 出力先側でも、ログファイルが期待通りに到着しているか、ファイルサイズや数に異常がないかを監視する。
* エンドツーエンドでログパイプラインの遅延を測定・監視する仕組みを構築する。
データスキーマの変更への対応
Cloudflareは、新しい機能の追加やログに含まれる情報の拡充に伴い、ログデータのスキーマ(フィールド構成)を変更または追加する可能性があります。下流の分析システムが特定のスキーマに依存している場合、これらの変更によってシステムが機能しなくなる可能性があります。
ベストプラクティス:
* ログデータのパース処理を柔軟に設計し、未知のフィールドが含まれていてもエラーにならないようにする。
* Cloudflareからのスキーマ変更に関する通知に注意を払い、下流システムへの影響を評価し、必要に応じてシステムを更新する準備をしておく。
* スキーマ管理ツールやスキーマオンリード(データを読み込む際にスキーマを定義する)のアプローチを採用する。
出力先の選定
どの出力先を選択するかは、ログの量、利用目的、予算、既存のITインフラ、チームのスキルセットなど、様々な要因によって決まります。
ベストプラクティス:
* 長期保存/データレイク: S3, GCS, Azure Blob, R2のようなオブジェクトストレージは、安価で耐久性が高く、大量データの保存に適しています。後から様々な分析ツールで活用することを想定する場合に最適です。
* リアルタイム/ニアリアルタイム分析・監視: Splunk, Datadog, Sumo Logic, ElasticsearchなどのSIEM/ログ分析プラットフォームは、ログの高速検索、可視化、アラート機能に優れています。セキュリティ監視や運用監視が主目的の場合に適しています。
* 大規模データウェアハウス分析: BigQueryは、ペタバイトスケールのデータに対する高速なSQLクエリ実行に適しています。BI目的や、HTTPリクエストログ全体に対する集計分析を行いたい場合に有力な選択肢です。
* カスタム処理: HTTP EndpointやKafkaは、ログデータに対して独自のリアルタイム処理や複雑な変換を行いたい場合に柔軟性を提供します。
複数の目的がある場合は、複数のLogpushジョブを設定し、異なるログタイプや同じログタイプでも異なるフィルタリング/サンプリング設定で、複数の宛先にプッシュすることも可能です。例えば、全てのHTTPリクエストログをS3に保存しつつ、5xxエラーログやWAFブロックログだけをフィルタリングしてSIEMにリアルタイムでプッシュするといった運用が考えられます。
ログ活用パイプラインの構築
Logpushはログを宛先にプッシュする部分を担当しますが、その後のログの保存、変換、分析、可視化、アラート生成といったプロセスは、お客様のシステムで構築する必要があります。
ベストプラクティス:
* Logpushで受け取ったファイルをどのように保存し、どのくらいの期間保持するかを計画する。
* 必要に応じて、ログデータを分析に適した形式に変換する処理(例: ETL/ELTパイプライン)を構築する。
* ログデータを分析・可視化するためのツール(Kibana, Grafana, Tableau, 分析クエリツールなど)を選定し、設定する。
* 重要なセキュリティイベントや運用上の問題に関するアラートを設定する仕組み(SIEMのアラート機能、監視ツールのルール設定など)を構築する。
法的・規制要件への対応
ログデータの収集、保存、利用には、個人情報保護法(GDPR, CCPA, 日本の個人情報保護法など)や業界規制(PCI DSS, HIPAAなど)への対応が必要になる場合があります。
ベストプラクティス:
* ログデータに含まれる個人情報や機密情報を特定し、適切な匿名化や仮名化の処理を検討する。
* ログの保存期間に関する規制要件を満たしているか確認する。
* ログデータへのアクセス制御や監査証跡の確保に関する規制要件を満たしているか確認する。
* Logpushのフィルタリング機能を利用して、コンプライアンス上問題となる可能性のある特定の情報を転送しないようにする(ただし、必要な監査情報を削除しないよう注意が必要)。
7. Cloudflare Logs APIとの比較:Logpushの立ち位置
Cloudflare Logpushは、Cloudflareが提供するログアクセスの方法の一つですが、Logs APIという別の方法も存在します。それぞれの特徴を理解し、目的やユースケースに応じて適切な方を選択することが重要です。
Cloudflare Logs API
Logs APIは、Cloudflareが提供するRESTful APIを通じて、プログラムからログデータを「プル」するための機能です。指定した期間のログデータをAPIリクエストで取得できます。
- 特徴:
- APIリクエストに応じてログデータを返却するプル型。
- 短期間のログや、特定の条件に合致するログをアドホックに取得するのに適している。
- アプリケーションやスクリプトから直接ログデータを取得し、カスタム処理を行うことが可能。
- 比較的小規模なデータ取得に向いている。
- 課題:
- 大量のログデータを継続的に取得するには、APIポーリング処理を自前で実装・運用する必要があり、システム負荷や運用コストが高い。
- APIリクエスト数やデータ量に制限がある場合がある。
- リアルタイムに近いログ収集には、頻繁なポーリングが必要となり非効率。
Cloudflare Logpush
Logpushは、Cloudflareが設定された宛先にログデータを「プッシュ」する機能です。
- 特徴:
- Cloudflareから外部システムへのプッシュ型。
- 大量のログデータを自動的かつ継続的に収集するのに最適。
- ニアリアルタイムでのログ収集が可能(通常数分以内の遅延)。
- スケーラビリティが高く、ログ量が増加しても安定して収集できる。
- 既存のストレージやSIEMへの統合が容易。
- Logpushジョブの設定・運用はCloudflare側で行われる(ただし、宛先システムの管理は必要)。
- 課題:
- ログデータはバッチで転送されるため、厳密なリアルタイム(ミリ秒単位など)での処理には向かない。
- Logpushがサポートしていない特定の宛先やフォーマットには対応できない。
比較まとめ
特徴 | Cloudflare Logs API | Cloudflare Logpush |
---|---|---|
方式 | プル型 (Pull) | プッシュ型 (Push) |
データ量 | 小規模なデータ、アドホック取得 | 大量データ、継続的な収集 |
リアルタイム性 | 頻繁なポーリングで実現可能(非効率) | ニアリアルタイム(バッチ処理、通常数分以内) |
運用負荷 | 自前で収集スクリプト/システムが必要 | Logpush設定はCloudflareダッシュボード/API |
スケーラビリティ | 限界がある可能性が高い | 大規模なログ量に対応 |
連携先 | API呼び出しが可能なカスタムシステム | 事前定義された多様なストレージ/SIEM |
ユースケース | 短期間の調査、特定条件のデータ取得 | セキュリティ監視、パフォーマンス分析、運用、BI、コンプライアンスのための大規模ログ収集 |
結論として、短期間のログを特定の目的で取得したい場合や、カスタムアプリケーションで柔軟にログを扱いたい場合はLogs APIが適しています。一方、大規模なログデータを継続的に収集し、長期保存、リアルタイムに近い分析、他のシステムとの統合を行いたい場合は、Logpushが圧倒的に優れた選択肢となります。本記事の主題である「膨大なログデータを価値ある情報へ」という目的を達成するためには、Logpushの活用が不可欠と言えるでしょう。
8. まとめと今後の展望
Cloudflare Logpushは、現代の高度なWebセキュリティとパフォーマンスの基盤であるCloudflareから生成される膨大なログデータを、効果的に活用するための強力なサービスです。単にログを収集するだけでなく、多様なログタイプ、豊富なフィールド、柔軟な出力先、そしてフィルタリングやサンプリングといった最適化機能を備えることで、セキュリティ監視、パフォーマンス分析、運用効率化、ビジネスインテリジェンス、コンプライアンスなど、幅広いユースケースに対応します。
Logpushを利用することで、企業はCloudflareのエッジネットワークで何が起きているのかを深く理解し、潜在的な脅威を早期に検知したり、パフォーマンスのボトルネックを特定したり、ユーザーの行動を分析したりすることが可能になります。これは、Webプレゼンスの安全性を高め、ユーザー体験を向上させ、データに基づいた意思決定を行う上で極めて重要です。
今後のCloudflare Logpushは、対応するログタイプのさらなる拡充(Cloudflareの新しいサービスや機能に対応したログの追加)や、より多様な出力先のサポート、そしてより高度なフィルタリングや変換機能の提供といった方向で進化していくことが予想されます。ログデータの重要性が増すにつれて、Logpushのような効率的なログ収集・転送メカニズムの価値はますます高まっていくでしょう。
Logpushの導入は、単にログを収集するだけでなく、それをどのように保存し、処理し、分析し、可視化するかというログ活用パイプライン全体の設計を伴います。適切な出力先の選定、コスト管理、セキュリティ対策、そして継続的な監視体制の構築が、Logpushを成功裏に運用するための鍵となります。
Cloudflare Logpushを最大限に活用することで、Cloudflareの強力な機能が生み出す大量のログデータを、組織にとって真に価値ある情報へと変貌させることができるのです。
9. 参考情報
- Cloudflare Logpush公式ドキュメント: https://developers.cloudflare.com/logs/logpush/
- 各ログタイプのフィールド説明: 公式ドキュメント内の各ログタイプに関するページを参照してください。
- 対応する出力先リストと設定方法: 公式ドキュメント内のDestinationsに関するページを参照してください。
- Logpush for Accounts: https://developers.cloudflare.com/logs/logpush/logpush-for-accounts/
(注: 上記のURLは執筆時点のものです。最新の情報はCloudflare公式ウェブサイトでご確認ください。)
免責事項: 本記事はCloudflare Logpushに関する一般的な情報を提供するものであり、特定の契約プランの内容や料金、対応機能については、Cloudflareとの実際の契約や公式ドキュメントをご確認ください。また、Logpushの設定や利用は、お客様の責任において行ってください。