すべてのプロダクト
Search
ドキュメントセンター

Simple Log Service:区切り文字モードでログを収集する

最終更新日:Aug 18, 2023

Log Serviceでは、区切り文字モードでログを収集できます。 ログの収集後、ログに対してさまざまな操作を実行できます。 たとえば、複数の次元でログを分析し、ログを変換して送信できます。 Logtail設定を作成してログを収集できます。 このトピックでは、Log Serviceコンソールを使用して、区切り文字モードでLogtail設定を作成する方法について説明します。

前提条件

  • プロジェクトと Logstore が作成されていること。 詳細については、「プロジェクトの作成」および「Logstoreの作成」をご参照ください。
  • Logtailがインストールされているサーバーは、リモートサーバーのポート80とポート443に接続できます。
  • ログを収集するサーバーは、継続的にログを生成します。
    重要 Logtailは増分ログのみを収集します。 適用されたLogtail設定がサーバーに配信された後にサーバー上のログファイルが更新されない場合、Logtailはファイルからログを収集しません。 詳細については、「ログファイルの読み取り」をご参照ください。

背景情報

区切り文字モードでは、各ログは区切り文字を使用して複数の値に分割されます。 値のキーを指定する必要があります。 区切り文字モードでは、単一行のログのみを収集できます。 複数行のログを収集する場合は、単純モード-複数行または完全正規表現モードを選択することを推奨します。 詳細については、「シンプルモードでログを収集する」および「フル正規表現モードでログを収集する」をご参照ください。
  • 生ログ
    05/May /2022:13:13:30:28、10.10.* 、"POST /PutData? カテゴリ=YunOsAccountOpLog&AccessKeyId=**************&日付=金 % 2C % 2028% 20Jun % 202013% 2006% 3A53% 3A30% 20GMT&Topic=raw&Signature=******************************** HTTP-1.1" 、200,18204、aliyjava-sdk
  • Log Serviceに収集されたログ
    区切り文字はコンマ (,) に設定されます。 Collect logs in delimiter mode

手順

  1. Log Serviceコンソールにログインします。

  2. [データのインポート] セクションで、[区切り文字モード-テキストログ] をクリックします。
  3. プロジェクトとLogstoreを選択します。 そして、[次へ] をクリックします。
  4. マシングループを作成します。
    • マシングループが利用可能な場合は、[既存のマシングループを使用] をクリックします。
    • 使用可能なマシングループがない場合は、次の手順を実行してマシングループを作成します。 この例では、Elastic Compute Service (ECS) インスタンスが使用されています。
      1. [ECSインスタンス] タブで、[手動でインスタンスを選択] を選択します。 次に、使用するECSインスタンスを選択し、[作成] をクリックします。

        詳細については、「ECSインスタンスへのLogtailのインストール」をご参照ください。

        重要 Log Serviceとは異なるAlibaba Cloudアカウント、データセンター内のサーバー、またはサードパーティのクラウドサービスプロバイダーのサーバーに属するECSインスタンスからログを収集する場合は、Logtailを手動でインストールする必要があります。 詳細については、「LinuxサーバーにLogtailをインストールする」または「WindowsサーバーにLogtailをインストールする」をご参照ください。

        Logtailを手動でインストールした後、サーバーのユーザー識別子を設定する必要があります。 詳細については、「ユーザー識別子の設定」をご参照ください。

      2. Logtailをインストールしたら、[インストールの完了] をクリックします。
      3. [マシングループの作成] ステップで、[名前] パラメーターを設定し、[次へ] をクリックします。

        Log Serviceでは、IPアドレスベースのマシングループとカスタム識別子ベースのマシングループを作成できます。 詳細については、「IPアドレスベースのマシングループの作成」および「カスタム識別子ベースのマシングループの作成」をご参照ください。

  5. [ソースサーバーグループ] から新しいマシングループを選択し、マシングループを [応用サーバーグループ] に移動します。 [次へ] をクリックします。
    重要 マシングループを作成した直後にマシングループを適用すると、マシングループのハートビートステータスがFAILになる可能性があります。 この問題は、マシングループがLog Serviceに接続されていない場合に発生します。 この問題を解決するには、[自動再試行] をクリックします。 問題が解決しない場合は、「Logtailでハートビート接続が検出されない場合の対処方法」をご参照ください。
  6. Logtail設定を作成し、[次へ] をクリックします。
    パラメーター説明
    設定名Logtail設定の名前を入力します。 名前はプロジェクト内で一意である必要があります。 Logtail設定を作成した後、Logtail設定の名前を変更することはできません。

    [その他の構成のインポート] をクリックすると、既存のLogtail構成をインポートできます。

    ログのパスサーバー上のログの場所に基づいて、ログファイルのディレクトリと名前を指定します。
    • Linuxオペレーティングシステムでログパスを指定する場合、パスはスラッシュ (/) で始まる必要があります。 例: /apsara/nuwa/.../app.Log
    • Windowsオペレーティングシステムでログパスを指定する場合、パスはドライブ文字で始まる必要があります。 例: C:\Program Files\Intel\...\*.Log
    正確なディレクトリと正確な名前を指定できます。 ワイルドカード文字を使用して、ディレクトリと名前を指定することもできます。 詳細については、「ワイルドカードの一致」をご参照ください。 Log Serviceは、指定されたディレクトリのすべてのレベルで、指定された条件に一致するログファイルをスキャンします。 例:
    • /apsara/nuwa/**/*.logを指定した場合、Log Serviceは名前にが付いているログファイルからログを収集します。/apsara/nuwaディレクトリとディレクトリの再帰サブディレクトリにログインします。
    • /var/logs/app_*/*.logを指定した場合、Log Serviceは次の条件を満たすログファイルからログを収集します。ファイル名の接尾辞はです。ログを ファイルは、/var/logsディレクトリ下のサブディレクトリ、またはサブディレクトリの再帰サブディレクトリに格納されます。 サブディレクトリの名前は、app_* パターンと一致します。
    • /var/log/nginx/**/access * を指定した場合、Log Serviceは、名前が /var/log/nginxディレクトリのaccessで始まるログファイルと、ディレクトリの再帰的なサブディレクトリからログを収集します。
    説明 このパラメーターを設定すると、アスタリスク (*) または疑問符 (?) のみをワイルドカード文字として使用できます。
    • アスタリスク (*) を使用して、複数の文字を一致させることができます。
    • 疑問符 (?) を使用して、1つの文字を一致させることができます。
    Docker ファイルDockerコンテナからログを収集する場合は、Dockerファイルをオンにして、コンテナのディレクトリとタグを指定する必要があります。 Logtailはコンテナを監視して、コンテナが作成されたか破棄されたかを確認し、タグでコンテナをフィルタリングし、フィルタリング結果のコンテナからログを収集します。 詳細については、「Simple Log Serviceコンソールを使用してDaemonSetモードでコンテナテキストログを収集する」をご参照ください。
    ブラックリスト[ブラックリスト] をオンにする場合は、ブラックリストを設定して、Log Serviceがログを収集するときにスキップするディレクトリまたはファイルを指定する必要があります。 正確なディレクトリとファイル名を指定できます。 ワイルドカード文字を使用して、ディレクトリとファイル名を指定することもできます。 例:
    • [フィルタータイプ] 列のドロップダウンリストから [ディレクトリでフィルターする] を選択し、コンテンツに /home/admin/dir1と入力すると、/home/admin/dir1ディレクトリ内のすべてのファイルがスキップされます。
    • [フィルタータイプ] 列のドロップダウンリストから [ディレクトリでフィルターする] を選択し、[コンテンツ] に /home/admin/dir * と入力すると、/home/admin/ ディレクトリの名前の先頭にdirが付いているすべてのサブディレクトリのファイルがスキップされます。
    • [フィルタータイプ] 列のドロップダウンリストから [ディレクトリでフィルターする] を選択し、コンテンツに /home/admin/*/dirと入力した場合、/home/admin/ ディレクトリの各サブディレクトリにあるすべてのファイルがスキップされます。

      たとえば、/home/admin/a/dirディレクトリのファイルはスキップされますが、/home/admin/a/b/dirディレクトリのファイルはスキップされません。

    • [フィルターの種類] 列のドロップダウンリストから [ファイルでフィルター] を選択し、コンテンツに /home/admin/private *.logと入力した場合、名前の接頭辞がprivate、接尾辞が /home/admin/ ディレクトリへのログインはスキップされます。
    • [フィルタータイプ] 列のドロップダウンリストから [ファイルでフィルター] を選択し、[コンテンツ] に /home/admin/private */*_inner.logと入力した場合、/home/admin/ ディレクトリのプレフィックスがprivateであるサブディレクトリ内の_inner.logという名前のファイルはすべてスキップされます。

      たとえば、/home/admin/private/app_inner.logファイルはスキップされますが、/home/admin/private/app.logファイルはスキップされません。

    説明
    • このパラメーターを設定すると、アスタリスク (*) または疑問符 (?) のみをワイルドカード文字として使用できます。
      • アスタリスク (*) を使用して、複数の文字を一致させることができます。
      • 疑問符 (?) を使用して、1つの文字を一致させることができます。
    • ワイルドカード文字を使用してログパスを設定し、指定したディレクトリ内の一部のディレクトリをスキップする場合は、ブラックリストを設定して完全なディレクトリを入力する必要があります。

      たとえば、ログパス/home/admin/app * /Log /*.logに設定し、/home/admin/app1 * ディレクトリ内のすべてのサブディレクトリをスキップする場合は、[ディレクトリでフィルター] を選択し、/home/admin/app1 */** と入力してブラックリストを設定する必要があります。 /home/admin/app1 * と入力した場合、ブラックリストは有効になりません。

    • ブラックリストが使用されているとき、計算オーバーヘッドが生成される。 ブラックリストには最大10エントリを追加することを推奨します。
    • スラッシュ (/) で終わるディレクトリパスは指定できません。 たとえば、パスを /home/admin/dir1/ に設定した場合、ディレクトリのブラックリストは有効になりません。
    モード収集モードを選択します。 デフォルト値: Delimiter Mode。 モードを変更できます。
    ログのサンプル実際のシナリオから収集されたサンプルログを入力します。 例:
    127.0.0.1 |#|-|#| Apr/2020:09:44:41 + 0800 |#| GET /1 HTTP/1.1 |#| 0.000 |#| 74 |#| 404 |#| 3650 |#|-|#| curl/7.29.0
    Delimiterログ形式に基づいて区切り文字を選択します。 たとえば、区切り文字として垂直バー (|) を選択できます。 詳細については、「Additional information: Delimiters」をご参照ください。
    説明 区切り文字に [非表示文字] を選択した場合、次の形式で文字を入力する必要があります。0 x16進ASCIIコードの印刷不可文字。 たとえば、16進数のASCIIコードが01である印刷不可能な文字を使用する場合は、0x0 1と入力する必要があります。
    Quote区切り文字を含むログフィールドを囲む引用符を選択します。 Log Serviceは、引用符のペアで囲まれたコンテンツを完全なフィールドに解析します。 ログ形式に基づいて見積もりを選択できます。
    説明 引用で非表示文字を選択した場合、次の形式で文字を入力する必要があります。0 x16進ASCIIコードの印刷不可文字。 たとえば、16進数のASCIIコードが01である印刷不可能な文字を使用する場合は、0x0 1と入力する必要があります。
    抽出する内容抽出できるログの内容を指定します。 Log Serviceは、入力したサンプルログに基づいてログコンテンツを抽出し、指定された区切り文字を使用してログコンテンツを値に区切ります。 値ごとにキーを指定する必要があります。

    キーには、英字、数字、およびアンダースコア (_) のみを含めることができ、英字またはアンダースコア (_) で始まる必要があります。 キーの長さは最大128バイトです。

    エントリのアップロードが不完全ログから解析されたフィールドの数が指定されたキーの数より少ない場合、ログをアップロードするかどうかを指定します。 このスイッチをオンにすると、ログがアップロードされます。 それ以外の場合、ログは破棄されます。
    たとえば、区切り文字として縦バー (|) を指定すると、ログ11 | 22 | 33 | 44 | 551122334455のフィールドに解析されます。 キーをABCD、およびEに設定できます。
    • [Incomplete Entry Upload] をオンにすると、ログ11 | 22 | 33 | 55がアップロードされ、55Dキーの値としてアップロードされます。
    • Incomplete Entry Uploadをオフにすると、ログから解析されたフィールドの数が指定されたキーの数と一致しないため、ログ11 | 22 | 33 | 55は破棄されます。
    システム時刻を使用システム時刻を使用するかどうかを指定します。
    • [システム時間の使用] をオンにすると、ログのタイムスタンプは、ログが収集されたシステム時間を示します。 システム時間は、Logtailが実行されるサーバーまたはコンテナーの時間を指します。

    • [システム時間の使用] をオフにすると、ログのタイムスタンプは、対応する生ログに含まれる時間になります。 [時間キーの指定] パラメーターを生ログの時間フィールドに設定し、時間フィールドの値に基づいて [時間形式] パラメーターを設定する必要があります。 時間形式については、「時間形式」をご参照ください。

      たとえば、生ログの時間値が "time": "05/May /2022:13:13:30:28" の場合、[時間キーの指定] パラメーターをtimeに設定し、[時間形式] パラメーターを % d/% b/% Y:% H:% M:% Sに設定できます。

    重要
    • LogtailコンテナのタイムゾーンはUTCです。 DaemonSetモードでコンテナログを収集し、ログを収集するコンテナのタイムゾーンがUTCでない場合は、Logtail設定の [詳細オプション] セクションで [タイムゾーン][カスタム] に設定し、ログを収集するコンテナのタイムゾーンを使用する必要があります。 そうしないと、ログ時間が誤ってオフセットされます。 たとえば、ログを収集するコンテナを作成するときに [タイムゾーンをノードからコンテナに同期] を選択した場合、コンテナのタイムゾーンはUTCではない場合があります。
    • log Serviceのログのタイムスタンプは、デフォルトでは秒単位です。 生ログの時間フィールドの値がより高い時間精度 (たとえば、ミリ秒、マイクロ秒、またはナノ秒の精度) を持ち、Log Serviceのログの時間精度を保持する場合は、Logtailの [More Configurations] フィールドにenable_excursic_timestampパラメーターを追加し、enable_preise_timestampパラメーターをtrueに設定します。
    ドロップログの解析に失敗解析に失敗したログを削除するかどうかを指定します。
    • [ログの解析に失敗した削除] をオンにした場合、解析に失敗したログはLog Serviceにアップロードされません。
    • [ログの解析に失敗した削除] をオフにした場合、解析に失敗したログは、__raw__ フィールドの値としてLog Serviceにアップロードされます。
    監視ディレクトリの最大深度監視するサブディレクトリのレベルの最大数を指定します。 サブディレクトリは、指定したログファイルディレクトリにあります。 有効な値: 0 ~ 1000 値が0の場合は、指定したログファイルディレクトリのみを監視することを指定します。
    ビジネス要件に基づいて詳細設定を構成できます。 詳細設定は変更しないことをお勧めします。 詳細設定のパラメーターを次の表に示します。
    パラメーター説明
    プラグイン処理の有効化ログが複雑で、NGINXモード、フル正規表現モード、JSONモードなどのモードで解析できない場合は、[プラグイン処理の有効化] をオンにして、ログを解析するLogtailプラグインを追加できます。
    Log Serviceは、選択した収集モードに基づいてデフォルトのプラグイン設定を生成します。 processorsフィールドを設定することで、他のプラグイン設定を既定のプラグイン設定に追加できます。 詳細については、「概要」をご参照ください。
    重要 [プラグイン処理の有効化] をオンにすると、[生ログのアップロード] 、[タイムゾーン] 、[ログの解析に失敗したドロップ] 、[フィルタ設定] 、[エントリのアップロードが不完全 (デリミターモード)] などのパラメーターが使用できなくなります。
    生ログのアップロード[生ログのアップロード] をオンにすると、各生ログは、生ログから解析されたログとともに、__Raw__ フィールドの値としてLog Serviceにアップロードされます。
    Topic の生成方法トピック生成モードを選択します。 詳細については、「ログトピック」をご参照ください。
    • Null-トピックを生成しない: このモードでは、トピックフィールドは空の文字列に設定されます。 ログを照会するときに、トピックを指定する必要はありません。 デフォルト値です。
    • マシングループトピック属性: このモードでは、トピックはマシングループレベルで設定されます。 異なるサーバーによって生成されたログを区別する場合は、このモードを選択します。
    • ファイルパス正規表現: このモードでは、カスタム正規表現フィールドで正規表現を指定する必要があります。 ログパスの正規表現に一致する部分がトピックとして使用されます。 異なるユーザーまたはインスタンスによって生成されたログを区別する場合は、このモードを選択します。
    ログファイルのエンコーディングログファイルのエンコード形式。 有効な値: utf8とgbk。
    タイムゾーンログを収集するタイムゾーンを選択します。 有効な値:
    • システムタイムゾーン: この値を選択すると、Logtailがインストールされているサーバーまたはコンテナーのタイムゾーンが使用されます。
    • カスタム: この値を選択する場合、ビジネス要件に基づいてタイムゾーンを選択する必要があります。
    タイムアウトログファイルが指定された期間内に更新されない場合、Logtailはモニタリングがタイムアウトしたと見なします。
    • Never: すべてのログファイルは継続的に監視され、監視がタイムアウトすることはありません。
    • 30 分タイムアウト: ログファイルが30分以内に更新されない場合、Logtailはモニタリングがタイムアウトしたと見なし、ファイルをモニタリングしなくなります。

      30 Minute Timeoutを選択した場合、Maximum Timeout Directory Depthパラメーターを設定する必要があります。 有効な値: 1 ~ 3。

    フィルターの設定ログの収集に使用するフィルター条件を指定します。 フィルター条件は、KeyRegexで構成されます。 Keyは必須フィールドの名前を指定し、Regexはフィルタリングに使用される正規表現を指定します。 フィルター条件間の論理演算子はANDです。
    重要
    • シンプルモードでは、コンテンツフィールドのみが生成されます。 フィルター条件を指定する場合、Keycontentのみに設定できます。
    • 指定する正規表現は、フルテキスト照合のみをサポートします。 キーワードマッチングはサポートされていません。

    例:

    • 指定されたフィルター条件に一致するログを収集します。
      • Keylevelに設定し、RegexWARNING | ERRORに設定した場合、levelの値がWARNINGまたはERRORであるログのみが収集されます。
      • Keycontentに設定し、Regexに設定した場合。* 05\/Jan\/2023.* の場合、contentの値に05/Jan/2023が含まれるログのみが収集されます。
    • 指定されたフィルター条件に一致しないログを除外します。
      • Keylevelに設定し、Regex^(?!.*(INFO | DEBUG)).* に設定した場合、levelの値にINFOまたはDEBUGが含まれるログは除外されます。
      • Keylevelに設定し、Regex^(?!(INFO | DEBUG)$).* に設定した場合、levelの値がINFOまたはDEBUGであるログは除外されます。
      • Keyurlに設定し、Regexに設定した場合。* ^(?!.*(healthcheck)).* urlの値にhealthcheckが含まれているログは除外されます。

    正規表現を指定する方法の詳細については、「正規表現の使い方」をご参照ください。

    最初のコレクションのサイズLogtailがファイルからログを最初に収集するときに、Logtailがログファイルから収集できるデータのサイズを指定します。 First Collection Sizeのデフォルト値は1024です。 (単位:KB)
    • ファイルサイズが1,024 KB未満の場合、Logtailはファイルの先頭からデータを収集します。
    • ファイルサイズが1,024 KBを超える場合、Logtailはファイル内の最後の1,024 KBのデータを収集します。

    ビジネス要件に基づいて最初のコレクションサイズを指定できます。 有効な値: 0 ~ 10485760 (単位:KB)

    その他の設定Logtailの拡張設定を指定します。 詳細については、「advanced」をご参照ください。

    たとえば、現在のLogtail設定を使用して、異なるLogtail設定に一致するログファイルからログを収集し、ログが集計されてlog Serviceに送信される間隔を指定する場合は、現在のLogtailの拡張設定を指定できます。

    {
      "force_multiconfig": true、
      "batch_send_interval": 3
    } 
    [次へ] をクリックしてLogtail設定の作成を完了します。 その後、Log Serviceはログの収集を開始します。
    説明
  7. データをプレビューし、インデックスを設定し、[次へ] をクリックします。
    デフォルトでは、Log Serviceでフルテキストインデックスが有効になっています。 手動モードまたは自動モードで収集したログに基づいてフィールドインデックスを設定することもできます。 自動モードでフィールドインデックスを設定するには、[自動インデックス生成] をクリックします。 これにより、Log Serviceは自動的にフィールドインデックスを作成します。 詳細については、「インデックスの作成」をご参照ください。
    重要 ログをクエリおよび分析する場合は、フルテキストインデックス作成またはフィールドインデックス作成を有効にする必要があります。 フルテキストインデックスとフィールドインデックスの両方を有効にすると、フィールドインデックスのみが使用されます。
  8. [ログクエリ] をクリックします。 Logstoreのクエリと分析ページにリダイレクトされます。
    インデックスが有効になるまで約1分待つ必要があります。 次に、収集したログを [生ログ] タブで表示できます。 詳細については、「ログの照会と分析」をご参照ください。

追加情報: デリミター

単一文字と複数文字の両方の区切り文字がサポートされています。

  • 1文字区切り文字

    次の例は、1文字区切り文字を使用するログを示しています。

    05/May/2022:13:30:28、10.10.* 、"POST /PutData? カテゴリ=YunOsAccountOpLog&AccessKeyId=****************&日付=金 % 2C % 2028% 20Jun % 202013% 2006% 3A53% 3A30% 20GMT&Topic=raw&Signature=******************************** /1.1-HTTP" 、200,18204、05/May/2022:13:31:23、10.10.* 、"POST /PutData? カテゴリ=YunOsAccountOpLog&AccessKeyId=**************&日付=金 % 2C % 2028% 20Jun % 202013% 2006% 3A53% 3A30% 20GMT&Topic=raw&Signature=******************************** HTTP-1.1" 、401,23472、aliyjava-sdk 
    ログで1文字区切り文字を使用する場合は、区切り文字を指定する必要があります。 引用を指定することもできます。
    • 区切り文字: 使用可能な1文字の区切り文字には、タブ文字 (\t) 、垂直バー (|) 、スペース、コンマ (,) 、セミコロン (;) 、および印刷不可の文字が含まれます。 区切り文字として二重引用符 (") を指定することはできません。

      ただし、二重引用符 (") を引用符として使用できます。 二重引用符 (") は、フィールドの境界またはフィールドに表示できます。 ログフィールドに二重引用符 (") が含まれている場合は、ログの処理時に二重引用符 (" ") のペアとしてエスケープする必要があります。 ログが解析されると、二重引用符のペア ("") が二重引用符 (") に復元されます。 たとえば、区切り文字としてコンマ (,) を指定し、引用符として二重引用符 (,) を指定できます。 ログフィールドに指定された区切り文字と引用符が含まれている場合、フィールドは引用符のペアで囲まれ、フィールドの二重引用符 (") は二重引用符のペア (" ") としてエスケープされます。 処理されたログが1999、Chevy、「Venture」、「Extended Edition」、「Very Large」、「」、5000.00の形式である場合、ログは、1999ChevyVenture「Extended Edition」、空のフィールド、および5000.00の5つのフィールドに解析される。

    • 引用: ログフィールドに区切り文字が含まれている場合は、フィールドを囲む引用符を指定する必要があります。 Log Serviceは、引用符のペアで囲まれたコンテンツを完全なフィールドに解析します。

      使用可能な引用符には、タブ文字 (\t) 、垂直バー (|) 、スペース、コンマ (,) 、セミコロン (;) 、および印刷不可の文字が含まれます。

      たとえば、区切り文字としてコンマ (,) を指定し、引用符として二重引用符 (") を指定すると、ログ1997、Ford、E350、「ac、abs、moon」、3000.001997FordE350ac、abs、moon3000.00の5つのフィールドに解析されます。

  • 複数文字の区切り文字
    次の例は、複数文字の区切り文字を使用するログを示しています。
    05/May/2022:13:30:28&&10.200。**&&POST /PutData? カテゴリー=YunOsAccountOpLog&AccessKeyId=****************&日付=金 % 2C % 2028% 20Jun % 202013% 2006% 3A53% 3A30% 20GMT&pD12XYLmGx2k&200% sdykQ&6hybDC % 18204&6alikQ % 1.1%
    05/May/2022:13:31:23&&10.200。**&&POST /PutData? カテゴリー=YunOsAccountOpLog&AccessKeyId=****************&日付=金 % 2C % 2028% 20Jun % 202013% 2006% 3A53% 3A30% 20GMT&Topic=raw&HTTP&1.1&401-aliyk&
    複数文字の区切り文字には、| |&&&^_^ などの2文字または3文字を含めることができます。 Log Serviceは、区切り文字に基づいてログを解析します。 ログフィールドを囲むために引用符を使用する必要はありません。
    重要 各ログフィールドに正確な区切り文字が含まれていないことを確認してください。 そうしないと、Log Serviceはログを期待どおりに解析できません。

    たとえば、区切り文字として &&& を指定した場合、ログ1997&&フォード&&E350&&ac&abs&moon&&3000.00は、1997フォードE350ac&abs&moon3000.00の5つのフィールドに解析されます。

トラブルシューティング

Logtailを使用してログを収集した後、プレビューページまたはクエリページにデータが表示されない場合は、「」に記載されている手順に基づいてエラーをトラブルシューティングできます。