结构化日志解析器

自动识别常见日志格式,提取核心字段并推断字段类型,支持导出为 JSON、CSV 或 SQL。

示例结果

1 个示例

把混合应用日志整理成可导出 CSV 的表格

将 JSON Lines、Apache 访问日志和 syslog 片段统一成带类型推断的结构化行。

Structured log report
查看输入参数
{ "logInput": "{\"level\":\"error\",\"service\":\"billing\",\"message\":\"Charge failed\"}\nMar 10 14:03:02 host app[123]: INFO Worker started", "exportFormat": "csv", "aggregateMultiline": true }

Click to upload file or drag and drop file here

Maximum file size: 20MB Supported formats: text/plain, application/json, application/x-ndjson, text/*

关键信息

分类
数据与表格
输入类型
textarea, file, select, checkbox, text
输出类型
html
样本覆盖
4
支持 API
Yes

概览

结构化日志解析器是一款专为开发者和运维人员设计的数据处理工具。它能够自动识别 JSON Lines、Apache、Nginx 和 Syslog 等常见日志格式,提取核心字段并智能推断数据类型。无论您是需要排查线上故障,还是将杂乱的文本日志转换为结构化数据,都可以通过该工具快速将日志导出为 JSON、CSV 或 SQL 格式,大幅提升日志分析和排查效率。

适用场景

  • 需要将服务器上杂乱的纯文本日志转换为结构化表格,以便在 Excel 或数据分析软件中进行筛选和统计时。
  • 准备将本地的 JSONL 或 Syslog 日志文件批量导入到关系型数据库(如 MySQL)进行持久化存储和查询时。
  • 排查线上复杂报错,需要通过自定义正则表达式精准提取特定格式日志中的关键字段(如 TraceID 或错误码)时。

工作原理

  • 在文本框中粘贴原始日志内容,或直接上传 .txt、.jsonl 等格式的日志文件(最大支持 20MB)。
  • 选择目标导出格式(JSON、CSV 或 SQL),并根据需要开启“聚合多行日志”功能以处理带有堆栈跟踪的复杂日志。
  • 如果日志格式较为特殊,可在“自定义正则”中输入带有命名捕获组的正则表达式进行精准匹配。
  • 工具将自动解析日志、提取核心字段并推断数据类型,最终生成结构化数据供您预览和下载。

使用场景

运维工程师将 Nginx 访问日志转换为 CSV 格式,用于统计高频访问 IP 和接口响应时间。
后端开发者使用自定义正则提取微服务日志中的 TraceID 和错误信息,快速定位线上 Bug。
数据分析师将历史 JSONL 格式的用户行为日志转换为 SQL 插入语句,方便导入数据库进行二次查询。

用户案例

1. 将混合应用日志整理为 CSV 表格

运维工程师
背景原因
服务器上同时运行着多个服务,日志文件中混合了 JSON 格式的业务日志和纯文本的系统日志。
解决问题
难以直观对比不同服务的运行状态,需要将混合日志统一成结构化表格以便分析。
如何使用
将混合日志粘贴到“日志输入”框中,将“导出格式”设置为 CSV,并勾选“聚合多行日志”。
示例配置
{"exportFormat": "csv", "aggregateMultiline": true}
效果
工具自动识别并提取了时间戳、日志级别和消息内容,生成了一份整洁的 CSV 表格,方便在 Excel 中进行筛选和透视分析。

2. 使用自定义正则提取非标准日志

后端开发者
背景原因
遗留系统输出的日志格式非常特殊,包含自定义的模块名和状态码,常规工具无法直接解析。
解决问题
需要提取日志中的时间、模块名和具体报错信息,并转换为 JSON 格式供其他自动化脚本处理。
如何使用
在“日志输入”中粘贴日志片段,在“自定义正则”中输入匹配规则,选择导出格式为 JSON。
示例配置
{"customRegex": "^(?<timestamp>\\S+) \\[(?<module>\\w+)\\] (?<message>.+)$", "exportFormat": "json"}
效果
工具根据正则表达式的命名捕获组精准提取了 timestamp、module 和 message 字段,并成功导出为结构化的 JSON 数组。

用 Samples 测试

json, csv, sql

相关专题

常见问题

支持解析哪些常见的日志格式?

工具内置了对 JSON Lines、Apache 访问日志、Nginx 日志以及标准 Syslog 格式的自动识别和解析支持。

如何处理带有 Java 异常堆栈的多行日志?

请勾选“聚合多行日志”选项,工具会自动识别并将属于同一事件的多行堆栈跟踪合并为单条日志记录。

如果我的日志格式比较冷门怎么办?

您可以使用“自定义正则”功能,输入带有命名捕获组(如 `(?<level>\w+)`)的正则表达式,工具会根据您的正则提取对应字段。

导出的 SQL 语句是什么格式的?

导出的 SQL 为标准的 INSERT INTO 语句,工具会根据提取到的字段自动推断数据类型,并生成对应的插入语句。

上传的日志文件有大小限制吗?

有的,目前支持最大上传 20MB 的日志文件。如果文件过大,建议先在本地进行切割或提取关键片段后再上传。

API 文档

请求端点

POST /zh/api/tools/structured-log-analyzer

请求参数

参数名 类型 必填 描述
logInput textarea -
logFile file (需要先上传) -
exportFormat select -
aggregateMultiline checkbox -
customRegex text -

文件类型参数需要先通过 POST /upload/structured-log-analyzer 上传获取 filePath,然后将 filePath 传递给对应的文件字段。

响应格式

{
  "result": "
Processed HTML content
", "error": "Error message (optional)", "message": "Notification message (optional)", "metadata": { "key": "value" } }
HTML: HTML

AI MCP 文档

将此工具添加到您的 MCP 服务器配置中:

{
  "mcpServers": {
    "elysiatools-structured-log-analyzer": {
      "name": "structured-log-analyzer",
      "description": "自动识别常见日志格式,提取核心字段并推断字段类型,支持导出为 JSON、CSV 或 SQL。",
      "baseUrl": "https://elysiatools.com/mcp/sse?toolId=structured-log-analyzer",
      "command": "",
      "args": [],
      "env": {},
      "isActive": true,
      "type": "sse"
    }
  }
}

你可以串联多个工具,比如:`https://elysiatools.com/mcp/sse?toolId=png-to-webp,jpg-to-webp,gif-to-webp`,最多20个。

支持 URL 文件链接或 Base64 编码作为文件参数。

如果遇见问题,请联系我们:[email protected]