Monolog 优化及打造 ELK 友好的日志格式
Monolog 是目前最流行的php日志库,许多流行的php框架都用Monolog作为默认的日志库,例如symfony、laravel。
默认情况下,symfony、laravel在打印日志时都是来一条日志就打印一行到日志文件,这样就没有办法按照请求将日志聚合起来,更麻烦的是,多个并发的请求打印的日志是交叉的,这给本地调试、线上排查bug带来了许多麻烦。
我希望的结果是:
- 一次请求所产生的日志是紧密相连的,不会因为高并发而产生日志交叉的情况。
- 能够通过Logstash的multiline来聚合一次请求所产生的所有日志。
- 一些访问数据(如访问时间、访问者IP、访问的Url、该请求的执行时间等)能够被Logstash直接解析成字段,并能够在Kibana中查询、筛选。
最终代码如下:
namespace App\Extensions\Log;
use Carbon\Carbon;
use Monolog\Handler\StreamHandler;
use Monolog\Logger;
class AggregateFileHandler extends StreamHandler
{
public function handleBatch(array $records)
{
$dur = number_format(microtime(true) - LARAVEL_START, 3);
$request = request();
$format = 'Y-m-d H:i:s.u';
// 这一行是我们这个处理器自己加上的日志,记录请求时间、响应时间、访客IP,请求方法、请求Url
$log = sprintf(
"[%s][%s]%s %s %s\n",
Carbon::createFromFormat('U.u', sprintf('%.6F', LARAVEL_START), config('app.timezone'))->format($format),
$dur,
$request->getClientIp(),
$request->getMethod(),
$request->getRequestUri()
);
// 然后将内存中的日志追加到$log这个变量里
foreach ($records as $record) {
if (!$this->isHandling($record)) {
continue;
}
$record = $this->processRecord($record);
$log .= $this->getFormatter()->format($record);
}
// 调用日志写入方法
$this->write(['formatted' => $log]);
}
}
需要BufferHandler
来配合使用:
$handler = new AggregateFileHandler($path_to_log_file);
$handler->setFormatter(
new LineFormatter("[%datetime%]%level_name% %message% %context% %extra%\n", 'i:s', true, true)
);
$monolog->pushHandler(new BufferHandler($handler));
AggregateRotatingFileHandler
类只实现了一个handleBatch
方法,BufferHandler
会在请求结束时去调用handleBatch
方法,因为我们不考虑单独使用这个处理器的情况,所以就没有去重写handler
方法(实际上重写了也没法满足我们的需求)。
Logstash的配置如下:
input {
file {
type => 'monolog'
path => "/home/vagrant/website/logs/app.log"
}
}
filter {
if [type] == 'monolog' {
multiline {
pattern => "\[[\d\-\: ]+?\]\[[\d\.]+?\]\d+\.\d+\.\d+\.\d+ \S+ \S+"
negate => true
what => "previous"
}
grok {
match => ["message", "\[%{TIMESTAMP_ISO8601:time}\]\[%{NUMBER:duration}\]%{IP:ip} %{WORD:method} %{DATA:url}\n%{GREEDYDATA:data}"]
}
}
}
贴一个从ElasticSearch中查出的日志
{
"_index" : "monolog",
"_type" : "monolog",
"_id" : "AVkgdHh4eDK8-gwc8OTf",
"_score" : 1.0,
"_source" : {
"message" : "[2016-12-21 08:16:27.373000][2.421]127.0.0.1 GET / \n[16:29]INFO Test Log 1\n[16:29]INFO Test Log 2",
"@version" : "1",
"@timestamp" : "2016-12-21T08:16:55.485Z",
"path" : "/home/vagrant/online/website/logs/monolog.log",
"host" : "0.0.0.0",
"type" : "monolog",
"tags" : [ "multiline" ],
"time" : "2016-12-21 08:16:27.373000",
"duration" : "2.421",
"ip" : "127.0.0.1",
"method" : "GET",
"url" : "/",
"data" : "[16:29]INFO Test Log 1\n[16:29]INFO Test Log 2"
}
}
本作品采用《CC 协议》,转载必须注明作者和本文链接
本帖由 Summer
于 8年前 加精
假设一次请求在程序内分别调用内网的另外 A,B 两个服务,怎么进行日志收集.
@TimJuly 可以引入一个叫LogId的东西,用户的请求会产生一个随机的LogId,通过LogId来关联各个地方的日志,比如:
@leo Get~
adffd
@leo LogId?如何产生?
@klgd 这个有很多方法,我通常在
AppServiceProvider
的register
方法里通过uuid去生成,如:define('LOG_ID', Ramsey\Uuid\Uuid::uuid1()->getHex());
@leo 哦~ 明白了
还有个疑问:monolog不是带有ElasticSearch的handler嘛,为什么不直接写入ES呢?
@klgd 把日志直接写到ES是需要网络IO的,假如网络抖动或者ES挂了,都会影响到web服务器的吞吐量
@leo 也是
我只考虑了省事,没考虑异常情况
@leo 这个方法很好用,已经用到我的项目里,但是有个问题:日志记录的请求时间和我系统时间相差8小时,我已经在app.php更改了'timezone' => 'Asia/Shanghai'。
搞的这么复制 php 不是自带 error_log吗? 自己只需要产生一个request_id 就好了,一个请求一个id 夸服务 夸机房日志都能追踪 如果带上 prev_request_id 还能最终上一次请求信息
@探索者
error_log
不能解决我所提出的4个目标中的任何一个@chrisyogi Carbon::createFromFormat('U.u', sprintf('%.6F', LARAVEL_START), config('app.timezone'))->format($format) 替换为 Carbon::setLocale('zh'); Carbon::now()->format($format) 这样就可以解决了
怎么让time变为date类型而不是字符串,方便日志排序
@skybao1988 需要在 Logstash 将第一条日志传给 ES 之前就自己先在 ES 定义好日志的 mapping,如果已经有日志就没有办法了,只能删索引重新建
@leo 好的,谢谢
请问下,$records是怎么获取到的 :joy:
@温了个柔
BufferHandler
传过来的@leo 请问下laravel项目中怎么使用?我在一个方法中写了如下代码,但并未生效
最终结果如下:
并没有列出请求时间、响应时间、访客IP,请求方法、请求Url等参数
老师,能不能详细讲讲这个怎么应用到 Laravel 项目中啊?在 App\Extensions\Log 下创建 `` 类这个能明白,然后在哪配置能应用到项目每一个的请求?还有 Logstash 的配置什么的不明白。
文章有文字错误,是"AggregateFileHandler"不是"AggregateRotatingFileHandler"
顺便提一下,若想使用"AggregateRotatingFileHandler",那应该继承RotatingFileHandler,并且this->wirte()还要多传一个键值对'datetime'=>foo
用BufferHandler的话,那这种方式就不适用于队列中了,因为Monolog对于批量操作是register_shutdown_function()一个close()方法的,在脚本结束才会调用close()并调用close()中的flush()把日记刷到文件中.
但队列中的php脚本启动后,执行完任务并不会结束,导致没有机会调用close().
@SHQHDMR 是的,我通常会用把 CLI 的日志输出到单独的日志文件。而且 CLI 也并没有文章里所说的大部分问题,所以使用默认的日志机制就可以了。
一般都是通过register_shutdown_function注册一个函数去处理日志吧,无论一次请求中记录多少次日志都是放在一个全局数组里,并不用记录一次写一次,在请求结束时候触发register_shutdown_function注册的函数对日志数组进行处理(也就是对一次请求中的所有日志进行处理),当然cli模式下无法触发register_shutdown_function需要另外处理,但是并不需要文中写的那么复杂
能请教下,AggregateFileHandler 这个类怎么应用到 项目中吗?有点 没搞明白