python分析日志
1. Loguru:python 日志终极解决方案
日志的作用非常重要,日志可以记录用户的操作、程序的异常,还可以为数据分析提供依据,日志的存在意义就是为了能够在程序在运行过程中记录错误,方便维护和调试,能够快速定位出错的地方,减少维护成本。每个程序员都应该知道,不是为了记录日志而记录日志,日志也不是随意记的。要实现能够只通过日志文件还原整个程序执行的过程,达到能透明地看到程序里执行情况,每个线程、每个过程到底执行到哪的目的。日志就像飞机的黑匣子一样,应当能够复原异常的整个现场乃至细节!
最常见的是把输出函数 print() 当作日志记录的方式,直接打印各种提示信息,常见于个人练习项目里,通常是懒得单独配置日志,而且项目太小不需要日志信息,不需要上线,不需要持续运行,完整的项目不推荐直接打印日志信息,现实中也几乎没有人这么做。
我们可以在不少小项目里面看到作者自己写了一个日志模板,通常利用 print() 或者 sys.stdout 稍微封装一下即可实现简单的日志输出,这里的 sys.stdout 是 Python 中的标准输出流, print() 函数是对 sys.stdout 的高级封装,当我们在 Python 中打印对象调用 print(obj) 时候,事实上是调用了 sys.stdout.write(obj+'\n') , print() 将内容打印到了控制台,然后追加了一个换行符 \n 。
自写日志模板适合比较小的项目,可以按照自己的喜好编写模板,不需要太多复杂配置,方便快捷,但是这种记录日志的方式并不是很规范,有可能你自己觉得阅读体验不错,但是别人在接触你的项目的时候往往需要花费一定的时间去学习日志的逻辑、格式、输出方式等,比较大的项目同样不推荐这种方法。
一个简单的自写日志模板举例:
日志模板 log.py:
调用日志模块:
日志输出:
在一个完整的项目中,大多数人都会引入专门的日志记录库,而 Python 自带的标准库 logging 就是专门为日志记录而生的,logging 模块定义的函数和类为应用程序和库的开发实现了一个灵活的事件日志系统。由标准库模块提供日志记录 API 的关键好处是所有 Python 模块都可以使用这个日志记录功能。所以,你的应用日志可以将你自己的日志信息与来自第三方模块的信息整合起来。
logging 模块虽然强大,但是其配置也是比较繁琐的,在大型项目中通常需要单独初始化日志、配置日志格式等等,K哥在日常使用中通常都会对 logging 做如下的封装写法,使日志可以按天保存,保留15天的日志,可以配置是否输出到控制台和文件,如下所示:
输出日志:
它在控制台中是这样的:
当然,如果你不需要很复杂的功能,希望简洁一点,仅仅需要在控制台输出一下日志的话,也可以只进行简单的配置:
对于 logging 模块,即便是简单的使用,也需要自己定义格式,这里介绍一个更加优雅、高效、简洁的第三方模块:loguru,官方的介绍是:Loguru is a library which aims to bring enjoyable logging in Python. Loguru 旨在为 Python 带来愉快的日志记录。这里引用官方的一个 GIF 来快速演示其功能:
Loguru 仅支持 Python 3.5 及以上的版本,使用 pip 安装即可:
Loguru 的主要概念是只有一个:logger
控制台输出:
可以看到不需要手动设置,Loguru 会提前配置一些基础信息,自动输出时间、日志级别、模块名、行号等信息,而且根据等级的不同,还自动设置了不同的颜色,方便观察,真正做到了开箱即用!
如果想自定义日志级别,自定义日志格式,保存日志到文件该怎么办?与 logging 模块不同,不需要 Handler,不需要 Formatter,只需要一个 add() 函数就可以了,例如我们想把日志储存到文件:
我们不需要像 logging 模块一样再声明一个 FileHandler 了,就一行 add() 语句搞定,运行之后会发现目录下 test.log 里面同样出现了刚刚控制台输出的 debug 信息。
与 add() 语句相反, remove() 语句可以删除我们添加的配置:
此时控制台会输出两条 debug 信息:
而 test.log 日志文件里面只有一条 debug 信息,原因就在于我们在第二条 debug 语句之前使用了 remove() 语句。
Loguru 对输出到文件的配置有非常强大的支持,比如支持输出到多个文件,分级别分别输出,过大创建新文件,过久自动删除等等。 下面我们来详细看一下 add() 语句的详细参数:
基本语法:
基本参数释义:
当且仅当 sink 是协程函数时,以下参数适用:
当且仅当 sink 是文件路径时,以下参数适用:
这么多参数可以见识到 add() 函数的强大之处,仅仅一个函数就能实现 logging 模块的诸多功能,接下来介绍几个比较常用的方法。
add() 函数的 rotation 参数,可以实现按照固定时间创建新的日志文件,比如设置每天 0 点新创建一个 log 文件:
设置超过 500 MB 新创建一个 log 文件:
设置每隔一个周新创建一个 log 文件:
add() 函数的 retention 参数,可以设置日志的最长保留时间,比如设置日志文件最长保留 15 天:
设置日志文件最多保留 10 个:
也可以是一个 datetime.timedelta 对象,比如设置日志文件最多保留 5 个小时:
add() 函数的 compression 参数,可以配置日志文件的压缩格式,这样可以更加节省存储空间,比如设置使用 zip 文件格式保存:
其格式支持: gz 、 bz2 、 xz 、 lzma 、 tar 、 tar.gz 、 tar.bz2 、 tar.xz
Loguru 在输出 log 的时候还提供了非常友好的字符串格式化功能,相当于 str.format() :
输出:
在 Loguru 里可以直接使用它提供的装饰器就可以直接进行异常捕获,而且得到的日志是无比详细的:
日志输出:
在控制台的输出是这样的:
相比 Logging,Loguru 无论是在配置方面、日志输出样式还是异常追踪,都远优于 Logging,使用 Loguru 无疑能提升开发人员效率。本文仅介绍了一些常用的方法,想要详细了解可参考 Loguru 官方文档 或关注 Loguru GitHub 。
2. python怎么实时监控logstash日志
第一步,实时读取logstash日志,有异常错误keywork即触发报警。
#/usr/bin/envpython3#-*-coding:utf-8-*-#__author__=cao#create_time2018-11-12,update_time2018-11-15#version=1.0#录像高可用报警#1读取日志使用游标移动#2线上业务日志文件会切割,切割后,读取上一个切割的日志=conf.inilog_file=logstash.logdefreadconf():try:withopen(cini,r+)asf:CONF=json.load(f)except:CONF={seek:0,inode:922817,last_file:logstash.log}writeconf(CONF=CONF)print(conf.ini配置文件缺失,自动创建一个新的配置文件)returnCONFdefwriteconf(CONF):withopen(cini,w+)ase:json.mp(CONF,e)defread_log(log_file,seek):try:f=open(log_file,r)exceptFileNotFoundError:f=open(logstash.log,r)seek=0print(上一个文件读取失败了,请检查切割的日志文件)except:print(日志文件打开错误,退出程序)sys.exit()f.seek(seek)line=f.readline()new_seek=f.tell()ifnew_seek==seek:print(没有追加日志,退出程序)sys.exit()whileline:try:logstash=json.loads(line)except:CONF={seek:0,inode:922817,last_file:/data/logs/lmrs/logstash.log}writeconf(CONF=CONF)print(json数据加载错误,重新创建一个新的配置文件)sys.exit()#ifre.search(time.strftime(%Y:%H:%M,time.localtime()),logstash.get(log_time))andlogstash.get(rtype)==6andlogstash.get(uri)==/publishandlogstash.get(event)==0:iflogstash.get(rtype)==6andlogstash.get(uri)==/publishandlogstash.get(event)==0:value=1stream=logstash.get(name)print({}{}.format(value,stream))record(value=value,stream=stream)else:value=0stream=0line=f.readline()seek=f.tell()f.closereturnvalue,stream,seekdefrecord(value,stream):data=[]record={}record[metric]=recording_high_availability_monitorrecord[endpoint]=os.uname()[1]record[timestamp]=int(time.time())record[step]=60record[value]=valuerecord[counterType]=GAUGErecord[Tags]={}={}.format(int(time.time()),stream)data.append(record)ifdata:print(这是data的json数据)print(data)falcon_request=requests.post(http://127.0.0.1:1988/v1/push,data=json.mps(data))#falcon_request=requests.post(http://127.0.0.1:1988/v1/push,json=data)print(json参数请求返回状态码为:+str(falcon_request.status_code))print(json参数请求返回为:+str(falcon_request.text))if__name__==__main__:print()print(***************************************)print(本次执行脚本时间:{}.format(time.strftime(%Y%m%d_%H%M,time.localtime())))CONF=readconf()print(first_CONF:{}.format(CONF))print(NO1.log_file,log_file)last_inode=CONF[inode]inode=os.stat(log_file).st_inoprint(last_inode:{}inode:{}.format(last_inode,inode))ifinode==last_inode:seek=CONF[seek]next_file=0else:log_file=CONF[last_file]+time.strftime(-%Y%m%d_,time.localtime())+str(time.strftime(%H%M,time.localtime()))[:-1]+0next_file=1seek=CONF[seek]print(NO2.log_file,log_file)value,stream,seek=read_log(log_file=log_file,seek=seek)ifnext_file:CONF[seek]=0else:CONF[seek]=seekCONF[inode]=os.stat(logstash.log).st_inowriteconf(CONF=CONF)print(last_CONF:{}.format(CONF))