日志分析工具怎么编译
⑴ 爱站SEO工具包之日志分析工具
爱站SEO工具包之网站日志分析工具的使用方法。
1、此工具可以自动识别IIS、Apache、Nginx日志格式,支持直接拖拽日志一个或多个文件(夹)至窗口进行分析,每一项数据都分别以“数据显示”和“图形显示”两种不同方式向用户展示数据结果。

以上就是爱站SEO工具包之网站日志分析工具的详细介绍。
⑵ 怎么对logcat日志进行分析
可以看到,当有一个程序进行编译时,打开LogCat确没有看到日志的输出:
从右上角打开DDMS
选择Reset adb
然后重新编译程序
如果还是没有输出日志
接下来就重新打开一下eclipse
重新编译,没问题了,日志照常打印输出。
⑶ 如何进行网站日志分析
一、什么是网站日志
1.网站日志是记录web服务器接收处理请求以及运行时错误等各种原始信息的以·log结尾的文件。
2.通过网站日志可以清楚的得知用户在什么IP、什么时间、用什么操作系统、什么浏览器、什么分辨率设备下访问了网站的哪个页面,是否访问成功。
3.搜索引擎也属于网站中的一类用户,我们今天的分享课,主要是针对搜索引擎这种用户在服务器留下的记录展开分析。
为了方便读懂搜索引擎日志,我们需要了解不同搜索引擎蜘蛛的标识,以下为4种搜索引擎的标识——*网络蜘蛛:Baispider*搜狗:Sogou News Spider*360:360Spider*谷歌:Googlebot
二、如何看懂网站日志
(以下为一段日志记录)www.cafehome.com
58.180.251.134 - - [25/Mar/2015:13:24:33 +0800] "GET /m53256.html
HTTP/1.1" 200 12264 "http://www.cafehome.com/index-1s2i2p2" "Mozilla/5.0
(Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko)
Chrome/35.0.1916.153 Safari/537.36 SE 2.X MetaSr 1.0" "-" "-" "-"
以下为字段解读:

⑷ 爱站seo工具包日志分析工具怎么用
今天分享一个爱站SEO工具包,相信很多人员都在用,这个工具是国内最好最全的SEO优化工具,帮助站长们优化,站长要用到的一些东西在这上面都有,希望更多的小伙伴去应用,方便你优化站点,它也有收费版的,我们可以申请帐号用免费版的,其实他们的功能差不多,只是收费版的实用效果更强大些,如果是你是中小型网站就够用了,下面来看一下它的主流功能有哪些:

主要优化辅助功能:
友链查询:它也是爱站最常用的一个功能,可以快速查出你站点的友链,用红色字标出对方是否有你的站点!
友链交换:这个功能也非常好,不用去找友情链接了,直接在这里面找,跟链天下这个工具差不多!
关键词监控:监控你网站关键所有排名情况,对国内所有主流搜索引擎进行监控,还可以记录网站关键词的排名历史数据,支持自定义添加,相关推荐,关键词挖掘以及竞争对搜关键词借鉴等添加方式,排名一览无余!
收录率,死链检测:可以查询你网站的收录情况,哪些页面收录了哪些页面没有收录,以及网站路径的状态码,网站页面数,并且提供网站死链页面入口,支持nofollow过滤,收录的情况很整齐,让人看起特别舒服
异地排名:可以看自己网站每中国每个地区排名情况,一目了然,想看就看!
关键词挖掘:它可以挖出长尾关键词,并且还可以对挖出的关键词进行过滤筛选,把一些无用的长尾词进行过滤,非常实用,老蔡认为,只是挖出的关键词数量太少了点。(只有100个)
站群查询:可以批量查询大量网站的权重,网站反链,站点pr,收录情况,以及网站备案信息等数据,支持内页查询,支持数据批量筛选导出!
网络外链:同步网络的站长平台,帮助站长们处理网络拒绝垃圾外链,轻松的解决竞争对手给你发垃圾外链,导致网站降权,因此这外链这一块降权有保障!
日志分析:它支持目录抓取,页面抓取,蜘蛛状态码,IP排行等功能,还可以把蜘蛛进行分类抓取,并且对你的日志分析进行分类保存,不要你去做记录分类了,真实用!
网站监控:监控你网站空间的稳定性,可以通过QQ邮箱或者手机通知,你的网站什么时出故障了,跟监控宝工具差不多!
其它:上面的功能真的很全,上面可以生robots.txt,网站地图,301查询,404查询,关键词密度查询等,这个小工具确定太给力了,推荐给不知道的小伙伴们!
⑸ 如何使用蓝屏日志分析工具分析蓝屏日志文件
Win8系统查看蓝屏代码的方法:
1、打开系统日志的方法有两种,一种是右击这台电脑选择管理,另一种是按下winkey +r 输入eventvwr 回车;
2、点击展开时间查看器——windows 日志——系统;
3、点击右边的筛选当前的日志;
4、选择仅显示严重、警告、错误三项后点击确认;
5、通过错误日志的发生时间,逐个双击打开查找导致故障的日志。如果是发生蓝屏重启的错误信息,将有“电脑已经在检查错误后重新启动”的提示。后面则为蓝屏代码。
⑹ 如何分析 coremp vs2012
coremp是我们在调试程序时经常碰到的问题,分析coremp的方法多种多样:分析日志;
编译一个含符号表的debug版binary,在产生coremp后,使用一些调试工具gdb,dbx等分析core文件。这里介绍一种不借助于日志和gdb等工具,完全手工分析的办法。
以常见的非法地址访问引起的coremp为例,它会触发11号信号----SIGSEGV.
#define STACK_BACK_SIZE 0x100
void SegFaultHandler(int signo)
{
int trace;
int *p = &trace;
int i;
for(i = 0; i < STACK_BACK_SIZE; i++)
syslog(LOG_DEBUG, "stack: %p:%x", p,*p++);
exit(signo);
}
void main()
{
signal(SIGSEGV, SegFaultHandler);
... ...
}
在产生coremp时,触发信号SIGSEGV,由于其处理函数已被注册为SegvHandler,则SegvHandler被调用。
SegvHandler所做的就是打印出当前栈上STACK_BACK_SIZE个整数。根据这STACK_BACK_SIZE个整数,再反汇编binary代码,就可以确定coremp所产生的指令。
这是因为如果某条指令产生coremp,那么SegvHandler的返回地址就是该指令的下一条指令,当然实际在coremp发生时,系统可能会增加对libc.so中mutex_lock等的调用,再调用SegvHandle,栈空间是:
--------->SegFaultHandler (栈顶)
---------------->mutex_lock(libc.so)
-------------------------->引起coremp指令的下一条指令
如果最终编译生成的binary文件是a.out,使用readelf或objmp将a.out反汇编,就可以知道栈空间上的对应内容,也就是SegFaultHandler中打印出的各值的含义,不外乎是返回地址,保存的寄存器值和局部变量等。
如果是在linux平台下,那么就不需要分析符号表,而可以调用backtrace来打出当前调用栈从而知道哪个函数导致coremp,但注意link时要加上 -rdynamic选项,否则符号表内容不清楚:
#include <execinfo.h>
void print_trace()
{
void *array[40];
size_t size;
char **strings;
size_t i;
size = backtrace (array, 40);
strings = backtrace_symbols (array, size);
for (i = 0; i < size; i++)
{
printf("##callstack##%s\n", strings[i]);
}
printf("\n");
free (strings);
}
void SegFaultHandler(int signo)
{
int trace;
print_trace();
exit(signo);
}
void main()
{
signal(SIGSEGV, SegFaultHandler);
... ...
}
⑺ 日志图形化分析工具logstalgia怎么用
安装
root@zrools:~# apt-get -y install logstalgia1
使用
root@zrools:~# logstalgia access_log1
远程读取服务器web日志
root@zrools:~# ssh user@host tail -f access.log | logstalgia --sync1
保存成视频使用--output-ppm-stream选项,再使用avconv/ffmpeg转换成mp4格式或其他格式
root@zrools:~# ssh user@host tail -f access.log | logstalgia -1280x720 --output-ppm-stream --sync output.ppm
root@zrools:~# avconv -y -r 60 -f image2pipe -vcodec ppm -i output.ppm -vcodec libx264 -preset ultr
⑻ 如何用SARG日志分析器来分析Squid日志
SARG是一款基于网络的工具,它可以分析Squid日志,并以更详细的方式展示分析。系统管理员可以利用SARG来监视哪些网站被访问了,并跟踪访问量最大的网站和用户。本文包含了SARG配置工作。SARG提供了很多有用的特性,但是分析一个原始Squid日志文件并不直接。比如,你如何分析下面Squid日志中的时间戳和数字?
复制代码
代码如下:
1404788984.429 1162 172.17.1.23 TCP_MISS/302 436 GET http://facebook.com/ - DIRECT/173.252.110.27 text/html
1404788985.046 12416 172.17.1.23 TCP_MISS/200 4169 CONNECT stats.pusher.com:443 - DIRECT/173.255.223.127 -
1404788986.124 174 172.17.1.23 TCP_MISS/200 955 POST http://ocsp.digicert.com/ - DIRECT/117.18.237.29 application/ocsp-response
1404788989.738 342 172.17.1.23 TCP_MISS/200 3890 CONNECT www.google.com:443 - DIRECT/74.125.200.106 -
1404788989.757 226 172.17.1.23 TCP_MISS/200 942 POST http://clients1.google.com/ocsp - DIRECT/74.125.200.113 application/ocsp-response
1404788990.839 3939 172.17.1.23 TCP_MISS/200 78944 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788990.846 2148 172.17.1.23 TCP_MISS/200 118947 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788990.849 2151 172.17.1.23 TCP_MISS/200 76809 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788991.140 611 172.17.1.23 TCP_MISS/200 110073 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 –
我们使用yum来安装安装必要的依赖。
复制代码
代码如下:
# yum install gcc make wget httpd crond
在启动时加载必要的服务
复制代码
代码如下:
# service httpd start; service crond start
# chkconfig httpd on; chkconfig crond on
现在我们下载并解压SARG
上一节教程中,我们展示了如何在CentOS上使用Squid配置透明代理。Squid提供了很多有用的特性,但是分析一个原始Squid日志文件并不直接。比如,你如何分析下面Squid日志中的时间戳和数字?
复制代码
代码如下:
1404788984.429 1162 172.17.1.23 TCP_MISS/302 436 GET http://facebook.com/ - DIRECT/173.252.110.27 text/html
1404788985.046 12416 172.17.1.23 TCP_MISS/200 4169 CONNECT stats.pusher.com:443 - DIRECT/173.255.223.127 -
1404788986.124 174 172.17.1.23 TCP_MISS/200 955 POST http://ocsp.digicert.com/ - DIRECT/117.18.237.29 application/ocsp-response
1404788989.738 342 172.17.1.23 TCP_MISS/200 3890 CONNECT www.google.com:443 - DIRECT/74.125.200.106 -
1404788989.757 226 172.17.1.23 TCP_MISS/200 942 POST http://clients1.google.com/ocsp - DIRECT/74.125.200.113 application/ocsp-response
1404788990.839 3939 172.17.1.23 TCP_MISS/200 78944 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788990.846 2148 172.17.1.23 TCP_MISS/200 118947 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788990.849 2151 172.17.1.23 TCP_MISS/200 76809 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788991.140 611 172.17.1.23 TCP_MISS/200 110073 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 –
我们使用yum来安装安装必要的依赖。
复制代码
代码如下:
# yum install gcc make wget httpd crond
在启动时加载必要的服务
复制代码
代码如下:
# service httpd start; service crond start
# chkconfig httpd on; chkconfig crond on
现在我们下载并解压SARG
复制代码
代码如下:
# wget http://downloads.sourceforge.net/project/sarg/sarg/sarg-2.3.8/sarg-2.3.8.tar.gz?
# tar zxvf sarg-2.3.8.tar.gz
# cd sarg-2.3.8
注意: 对于64位的Linux,log.c的源代码需要用下面的文件打补丁。
复制代码
代码如下:
1506c1506
< if (fprintf(ufile->file, "%s\t%s\t%s\t%s\t%"PRIi64"\t%s\t%ld\t%s\n",dia,hora,ip,url,nbytes,code,elap_time,smartfilter)<=0) {
---
> if (fprintf(ufile->file, "%s\t%s\t%s\t%s\t%"PRIi64"\t%s\t%ld\t%s\n",dia,hora,ip,url,(int64_t)nbytes,code,elap_time,smartfilter)<=0) {
1513c1513
< fprintf(fp_log, "%s\t%s\t%s\t%s\t%s\t%"PRIi64"\t%s\t%ld\t%s\n",dia,hora,user,ip,url,nbytes,code,elap_time,smartfilter);
---
> fprintf(fp_log, "%s\t%s\t%s\t%s\t%s\t%"PRIi64"\t%s\t%ld\t%s\n",dia,hora,user,ip,url,(int64_t)nbytes,code,elap_time,smartfilter);
1564c1564
< printf("LEN=\t%"PRIi64"\n",nbytes);---
> printf("LEN=\t%"PRIi64"\n",(int64_t)nbytes);
如下继续并编译/安装SARG
复制代码
代码如下:
# ./configure
# make
# make install
SARG安装之后,配置文件可以按你的要求修改。下面是一个SARG配置的例子。
复制代码
代码如下:
# vim /usr/local/etc/sarg.conf
access_log /var/log/squid/access.log
temporary_dir /tmp
output_dir /var/www/html/squid-reports
date_format e ## We use Europian DD-MM-YYYY format here ##
## we don’t want multiple reports for single day/week/month ##
overwrite_report yes
现在是时候测试运行了,我们用调试模式运行sarg来查看是否存在错误。
复制代码
代码如下:
# sarg -x
如果i一切正常,sarg会根系Squid日志,并在/var/www/html/squid-reports下创建报告。报告也可以在浏览器中通过地址http://<服务器IP>/squid-reports/访问。
SARG可以用于创建日、周、月度报告。时间范围用“-d”参数来指定,值的形式很可能为day-n、 week-n 或者 month-n,n的值为向前推移的天/周/月的数量。比如,使用week-1,SARG会生成之前一星期的报告。使用day-2,SARG会生成之前两天的报告。
作为演示,我们会准备一个计划任务来每天运行SARG。
复制代码
代码如下:
# vim /etc/cron.daily/sarg
#!/bin/sh
/usr/local/bin/sarg -d day-1
文件需要可执行权限。
复制代码
代码如下:
# chmod 755 /usr/local/bin/sarg
现在SARG应该会每天准备关于Squid管理的流量报告。这些报告可以很容易地通过SARG网络接口访问。
以上就是利用SARG工具,来分析分析Squid日志,并以更详细的方式展示分析。系统管理员可以利用SARG来监视哪些网站被访问了,并跟踪访问量最大的网站和用户。
另外脚本之家小编找来的这篇文章还包含了SARG配置工作。你可以进一步自定义配置来满足自己的要求。希望能帮助大家,谢谢有点。
⑼ 爱站seo工具包之日志分析工具怎么用
1、此工具支持直接拖拽日志文件(一个或者多个)至窗口进行分析,可自动识别IIS、Apache、Nginx日志格式。 2、蜘蛛分析 包括概要分析,即所有不同的蜘蛛的访问次数、停留时间、总抓取量的数据分析。目录抓取,即站点目录被抓取的数据量分析。页面抓取,单个页面被抓取的数据量分析。IP排行,不同IP地址的访问次数、抓取量、停留时长的排行对比。 3、本工具每一项数据都分别以“数据显示”和“图形显示”两种不同方式展示数据结果; 方便用户从不同角度来查看分析。 4、搜索引擎分析之关键词分析 可分析出各搜索引擎来路的关键词。这里不仅是蜘蛛分析,同时兼顾到了用户分析。 5、状态码分析 分为用户状态码和蜘蛛状态码分析。通过查看网站正常状态码和问题状态码,第一时间发现网站的问题页面,及时修改,改善用户体验和蜘蛛体验。 6、按时间统计 工具自动保存不同日期的日志文件数据,每一项统计功能都可以按照时间来分析,可有效查看时间段内的数据变化趋势。
