日誌分析工具怎麼編譯
⑴ 愛站SEO工具包之日誌分析工具
愛站SEO工具包之網站日誌分析工具的使用方法。
1、此工具可以自動識別IIS、Apache、Nginx日誌格式,支持直接拖拽日誌一個或多個文件(夾)至窗口進行分析,每一項數據都分別以「數據顯示」和「圖形顯示」兩種不同方式向用戶展示數據結果。
以上就是愛站SEO工具包之網站日誌分析工具的詳細介紹。
⑵ 怎麼對logcat日誌進行分析
可以看到,當有一個程序進行編譯時,打開LogCat確沒有看到日誌的輸出:
從右上角打開DDMS
選擇Reset adb
然後重新編譯程序
如果還是沒有輸出日誌
接下來就重新打開一下eclipse
重新編譯,沒問題了,日誌照常列印輸出。
⑶ 如何進行網站日誌分析
一、什麼是網站日誌
1.網站日誌是記錄web伺服器接收處理請求以及運行時錯誤等各種原始信息的以·log結尾的文件。
2.通過網站日誌可以清楚的得知用戶在什麼IP、什麼時間、用什麼操作系統、什麼瀏覽器、什麼解析度設備下訪問了網站的哪個頁面,是否訪問成功。
3.搜索引擎也屬於網站中的一類用戶,我們今天的分享課,主要是針對搜索引擎這種用戶在伺服器留下的記錄展開分析。
為了方便讀懂搜索引擎日誌,我們需要了解不同搜索引擎蜘蛛的標識,以下為4種搜索引擎的標識——*網路蜘蛛:Baispider*搜狗:Sogou News Spider*360:360Spider*谷歌:Googlebot
二、如何看懂網站日誌
(以下為一段日誌記錄)www.cafehome.com
58.180.251.134 - - [25/Mar/2015:13:24:33 +0800] "GET /m53256.html
HTTP/1.1" 200 12264 "http://www.cafehome.com/index-1s2i2p2" "Mozilla/5.0
(Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko)
Chrome/35.0.1916.153 Safari/537.36 SE 2.X MetaSr 1.0" "-" "-" "-"
以下為欄位解讀:
⑷ 愛站seo工具包日誌分析工具怎麼用
今天分享一個愛站SEO工具包,相信很多人員都在用,這個工具是國內最好最全的SEO優化工具,幫助站長們優化,站長要用到的一些東西在這上面都有,希望更多的小夥伴去應用,方便你優化站點,它也有收費版的,我們可以申請帳號用免費版的,其實他們的功能差不多,只是收費版的實用效果更強大些,如果是你是中小型網站就夠用了,下面來看一下它的主流功能有哪些:
主要優化輔助功能:
友鏈查詢:它也是愛站最常用的一個功能,可以快速查出你站點的友鏈,用紅色字標出對方是否有你的站點!
友鏈交換:這個功能也非常好,不用去找友情鏈接了,直接在這裡面找,跟鏈天下這個工具差不多!
關鍵詞監控:監控你網站關鍵所有排名情況,對國內所有主流搜索引擎進行監控,還可以記錄網站關鍵詞的排名歷史數據,支持自定義添加,相關推薦,關鍵詞挖掘以及競爭對搜關鍵詞借鑒等添加方式,排名一覽無余!
收錄率,死鏈檢測:可以查詢你網站的收錄情況,哪些頁面收錄了哪些頁面沒有收錄,以及網站路徑的狀態碼,網站頁面數,並且提供網站死鏈頁面入口,支持nofollow過濾,收錄的情況很整齊,讓人看起特別舒服
異地排名:可以看自己網站每中國每個地區排名情況,一目瞭然,想看就看!
關鍵詞挖掘:它可以挖出長尾關鍵詞,並且還可以對挖出的關鍵詞進行過濾篩選,把一些無用的長尾詞進行過濾,非常實用,老蔡認為,只是挖出的關鍵詞數量太少了點。(只有100個)
站群查詢:可以批量查詢大量網站的權重,網站反鏈,站點pr,收錄情況,以及網站備案信息等數據,支持內頁查詢,支持數據批量篩選導出!
網路外鏈:同步網路的站長平台,幫助站長們處理網路拒絕垃圾外鏈,輕松的解決競爭對手給你發垃圾外鏈,導致網站降權,因此這外鏈這一塊降權有保障!
日誌分析:它支持目錄抓取,頁面抓取,蜘蛛狀態碼,IP排行等功能,還可以把蜘蛛進行分類抓取,並且對你的日誌分析進行分類保存,不要你去做記錄分類了,真實用!
網站監控:監控你網站空間的穩定性,可以通過QQ郵箱或者手機通知,你的網站什麼時出故障了,跟監控寶工具差不多!
其它:上面的功能真的很全,上面可以生robots.txt,網站地圖,301查詢,404查詢,關鍵詞密度查詢等,這個小工具確定太給力了,推薦給不知道的小夥伴們!
⑸ 如何使用藍屏日誌分析工具分析藍屏日誌文件
Win8系統查看藍屏代碼的方法:
1、打開系統日誌的方法有兩種,一種是右擊這台電腦選擇管理,另一種是按下winkey +r 輸入eventvwr 回車;
2、點擊展開時間查看器——windows 日誌——系統;
3、點擊右邊的篩選當前的日誌;
4、選擇僅顯示嚴重、警告、錯誤三項後點擊確認;
5、通過錯誤日誌的發生時間,逐個雙擊打開查找導致故障的日誌。如果是發生藍屏重啟的錯誤信息,將有「電腦已經在檢查錯誤後重新啟動」的提示。後面則為藍屏代碼。
⑹ 如何分析 coremp vs2012
coremp是我們在調試程序時經常碰到的問題,分析coremp的方法多種多樣:分析日誌;
編譯一個含符號表的debug版binary,在產生coremp後,使用一些調試工具gdb,dbx等分析core文件。這里介紹一種不藉助於日誌和gdb等工具,完全手工分析的辦法。
以常見的非法地址訪問引起的coremp為例,它會觸發11號信號----SIGSEGV.
#define STACK_BACK_SIZE 0x100
void SegFaultHandler(int signo)
{
int trace;
int *p = &trace;
int i;
for(i = 0; i < STACK_BACK_SIZE; i++)
syslog(LOG_DEBUG, "stack: %p:%x", p,*p++);
exit(signo);
}
void main()
{
signal(SIGSEGV, SegFaultHandler);
... ...
}
在產生coremp時,觸發信號SIGSEGV,由於其處理函數已被注冊為SegvHandler,則SegvHandler被調用。
SegvHandler所做的就是列印出當前棧上STACK_BACK_SIZE個整數。根據這STACK_BACK_SIZE個整數,再反匯編binary代碼,就可以確定coremp所產生的指令。
這是因為如果某條指令產生coremp,那麼SegvHandler的返回地址就是該指令的下一條指令,當然實際在coremp發生時,系統可能會增加對libc.so中mutex_lock等的調用,再調用SegvHandle,棧空間是:
--------->SegFaultHandler (棧頂)
---------------->mutex_lock(libc.so)
-------------------------->引起coremp指令的下一條指令
如果最終編譯生成的binary文件是a.out,使用readelf或objmp將a.out反匯編,就可以知道棧空間上的對應內容,也就是SegFaultHandler中列印出的各值的含義,不外乎是返回地址,保存的寄存器值和局部變數等。
如果是在linux平台下,那麼就不需要分析符號表,而可以調用backtrace來打出當前調用棧從而知道哪個函數導致coremp,但注意link時要加上 -rdynamic選項,否則符號表內容不清楚:
#include <execinfo.h>
void print_trace()
{
void *array[40];
size_t size;
char **strings;
size_t i;
size = backtrace (array, 40);
strings = backtrace_symbols (array, size);
for (i = 0; i < size; i++)
{
printf("##callstack##%s\n", strings[i]);
}
printf("\n");
free (strings);
}
void SegFaultHandler(int signo)
{
int trace;
print_trace();
exit(signo);
}
void main()
{
signal(SIGSEGV, SegFaultHandler);
... ...
}
⑺ 日誌圖形化分析工具logstalgia怎麼用
安裝
root@zrools:~# apt-get -y install logstalgia1
使用
root@zrools:~# logstalgia access_log1
遠程讀取伺服器web日誌
root@zrools:~# ssh user@host tail -f access.log | logstalgia --sync1
保存成視頻使用--output-ppm-stream選項,再使用avconv/ffmpeg轉換成mp4格式或其他格式
root@zrools:~# ssh user@host tail -f access.log | logstalgia -1280x720 --output-ppm-stream --sync output.ppm
root@zrools:~# avconv -y -r 60 -f image2pipe -vcodec ppm -i output.ppm -vcodec libx264 -preset ultr
⑻ 如何用SARG日誌分析器來分析Squid日誌
SARG是一款基於網路的工具,它可以分析Squid日誌,並以更詳細的方式展示分析。系統管理員可以利用SARG來監視哪些網站被訪問了,並跟蹤訪問量最大的網站和用戶。本文包含了SARG配置工作。SARG提供了很多有用的特性,但是分析一個原始Squid日誌文件並不直接。比如,你如何分析下面Squid日誌中的時間戳和數字?
復制代碼
代碼如下:
1404788984.429 1162 172.17.1.23 TCP_MISS/302 436 GET http://facebook.com/ - DIRECT/173.252.110.27 text/html
1404788985.046 12416 172.17.1.23 TCP_MISS/200 4169 CONNECT stats.pusher.com:443 - DIRECT/173.255.223.127 -
1404788986.124 174 172.17.1.23 TCP_MISS/200 955 POST http://ocsp.digicert.com/ - DIRECT/117.18.237.29 application/ocsp-response
1404788989.738 342 172.17.1.23 TCP_MISS/200 3890 CONNECT www.google.com:443 - DIRECT/74.125.200.106 -
1404788989.757 226 172.17.1.23 TCP_MISS/200 942 POST http://clients1.google.com/ocsp - DIRECT/74.125.200.113 application/ocsp-response
1404788990.839 3939 172.17.1.23 TCP_MISS/200 78944 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788990.846 2148 172.17.1.23 TCP_MISS/200 118947 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788990.849 2151 172.17.1.23 TCP_MISS/200 76809 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788991.140 611 172.17.1.23 TCP_MISS/200 110073 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 –
我們使用yum來安裝安裝必要的依賴。
復制代碼
代碼如下:
# yum install gcc make wget httpd crond
在啟動時載入必要的服務
復制代碼
代碼如下:
# service httpd start; service crond start
# chkconfig httpd on; chkconfig crond on
現在我們下載並解壓SARG
上一節教程中,我們展示了如何在CentOS上使用Squid配置透明代理。Squid提供了很多有用的特性,但是分析一個原始Squid日誌文件並不直接。比如,你如何分析下面Squid日誌中的時間戳和數字?
復制代碼
代碼如下:
1404788984.429 1162 172.17.1.23 TCP_MISS/302 436 GET http://facebook.com/ - DIRECT/173.252.110.27 text/html
1404788985.046 12416 172.17.1.23 TCP_MISS/200 4169 CONNECT stats.pusher.com:443 - DIRECT/173.255.223.127 -
1404788986.124 174 172.17.1.23 TCP_MISS/200 955 POST http://ocsp.digicert.com/ - DIRECT/117.18.237.29 application/ocsp-response
1404788989.738 342 172.17.1.23 TCP_MISS/200 3890 CONNECT www.google.com:443 - DIRECT/74.125.200.106 -
1404788989.757 226 172.17.1.23 TCP_MISS/200 942 POST http://clients1.google.com/ocsp - DIRECT/74.125.200.113 application/ocsp-response
1404788990.839 3939 172.17.1.23 TCP_MISS/200 78944 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788990.846 2148 172.17.1.23 TCP_MISS/200 118947 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788990.849 2151 172.17.1.23 TCP_MISS/200 76809 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788991.140 611 172.17.1.23 TCP_MISS/200 110073 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 –
我們使用yum來安裝安裝必要的依賴。
復制代碼
代碼如下:
# yum install gcc make wget httpd crond
在啟動時載入必要的服務
復制代碼
代碼如下:
# service httpd start; service crond start
# chkconfig httpd on; chkconfig crond on
現在我們下載並解壓SARG
復制代碼
代碼如下:
# wget http://downloads.sourceforge.net/project/sarg/sarg/sarg-2.3.8/sarg-2.3.8.tar.gz?
# tar zxvf sarg-2.3.8.tar.gz
# cd sarg-2.3.8
注意: 對於64位的Linux,log.c的源代碼需要用下面的文件打補丁。
復制代碼
代碼如下:
1506c1506
< if (fprintf(ufile->file, "%s\t%s\t%s\t%s\t%"PRIi64"\t%s\t%ld\t%s\n",dia,hora,ip,url,nbytes,code,elap_time,smartfilter)<=0) {
---
> if (fprintf(ufile->file, "%s\t%s\t%s\t%s\t%"PRIi64"\t%s\t%ld\t%s\n",dia,hora,ip,url,(int64_t)nbytes,code,elap_time,smartfilter)<=0) {
1513c1513
< fprintf(fp_log, "%s\t%s\t%s\t%s\t%s\t%"PRIi64"\t%s\t%ld\t%s\n",dia,hora,user,ip,url,nbytes,code,elap_time,smartfilter);
---
> fprintf(fp_log, "%s\t%s\t%s\t%s\t%s\t%"PRIi64"\t%s\t%ld\t%s\n",dia,hora,user,ip,url,(int64_t)nbytes,code,elap_time,smartfilter);
1564c1564
< printf("LEN=\t%"PRIi64"\n",nbytes);---
> printf("LEN=\t%"PRIi64"\n",(int64_t)nbytes);
如下繼續並編譯/安裝SARG
復制代碼
代碼如下:
# ./configure
# make
# make install
SARG安裝之後,配置文件可以按你的要求修改。下面是一個SARG配置的例子。
復制代碼
代碼如下:
# vim /usr/local/etc/sarg.conf
access_log /var/log/squid/access.log
temporary_dir /tmp
output_dir /var/www/html/squid-reports
date_format e ## We use Europian DD-MM-YYYY format here ##
## we don』t want multiple reports for single day/week/month ##
overwrite_report yes
現在是時候測試運行了,我們用調試模式運行sarg來查看是否存在錯誤。
復制代碼
代碼如下:
# sarg -x
如果i一切正常,sarg會根系Squid日誌,並在/var/www/html/squid-reports下創建報告。報告也可以在瀏覽器中通過地址http://<伺服器IP>/squid-reports/訪問。
SARG可以用於創建日、周、月度報告。時間范圍用「-d」參數來指定,值的形式很可能為day-n、 week-n 或者 month-n,n的值為向前推移的天/周/月的數量。比如,使用week-1,SARG會生成之前一星期的報告。使用day-2,SARG會生成之前兩天的報告。
作為演示,我們會准備一個計劃任務來每天運行SARG。
復制代碼
代碼如下:
# vim /etc/cron.daily/sarg
#!/bin/sh
/usr/local/bin/sarg -d day-1
文件需要可執行許可權。
復制代碼
代碼如下:
# chmod 755 /usr/local/bin/sarg
現在SARG應該會每天准備關於Squid管理的流量報告。這些報告可以很容易地通過SARG網路介面訪問。
以上就是利用SARG工具,來分析分析Squid日誌,並以更詳細的方式展示分析。系統管理員可以利用SARG來監視哪些網站被訪問了,並跟蹤訪問量最大的網站和用戶。
另外腳本之家小編找來的這篇文章還包含了SARG配置工作。你可以進一步自定義配置來滿足自己的要求。希望能幫助大家,謝謝有點。
⑼ 愛站seo工具包之日誌分析工具怎麼用
1、此工具支持直接拖拽日誌文件(一個或者多個)至窗口進行分析,可自動識別IIS、Apache、Nginx日誌格式。 2、蜘蛛分析 包括概要分析,即所有不同的蜘蛛的訪問次數、停留時間、總抓取量的數據分析。目錄抓取,即站點目錄被抓取的數據量分析。頁面抓取,單個頁面被抓取的數據量分析。IP排行,不同IP地址的訪問次數、抓取量、停留時長的排行對比。 3、本工具每一項數據都分別以“數據顯示”和“圖形顯示”兩種不同方式展示數據結果; 方便用戶從不同角度來查看分析。 4、搜索引擎分析之關鍵詞分析 可分析出各搜索引擎來路的關鍵詞。這里不僅是蜘蛛分析,同時兼顧到了用戶分析。 5、狀態碼分析 分為用戶狀態碼和蜘蛛狀態碼分析。通過查看網站正常狀態碼和問題狀態碼,第一時間發現網站的問題頁面,及時修改,改善用戶體驗和蜘蛛體驗。 6、按時間統計 工具自動保存不同日期的日誌文件數據,每一項統計功能都可以按照時間來分析,可有效查看時間段內的數據變化趨勢。