python模擬登陸qq空間
1. python Request庫模擬登錄
1.讀取本地用戶文件,或者賬號名和密碼昌耐正耐悔
2.使用md5對用戶密碼進行加密
3.獲取session的臨時隨機串及sessionid
4.對隨機串及用戶密碼進行二次md5加密生成新的請求秘鑰串
5.傳遞用戶名、新的秘鑰串及sessionid模擬用戶登錄畝基
2. 知乎的qq登錄怎麼用python和webdriver定位到「賬號密碼登錄」
使用Python+Selenium模擬登錄QQ空間
爬QQ空間之類的頁面時大多需掘芹要進行登錄,研究QQ登錄規則的話,得毀散斗分析大量Javascript的加密解纖磨密,這絕對能掉好幾斤頭發。而現在有了selenium工具,麻麻再也不用擔心你的QQ登錄!
driver.findelementbyid('switcherplogin').click()
3. python爬蟲怎麼登陸qq空間
要看QQ空間是不是開放訪問的,帶賬號、密碼綁定的用戶去做。
4. python怎麼黑進別人qq空間
獲取別人好友的cookie,模擬成別人好友訪問 即可獲取相應的數據
5. Python 怎樣模擬qq空間登陸
用urllib2
例陸宴尺如:
url = 'http://i.qq.com/'
data = {'name': 'username','password': '早高123456'}
post_data = urllib.urlencode(data)
req = urllib2.Request(url, post_data)
response = urllib2.urlopen(req)
page_content = response.read()
這個data這里是隨便寫的, 你自己用祥扮抓包工具看看是qq空間是什麼樣子的。
6. 如何用python登陸qq讀取信息
一次偶然的機會我看見了一個群里的一個QQ號總是根據你所發的消息自動回復,當時很感覺到神奇,我知道可以模擬登錄網站,沒想到竟然也能模擬登錄QQ,首先自己想到的就是如何實現模擬登錄PC端的QQ, 開始研究了下,發現QQ所發送的包都很難理解。
於是就轉到了網頁版的QQ,因為在網頁里可以捕獲所有的請求從而更好的實現模擬功能!
首先第一步就是打開網頁版的qq,打開瀏覽器的開發者模式 這里可以監控所有的請求!
打開登錄界面的的時候
會捕捉到一個GET請求
其中uin是你的QQ號
返回值是 ptui_checkVC('1','','x00x00x00x00x00xa1x92x12');
其中1表示需要驗證碼 還有一種返回值 ptui_checkVC('0','!LJV','x00x00x00x00x00xa1x92x12') 這種表示是不需要的驗證碼的
[python]view plain
defCheckVerify(self,uin):
check="h"
check=check.replace('{uin}',uin)
pattern=re.compile("ptui_checkVC′(.∗)′,′(.∗)′,′(.∗)′;")
result=self.Get(check)
checked=pattern.search(result).groups()
print'Step1:CheckVerify'
returnchecked
- [python]view plain
defGetVerify(self):
#url='hage?&uin='+str(self.QQ)+'&aid=1002101&0.45644426648505'+str(random.randint(10,99))
verify="htqq.com/getimage?aid=1003903&r=0.6472875226754695&uin={QQ}&cap_cd=aSD-ZVcNEcozlZUurhNYhp-MBHf4hjbJ"
verify=verify.replace('{QQ}',self.QQ)
path=r"c:/verify/1.jpg"
#data=urllib.urlretrieve(url,path)
data=urllib2.urlopen(verify)
localPic=open(r"c:/verify/1.jpg",'wb')
localPic.write(data.read())
localPic.close()
data.close()
- [python]view plain
defPasswordSecret(self,password,v1,v2,md5=True):
ifmd5==True:
password=self.PCMd5(password).upper()
length=len(password)
temp=''
foriinrange(0,length,2):
temp+=r'x'+password[i:i+2]
returnself.PCMd5(self.PCMd5(self.hex2asc(temp)+self.hex2asc(v2)).upper()+v1).upper()
#md5加密函數
defPCMd5(self,s):
h=hashlib.md5()
h.update(s)
returnh.hexdigest()
#16進制轉字元
defhex2asc(self,s):
_str="".join(s.split(r'x'))
length=len(_str)
data=''
foriinrange(0,length,2):
data+=chr(int(_str[i:i+2],16))
returndata
- [python]view plain
defLogin(self,uin,pwd):
#獲取參數
cheked=self.CheckVerify(uin)
#加密密碼
#pwd=self.PasswordSecret(pwd,cheked[1],cheked[2])
#pwd=self.PasswordSecret(pwd,r'AAST',r'x00x00x00x00x00xa1x92x12')
loginurl="h&t=1&g=1&js_type=0&js_ver=10080&login_sig=YPD0P*&pt_uistyle=5"
loginurl=loginurl.replace('{uin}',uin)
#loginurl=loginurl.replace('{pwd}',pwd)
#loginurl=loginurl.replace('{verify}',cheked[1])
#result=Get(loginurl)
if(cheked[0]=="1"):
#下載驗證碼
self.GetVerify()
image=Image.open(r"c:/verify/1.jpg")
image.show()
code=raw_input("verifycode:").strip()
loginurl=loginurl.replace('{verify}',code.upper())
pwd=self.PasswordSecret(pwd,r''+code.upper(),cheked[2])
#pwd=self.PasswordSecret(pwd,cheked[1],cheked[2])
else:
loginurl=loginurl.replace('{verify}',cheked[1])
pwd=self.PasswordSecret(pwd,cheked[1],cheked[2])
loginurl=loginurl.replace('{pwd}',pwd)
result=self.Get(loginurl,'ssl.ptlogin2.qq.com','hin2.qq.com/cgi-bin/login?daid=164&target=self&style=5&mibao_css=m_webqq&appid=1003903&enable_qlogin=0&no_verifyimg=1&s_urlm%2Floginproxy.html&f_url=loginerroralert&strong_login=1&login_state=10&t=20140514001',None)
print'Step2:Login'
pattern=re.compile("ptuiCB′(.∗)′,′(.∗)′,′(.∗)′,′(.∗)′,′(.∗)′,s′(.∗)′;")
ret=pattern.search(result).groups()
#獲取必要的cookie否則第二次登陸會出錯
self.Get(ret[2])
print'Step3:GetCookie'
forcinself.cj:
ifc.name=="ptwebqq":
self.ptwebqq=c.value
returnresult
Accept:*/*
Accept-Encoding:gzip,deflate,sdch
Accept-Language:zh-CN,zh;q=0.8
Connection:keep-alive
Content-Length:244
Content-Type:application/x-www-form-urlencoded
Cookie:o_cookie=455910092; RK=fMEaWEZ0Qc; ts_last=web2.qq.com/; ts_refer=www..com/; ts_uid=4588821804; pgv_pvid=914251705; pgv_info=ssid=s3525422600&pgvReferrer=; verifysession=h02LeYrtarkWBZeSu_czkiczeNSNlDm7V1mCm-**; ptui_loginuin=10588690; ptisp=cnc; ptcz=; ptwebqq=; pt2gguin=o0010588690; uin=o0010588690; skey=@gmEO6N2JD; p_uin=o0010588690; p_skey=cZ5*kS-_; pt4_token=1SyuJ39Eq6oKEwEhGIizeg__
Host:d.web2.qq.com
Origin:h
Referer:htttml?v=20110331002&callback=1&id=2
User-Agent:Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/34.0.1847.116 Safari/537.36
Form Dataview sourceview URL encoded
r:{"status":"online","ptwebqq":"","passwd_sig":"","clientid":"7963288","psessionid":null}
clientid:7963288
psessionid:null
- [python]view plain
defLogin2(self):
try:
url="htel/login2"
postdata="r=%7B%22status%22%3A%22online%22%2C%22ptwebqq%22%3A%22{$ptwebqq}%22%2C%22passwd_sig%22%3A%22%22%2C%22clientid%22%3A%22{$clientid}%22%2C%22psessionid%22%3Anull%7D&clientid={$clientid}&psessionid=null"
postdata=postdata.replace("{$ptwebqq}",self.ptwebqq)
postdata=postdata.replace("{$clientid}",str(self.clientid))
print'Step4:Login2'
result=self.Post(url,postdata,QQRobot.HOST[0],QQRobot.REFERER[0],QQRobot.ORIGIN[0])
retjson=json.loads(result)
retjson=retjson["result"]
returnretjson
exceptException,e:
print"Login2error"+str(e)
- [python]view plain
#獲取群列表信息
defGetGroupNameList(self,vfwebqq):
try:
url="h/get_group_name_list_mask2"
postdata="r=%7B%22vfwebqq%22%3A%22{$vfwebqq}%22%7D"
postdata=postdata.replace("{$vfwebqq}",vfwebqq)
ret=self.Post(url,postdata,QQRobot.HOST[1],QQRobot.REFERER[1],QQRobot.ORIGIN[1])
print'Step5:GetGroupList'
retjson=json.loads(ret)
retjson=retjson["result"]
self.grouplist=retjson
forgroupinself.grouplist['gnamelist']:
printgroup["code"],group["name"]
exceptException,e:
獲取驗證碼的方法
輸入用戶名和密碼 還有驗證碼後發送一個GET請求
這裡面u代表賬號 p代表密碼 密碼是經過一定演算法加密的 verify是驗證碼
加密演算法如下
然後是登錄部分代碼
登錄成功後伺服器會返回一串json數據
ptuiCB('0','0','ebqq_type%3D10&f_url=&ptlang=2052&ptredirect=100&aid=1003903&daid=164&j_later=0&low_login_hour=0®master=0&pt_login_type=1&pt_aid=0&pt_aaid=0&pt_light=0','0','登錄成功!', '小竹');
第一個為0 就表示登錄成功了 ,但是這並沒有真正的登錄成功
上面的返回值中的url是用來獲取一個關鍵cookie的 那就是ptwebqq
然後進行第二次登錄,這次才是真正的登錄
請求如下
其中的ptwebqq就是剛才我們從cookie中獲取的
這部分代碼是
第二次登陸成功後會返回一個
'''{"retcode":0,
"result":{
"uin":10588690,
"cip":1707901841,
"index":1075,
"port":59571,
"status":"online",
"vfwebqq":"85c31018d2",
"psessionid":"85c31018d2",
"user_state":0,
"f":0
}
}'''
這樣的數據結構 其中0表示登陸成功
需要把這寫數據保存下來 後面進行操作需要
登陸成功後我們就可以拉去群列表了
7. Python 模擬登陸遇到驗證碼怎麼辦
方法1:找個驗證碼識別程晌桐序,自動識別
方法2:自己用PIL寫一個
方法3:讓用戶手工輸入驗埋孫證碼。這個比較簡單
方法4:讓後台程序開一個後門宴液坦,讓你繞過驗證碼
方法5:直接使用cookie,這樣就不用登陸了
8. python爬蟲模擬登錄是什麼意思
有些網站需要登錄後才能爬取所需要的信息,此時可以設計爬蟲進行模擬登錄,原理是利用瀏覽器cookie。
一、瀏覽器訪問伺服器的過程:
(1)瀏覽器(客戶端)向Web伺服器發出一個HTTP請求(Http request);
(2)Web伺服器收到請求,發回響應信息(Http Response);
(3)瀏覽器解析內容呈現給用戶。
二、利用Fiddler查看瀏覽器行為信息:
Http請求消息:
(1)起始行:包括請求方法、請求的資源、HTTP協議的版本號
這里GET請求沒有消息主體,因此消息頭後的空白行中沒有其他數據。
(2)消息頭:包含各種屬性
(3)消息頭結束後的空白行
(4)可選的消息體:包含數據
Http響應消息:
(1)起始行:包括HTTP協議版本,http狀態碼和狀態
(2)消息頭:包含各種屬性
(3)消息體:包含數據
可以發現,信息里不僅有帳號(email)和密碼(password),其實還有_xsrf(具體作用往後看)和remember_me(登錄界面的「記住我」)兩個值。
那麼,在python爬蟲中將這些信息同樣發送,就可以模擬登錄。
在發送的信息里出現了一個項:_xsrf,值為
這個項其實是在訪問知乎登錄網頁https://www.hu.com/#signin時,網頁發送過來的信息,在瀏覽器源碼中可見:
所以需要先從登錄網址https://www.hu.com/#signin獲取這個_xsrf的值,
並連同帳號、密碼等信息再POST到真正接收請求的http://www.hu.com/login/email網址。
(2)獲取_xsrf的值:
爬取登錄網址https://www.hu.com/#signin,從內容中獲取_xsrf的值。
正則表達式。
(3)發送請求:
xsrf = 獲取的_xsrf的值
data = {"email":"xxx","password":"xxx","_xsrf":xsrf}
login = s.post(loginURL, data = data, headers = headers)
loginURL:是真正POST到的網址,不一定等同於登錄頁面的網址;
(4)爬取登錄後的網頁:
response = s.get(getURL, cookies = login.cookies, headers = headers)
getURL:要爬取的登陸後的網頁;
login.cookies:登陸時獲取的cookie信息,存儲在login中。
(5)輸出內容:
print response.content
五、具體代碼:
[python]view plain
#-*-coding:utf-8-*-
#author:Simon
#updatetime:2016年3月17日17:35:35
#功能:爬蟲之模擬登錄,urllib和requests都用了...
importurllib
importurllib2
importrequests
importre
headers={'User-Agent':'Mozilla/5.0(WindowsNT6.2)AppleWebKit/535.11(KHTML,likeGecko)Chrome/17.0.963.12Safari/535.11'}
defget_xsrf():
firstURL="http://www.hu.com/#signin"
request=urllib2.Request(firstURL,headers=headers)
response=urllib2.urlopen(request)
content=response.read()
pattern=re.compile(r'name="_xsrf"value="(.*?)"/>',re.S)
_xsrf=re.findall(pattern,content)
return_xsrf[0]
deflogin(par1):
s=requests.session()
afterURL="https://www.hu.com/explore"#想要爬取的登錄後的頁面
loginURL="http://www.hu.com/login/email"#POST發送到的網址
login=s.post(loginURL,data=par1,headers=headers)#發送登錄信息,返回響應信息(包含cookie)
response=s.get(afterURL,cookies=login.cookies,headers=headers)#獲得登陸後的響應信息,使用之前的cookie
returnresponse.content
xsrf=get_xsrf()
print"_xsrf的值是:"+xsrf
data={"email":"xxx","password":"xxx","_xsrf":xsrf}
printlogin(data)
六、補充:
用知乎網做完試驗,發現這里好像並不需要發送_xsrf這個值。
不過有的網站在登陸時確實需要發送類似這樣的一個值,可以用上述方法。
9. 求救各位大俠,下面Python代碼怎麼登陸不了QQ空間
每次刷他是有次數限制的,貌似70次,輸入很快的話40次,然後就不行了,要麼是驗證碼錯誤,要麼是限制,不過孝渣有個巧禪悄小秘訣,一開始驗證碼不管輸什麼都是對的,那就只管按一個鍵就行了,你那個襲手問題只有等一段時間,然後重啟再刷,1個小時最佳