python模拟登陆qq空间
1. python Request库模拟登录
1.读取本地用户文件,或者账号名和密码昌耐正耐悔
2.使用md5对用户密码进行加密
3.获取session的临时随机串及sessionid
4.对随机串及用户密码进行二次md5加密生成新的请求秘钥串
5.传递用户名、新的秘钥串及sessionid模拟用户登录亩基
2. 知乎的qq登录怎么用python和webdriver定位到“账号密码登录”
使用Python+Selenium模拟登录QQ空间
爬QQ空间之类的页面时大多需掘芹要进行登录,研究QQ登录规则的话,得毁散斗分析大量Javascript的加密解纤磨密,这绝对能掉好几斤头发。而现在有了selenium工具,麻麻再也不用担心你的QQ登录!
driver.findelementbyid('switcherplogin').click()
3. python爬虫怎么登陆qq空间
要看QQ空间是不是开放访问的,带账号、密码绑定的用户去做。
4. python怎么黑进别人qq空间
获取别人好友的cookie,模拟成别人好友访问 即可获取相应的数据
5. Python 怎样模拟qq空间登陆
用urllib2
例陆宴尺如:
url = 'http://i.qq.com/'
data = {'name': 'username','password': '早高123456'}
post_data = urllib.urlencode(data)
req = urllib2.Request(url, post_data)
response = urllib2.urlopen(req)
page_content = response.read()
这个data这里是随便写的, 你自己用祥扮抓包工具看看是qq空间是什么样子的。
6. 如何用python登陆qq读取信息
一次偶然的机会我看见了一个群里的一个QQ号总是根据你所发的消息自动回复,当时很感觉到神奇,我知道可以模拟登录网站,没想到竟然也能模拟登录QQ,首先自己想到的就是如何实现模拟登录PC端的QQ, 开始研究了下,发现QQ所发送的包都很难理解。
于是就转到了网页版的QQ,因为在网页里可以捕获所有的请求从而更好的实现模拟功能!
首先第一步就是打开网页版的qq,打开浏览器的开发者模式 这里可以监控所有的请求!
打开登录界面的的时候
会捕捉到一个GET请求
其中uin是你的QQ号
返回值是 ptui_checkVC('1','','x00x00x00x00x00xa1x92x12');
其中1表示需要验证码 还有一种返回值 ptui_checkVC('0','!LJV','x00x00x00x00x00xa1x92x12') 这种表示是不需要的验证码的
[python]view plain
defCheckVerify(self,uin):
check="h"
check=check.replace('{uin}',uin)
pattern=re.compile("ptui_checkVC′(.∗)′,′(.∗)′,′(.∗)′;")
result=self.Get(check)
checked=pattern.search(result).groups()
print'Step1:CheckVerify'
returnchecked
- [python]view plain
defGetVerify(self):
#url='hage?&uin='+str(self.QQ)+'&aid=1002101&0.45644426648505'+str(random.randint(10,99))
verify="htqq.com/getimage?aid=1003903&r=0.6472875226754695&uin={QQ}&cap_cd=aSD-ZVcNEcozlZUurhNYhp-MBHf4hjbJ"
verify=verify.replace('{QQ}',self.QQ)
path=r"c:/verify/1.jpg"
#data=urllib.urlretrieve(url,path)
data=urllib2.urlopen(verify)
localPic=open(r"c:/verify/1.jpg",'wb')
localPic.write(data.read())
localPic.close()
data.close()
- [python]view plain
defPasswordSecret(self,password,v1,v2,md5=True):
ifmd5==True:
password=self.PCMd5(password).upper()
length=len(password)
temp=''
foriinrange(0,length,2):
temp+=r'x'+password[i:i+2]
returnself.PCMd5(self.PCMd5(self.hex2asc(temp)+self.hex2asc(v2)).upper()+v1).upper()
#md5加密函数
defPCMd5(self,s):
h=hashlib.md5()
h.update(s)
returnh.hexdigest()
#16进制转字符
defhex2asc(self,s):
_str="".join(s.split(r'x'))
length=len(_str)
data=''
foriinrange(0,length,2):
data+=chr(int(_str[i:i+2],16))
returndata
- [python]view plain
defLogin(self,uin,pwd):
#获取参数
cheked=self.CheckVerify(uin)
#加密密码
#pwd=self.PasswordSecret(pwd,cheked[1],cheked[2])
#pwd=self.PasswordSecret(pwd,r'AAST',r'x00x00x00x00x00xa1x92x12')
loginurl="h&t=1&g=1&js_type=0&js_ver=10080&login_sig=YPD0P*&pt_uistyle=5"
loginurl=loginurl.replace('{uin}',uin)
#loginurl=loginurl.replace('{pwd}',pwd)
#loginurl=loginurl.replace('{verify}',cheked[1])
#result=Get(loginurl)
if(cheked[0]=="1"):
#下载验证码
self.GetVerify()
image=Image.open(r"c:/verify/1.jpg")
image.show()
code=raw_input("verifycode:").strip()
loginurl=loginurl.replace('{verify}',code.upper())
pwd=self.PasswordSecret(pwd,r''+code.upper(),cheked[2])
#pwd=self.PasswordSecret(pwd,cheked[1],cheked[2])
else:
loginurl=loginurl.replace('{verify}',cheked[1])
pwd=self.PasswordSecret(pwd,cheked[1],cheked[2])
loginurl=loginurl.replace('{pwd}',pwd)
result=self.Get(loginurl,'ssl.ptlogin2.qq.com','hin2.qq.com/cgi-bin/login?daid=164&target=self&style=5&mibao_css=m_webqq&appid=1003903&enable_qlogin=0&no_verifyimg=1&s_urlm%2Floginproxy.html&f_url=loginerroralert&strong_login=1&login_state=10&t=20140514001',None)
print'Step2:Login'
pattern=re.compile("ptuiCB′(.∗)′,′(.∗)′,′(.∗)′,′(.∗)′,′(.∗)′,s′(.∗)′;")
ret=pattern.search(result).groups()
#获取必要的cookie否则第二次登陆会出错
self.Get(ret[2])
print'Step3:GetCookie'
forcinself.cj:
ifc.name=="ptwebqq":
self.ptwebqq=c.value
returnresult
Accept:*/*
Accept-Encoding:gzip,deflate,sdch
Accept-Language:zh-CN,zh;q=0.8
Connection:keep-alive
Content-Length:244
Content-Type:application/x-www-form-urlencoded
Cookie:o_cookie=455910092; RK=fMEaWEZ0Qc; ts_last=web2.qq.com/; ts_refer=www..com/; ts_uid=4588821804; pgv_pvid=914251705; pgv_info=ssid=s3525422600&pgvReferrer=; verifysession=h02LeYrtarkWBZeSu_czkiczeNSNlDm7V1mCm-**; ptui_loginuin=10588690; ptisp=cnc; ptcz=; ptwebqq=; pt2gguin=o0010588690; uin=o0010588690; skey=@gmEO6N2JD; p_uin=o0010588690; p_skey=cZ5*kS-_; pt4_token=1SyuJ39Eq6oKEwEhGIizeg__
Host:d.web2.qq.com
Origin:h
Referer:htttml?v=20110331002&callback=1&id=2
User-Agent:Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/34.0.1847.116 Safari/537.36
Form Dataview sourceview URL encoded
r:{"status":"online","ptwebqq":"","passwd_sig":"","clientid":"7963288","psessionid":null}
clientid:7963288
psessionid:null
- [python]view plain
defLogin2(self):
try:
url="htel/login2"
postdata="r=%7B%22status%22%3A%22online%22%2C%22ptwebqq%22%3A%22{$ptwebqq}%22%2C%22passwd_sig%22%3A%22%22%2C%22clientid%22%3A%22{$clientid}%22%2C%22psessionid%22%3Anull%7D&clientid={$clientid}&psessionid=null"
postdata=postdata.replace("{$ptwebqq}",self.ptwebqq)
postdata=postdata.replace("{$clientid}",str(self.clientid))
print'Step4:Login2'
result=self.Post(url,postdata,QQRobot.HOST[0],QQRobot.REFERER[0],QQRobot.ORIGIN[0])
retjson=json.loads(result)
retjson=retjson["result"]
returnretjson
exceptException,e:
print"Login2error"+str(e)
- [python]view plain
#获取群列表信息
defGetGroupNameList(self,vfwebqq):
try:
url="h/get_group_name_list_mask2"
postdata="r=%7B%22vfwebqq%22%3A%22{$vfwebqq}%22%7D"
postdata=postdata.replace("{$vfwebqq}",vfwebqq)
ret=self.Post(url,postdata,QQRobot.HOST[1],QQRobot.REFERER[1],QQRobot.ORIGIN[1])
print'Step5:GetGroupList'
retjson=json.loads(ret)
retjson=retjson["result"]
self.grouplist=retjson
forgroupinself.grouplist['gnamelist']:
printgroup["code"],group["name"]
exceptException,e:
获取验证码的方法
输入用户名和密码 还有验证码后发送一个GET请求
这里面u代表账号 p代表密码 密码是经过一定算法加密的 verify是验证码
加密算法如下
然后是登录部分代码
登录成功后服务器会返回一串json数据
ptuiCB('0','0','ebqq_type%3D10&f_url=&ptlang=2052&ptredirect=100&aid=1003903&daid=164&j_later=0&low_login_hour=0®master=0&pt_login_type=1&pt_aid=0&pt_aaid=0&pt_light=0','0','登录成功!', '小竹');
第一个为0 就表示登录成功了 ,但是这并没有真正的登录成功
上面的返回值中的url是用来获取一个关键cookie的 那就是ptwebqq
然后进行第二次登录,这次才是真正的登录
请求如下
其中的ptwebqq就是刚才我们从cookie中获取的
这部分代码是
第二次登陆成功后会返回一个
'''{"retcode":0,
"result":{
"uin":10588690,
"cip":1707901841,
"index":1075,
"port":59571,
"status":"online",
"vfwebqq":"85c31018d2",
"psessionid":"85c31018d2",
"user_state":0,
"f":0
}
}'''
这样的数据结构 其中0表示登陆成功
需要把这写数据保存下来 后面进行操作需要
登陆成功后我们就可以拉去群列表了
7. Python 模拟登陆遇到验证码怎么办
方法1:找个验证码识别程晌桐序,自动识别
方法2:自己用PIL写一个
方法3:让用户手工输入验埋孙证码。这个比较简单
方法4:让后台程序开一个后门宴液坦,让你绕过验证码
方法5:直接使用cookie,这样就不用登陆了
8. python爬虫模拟登录是什么意思
有些网站需要登录后才能爬取所需要的信息,此时可以设计爬虫进行模拟登录,原理是利用浏览器cookie。
一、浏览器访问服务器的过程:
(1)浏览器(客户端)向Web服务器发出一个HTTP请求(Http request);
(2)Web服务器收到请求,发回响应信息(Http Response);
(3)浏览器解析内容呈现给用户。
二、利用Fiddler查看浏览器行为信息:
Http请求消息:
(1)起始行:包括请求方法、请求的资源、HTTP协议的版本号
这里GET请求没有消息主体,因此消息头后的空白行中没有其他数据。
(2)消息头:包含各种属性
(3)消息头结束后的空白行
(4)可选的消息体:包含数据
Http响应消息:
(1)起始行:包括HTTP协议版本,http状态码和状态
(2)消息头:包含各种属性
(3)消息体:包含数据
可以发现,信息里不仅有帐号(email)和密码(password),其实还有_xsrf(具体作用往后看)和remember_me(登录界面的“记住我”)两个值。
那么,在python爬虫中将这些信息同样发送,就可以模拟登录。
在发送的信息里出现了一个项:_xsrf,值为
这个项其实是在访问知乎登录网页https://www.hu.com/#signin时,网页发送过来的信息,在浏览器源码中可见:
所以需要先从登录网址https://www.hu.com/#signin获取这个_xsrf的值,
并连同帐号、密码等信息再POST到真正接收请求的http://www.hu.com/login/email网址。
(2)获取_xsrf的值:
爬取登录网址https://www.hu.com/#signin,从内容中获取_xsrf的值。
正则表达式。
(3)发送请求:
xsrf = 获取的_xsrf的值
data = {"email":"xxx","password":"xxx","_xsrf":xsrf}
login = s.post(loginURL, data = data, headers = headers)
loginURL:是真正POST到的网址,不一定等同于登录页面的网址;
(4)爬取登录后的网页:
response = s.get(getURL, cookies = login.cookies, headers = headers)
getURL:要爬取的登陆后的网页;
login.cookies:登陆时获取的cookie信息,存储在login中。
(5)输出内容:
print response.content
五、具体代码:
[python]view plain
#-*-coding:utf-8-*-
#author:Simon
#updatetime:2016年3月17日17:35:35
#功能:爬虫之模拟登录,urllib和requests都用了...
importurllib
importurllib2
importrequests
importre
headers={'User-Agent':'Mozilla/5.0(WindowsNT6.2)AppleWebKit/535.11(KHTML,likeGecko)Chrome/17.0.963.12Safari/535.11'}
defget_xsrf():
firstURL="http://www.hu.com/#signin"
request=urllib2.Request(firstURL,headers=headers)
response=urllib2.urlopen(request)
content=response.read()
pattern=re.compile(r'name="_xsrf"value="(.*?)"/>',re.S)
_xsrf=re.findall(pattern,content)
return_xsrf[0]
deflogin(par1):
s=requests.session()
afterURL="https://www.hu.com/explore"#想要爬取的登录后的页面
loginURL="http://www.hu.com/login/email"#POST发送到的网址
login=s.post(loginURL,data=par1,headers=headers)#发送登录信息,返回响应信息(包含cookie)
response=s.get(afterURL,cookies=login.cookies,headers=headers)#获得登陆后的响应信息,使用之前的cookie
returnresponse.content
xsrf=get_xsrf()
print"_xsrf的值是:"+xsrf
data={"email":"xxx","password":"xxx","_xsrf":xsrf}
printlogin(data)
六、补充:
用知乎网做完试验,发现这里好像并不需要发送_xsrf这个值。
不过有的网站在登陆时确实需要发送类似这样的一个值,可以用上述方法。
9. 求救各位大侠,下面Python代码怎么登陆不了QQ空间
每次刷他是有次数限制的,貌似70次,输入很快的话40次,然后就不行了,要么是验证码错误,要么是限制,不过孝渣有个巧禅悄小秘诀,一开始验证码不管输什么都是对的,那就只管按一个键就行了,你那个袭手问题只有等一段时间,然后重启再刷,1个小时最佳