當前位置:首頁 » 編程語言 » python調用微信

python調用微信

發布時間: 2022-05-08 02:48:03

『壹』 用python可以做微信小程序嗎

其實微信小程序作為一個前端的機制,Python並不能插上邊。只不過可以作為後端介面為微信小程序提供數據服務而已。python可以做後端服務和小程序通訊,python可以寫後端平台,提供api,微信小程序就用wx.request()調用這個api。

微信小程序主要的三大塊wxml控制頁面結構、wxss控制頁面樣式、js控制頁面邏輯。

如果創建的是一個不需要後端伺服器支持的微信小程序,那麼與Python就沒什麼關系了。

如果需要後端傳送接收處理數據,那麼後端就還有Python的用武之地,可以用Python的Web框架寫一個後端介面供小程序進行調用。

更多Python知識請關注Python自學網。

『貳』 如何用Python實現微信自動簽到功能

題主的簽到模式是什麼樣子的?
一般來說分三種:
* 給公眾號發送特定文字
* 普通的網頁點擊
* 授權的網頁點擊
我這里給出前兩種的解決方案。
普通的網頁點擊:
1. 建議通過瀏覽器或者Wireshark分析消息的交互。
2. 之後通過requests模擬。
由於沒有具體的網址,我沒有辦法給出具體的代碼。
給公眾號發送特定的問題:
1. 建議使用Python的微信API(pip install itchat)
2. 由於沒有提供Python版本,我這里給出兼容的解決方案

#coding=utf8
import threading

import itchat

SIGN_IN_MP_DICT = {
u'學校微信公眾號': u'學校簽到口令',
u'公司微信公眾號': u'公司簽到口令', }

def get_day(timeGap):
return int(time.strftime('%y%m%d', time.localtime(time.time() + timeGap)))

NEXT_SIGN_DATE = get_day(60*60*24)

def sign_in_thread():
''' 簽到線程
如果尚未到需要簽到的日期,則繼續循環
如果到了需要簽到的日期,則完成兩個公眾號的簽到,並更新日期
'''
while 1:
if get_day < NEXT_SIGN_DATE:
time.sleep(30)
else:
for k, v in SIGN_IN_MP_DICT.items():
itchat.send(msg=v,
toUserName=itchat.search_mps(name=k)[0]['UserName'])
NEXT_SIGN_DATE = get_day(60*60*24)

itchat.auto_login(True)
# 測試是否存在特定公眾號
for mpName in SIGN_IN_MP_DICT.keys():
mpList = itchat.search_mps(name=mpName)
if len(mpList) != 1:
print(u'沒有檢測到公眾號「%s」,請檢查名稱')
break
else:
signInThread = threading.Thread(target=sign_in_thread)
signInThread.setDaemon(True)
signInThread.start()
itchat.run()

『叄』 python怎麼抓取微信閱

抓取微信公眾號的文章

一.思路分析

目前所知曉的能夠抓取的方法有:

1、微信APP中微信公眾號文章鏈接的直接抓取(http://mp.weixin.qq.com/s?__biz=MjM5MzU4ODk2MA==&mid=2735446906&idx=1&sn=&scene=0#rd)


2、通過微信合作方搜狗搜索引擎(http://weixin.sogou.com/),發送相應請求來間接抓取

第1種方法中,這種鏈接不太好獲取,而且他的規律不是特別清晰。

因此本文採用的是方法2----通過給 weixin.sogou.com 發送即時請求來實時解析抓取數據並保存到本地。

二.爬取過程

1、首先在搜狗的微信搜索頁面測試一下,這樣能夠讓我們的思路更加清晰


在搜索引擎上使用微信公眾號英文名進行「搜公眾號」操作(因為公眾號英文名是公眾號唯一的,而中文名可能會有重復,同時公眾號名字一定要完全正確,不然可能搜到很多東西,這樣我們可以減少數據的篩選工作,只要找到這個唯一英文名對應的那條數據即可),即發送請求到'http://weixin.sogou.com/weixin?type=1&query=%s&ie=utf8&_sug_=n&_sug_type_= ' % 'python',並從頁面中解析出搜索結果公眾號對應的主頁跳轉鏈接。

2.獲取主頁入口內容

使用request , urllib,urllib2,或者直接使用webdriver+phantomjs等都可以

這里使用的是request.get()的方法獲取入口網頁內容

[python]view plain

  • #爬蟲偽裝頭部設置

  • self.headers={'User-Agent':'Mozilla/5.0(WindowsNT6.3;WOW64;rv:51.0)Gecko/20100101Firefox/51.0'}

  • #設置操作超時時長

  • self.timeout=5

  • #爬蟲模擬在一個request.session中完成

  • self.s=requests.Session()


  • [python]view plain

  • #搜索入口地址,以公眾為關鍵字搜索該公眾號

  • defget_search_result_by_keywords(self):

  • self.log('搜索地址為:%s'%self.sogou_search_url)

  • returnself.s.get(self.sogou_search_url,headers=self.headers,timeout=self.timeout).content

  • 3.獲取公眾號地址

    從獲取到的網頁內容中,得到公眾號主頁地址, 這一步驟有很多方法, beautifulsoup、webdriver,直接使用正則,pyquery等都可以

    這里使用的是pyquery的方法來查找公眾號主頁入口地址

    [python]view plain

  • #獲得公眾號主頁地址

  • defget_wx_url_by_sougou_search_html(self,sougou_search_html):

  • doc=pq(sougou_search_html)

  • #printdoc('p[class="tit"]')('a').attr('href')

  • #printdoc('div[class=img-box]')('a').attr('href')

  • #通過pyquery的方式處理網頁內容,類似用beautifulsoup,但是pyquery和jQuery的方法類似,找到公眾號主頁地址

  • returndoc('div[class=txt-box]')('p[class=tit]')('a').attr('href')

  • 4.獲取公眾號主頁的文章列表

    首先需要載入公眾號主頁,這里用的是phantomjs+webdriver, 因為這個主頁的內容需要JS 渲染載入,採用之前的方法只能獲得靜態的網頁內容

    [python]view plain

  • #使用webdriver載入公眾號主頁內容,主要是js渲染的部分

  • defget_selenium_js_html(self,url):

  • browser=webdriver.PhantomJS()

  • browser.get(url)

  • time.sleep(3)

  • #執行js得到整個頁面內容

  • html=browser.execute_script("returndocument.documentElement.outerHTML")

  • returnhtml

  • 得到主頁內容之後,獲取文章列表,這個文章列表中有我們需要的內容

    [python]view plain

  • #獲取公眾號文章內容

  • defparse_wx_articles_by_html(self,selenium_html):

  • doc=pq(selenium_html)

  • print'開始查找內容msg'

  • returndoc('div[class="weui_media_boxappmsg"]')

  • #有的公眾號僅僅有10篇文章,有的可能多一點

  • #returndoc('div[class="weui_msg_card"]')#公眾號只有10篇文章文章的

  • 5.解析每一個文章列表,獲取我們需要的信息

    6.處理對應的內容

    包括文章名字,地址,簡介,發表時間等

    7.保存文章內容

    以html的格式保存到本地

    同時將上一步驟的內容保存成excel 的格式

    8.保存json數據

    這樣,每一步拆分完,爬取公眾號的文章就不是特別難了。

    三、源碼

    第一版源碼如下:

    [python]view plain

  • #!/usr/bin/python

  • #coding:utf-8

  • importsys

  • reload(sys)

  • sys.setdefaultencoding('utf-8')

  • fromurllibimportquote

  • frompyqueryimportPyQueryaspq

  • fromseleniumimportwebdriver

  • importrequests

  • importtime

  • importre

  • importjson

  • importos

  • classweixin_spider:

  • def__init__(self,kw):

  • '構造函數'

  • self.kw=kw

  • #搜狐微信搜索鏈接

  • #self.sogou_search_url='http://weixin.sogou.com/weixin?type=1&query=%s&ie=utf8&_sug_=n&_sug_type_='%quote(self.kw)

  • self.sogou_search_url='http://weixin.sogou.com/weixin?type=1&query=%s&ie=utf8&s_from=input&_sug_=n&_sug_type_='%quote(self.kw)

  • #爬蟲偽裝

  • self.headers={'User-Agent':'Mozilla/5.0(WindowsNT10.0;WOW64;rv:47.0)Gecko/20100101FirePHP/0refox/47.0FirePHP/0.7.4.1'}

  • #操作超時時長

  • self.timeout=5

  • self.s=requests.Session()

  • defget_search_result_by_kw(self):

  • self.log('搜索地址為:%s'%self.sogou_search_url)

  • returnself.s.get(self.sogou_search_url,headers=self.headers,timeout=self.timeout).content

  • defget_wx_url_by_sougou_search_html(self,sougou_search_html):

  • '根據返回sougou_search_html,從中獲取公眾號主頁鏈接'

  • doc=pq(sougou_search_html)

  • #printdoc('p[class="tit"]')('a').attr('href')

  • #printdoc('div[class=img-box]')('a').attr('href')

  • #通過pyquery的方式處理網頁內容,類似用beautifulsoup,但是pyquery和jQuery的方法類似,找到公眾號主頁地址

  • returndoc('div[class=txt-box]')('p[class=tit]')('a').attr('href')

  • defget_selenium_js_html(self,wx_url):

  • '執行js渲染內容,並返回渲染後的html內容'

  • browser=webdriver.PhantomJS()

  • browser.get(wx_url)

  • time.sleep(3)

  • #執行js得到整個dom

  • html=browser.execute_script("returndocument.documentElement.outerHTML")

  • returnhtml

  • defparse_wx_articles_by_html(self,selenium_html):

  • '從selenium_html中解析出微信公眾號文章'

  • doc=pq(selenium_html)

  • returndoc('div[class="weui_msg_card"]')

  • defswitch_arctiles_to_list(self,articles):

  • '把articles轉換成數據字典'

  • articles_list=[]

  • i=1

  • ifarticles:

  • forarticleinarticles.items():

  • self.log(u'開始整合(%d/%d)'%(i,len(articles)))

  • articles_list.append(self.parse_one_article(article))

  • i+=1

  • #break

  • returnarticles_list

  • defparse_one_article(self,article):

  • '解析單篇文章'

  • article_dict={}

  • article=article('.weui_media_box[id]')

  • title=article('h4[class="weui_media_title"]').text()

  • self.log('標題是:%s'%title)

  • url='http://mp.weixin.qq.com'+article('h4[class="weui_media_title"]').attr('hrefs')

  • self.log('地址為:%s'%url)

  • summary=article('.weui_media_desc').text()

  • self.log('文章簡述:%s'%summary)

  • date=article('.weui_media_extra_info').text()

  • self.log('發表時間為:%s'%date)

  • pic=self.parse_cover_pic(article)

  • content=self.parse_content_by_url(url).html()

  • contentfiletitle=self.kw+'/'+title+'_'+date+'.html'

  • self.save_content_file(contentfiletitle,content)

  • return{

  • 'title':title,

  • 'url':url,

  • 'summary':summary,

  • 'date':date,

  • 'pic':pic,

  • 'content':content

  • }

  • defparse_cover_pic(self,article):

  • '解析文章封面圖片'

  • pic=article('.weui_media_hd').attr('style')

  • p=re.compile(r'background-image:url(.∗?)')

  • rs=p.findall(pic)

  • self.log('封面圖片是:%s'%rs[0]iflen(rs)>0else'')

  • returnrs[0]iflen(rs)>0else''

  • defparse_content_by_url(self,url):

  • '獲取文章詳情內容'

  • page_html=self.get_selenium_js_html(url)

  • returnpq(page_html)('#js_content')

  • defsave_content_file(self,title,content):

  • '頁面內容寫入文件'

  • withopen(title,'w')asf:

  • f.write(content)

  • defsave_file(self,content):

  • '數據寫入文件'

  • withopen(self.kw+'/'+self.kw+'.txt','w')asf:

  • f.write(content)

  • deflog(self,msg):

  • '自定義log函數'

  • printu'%s:%s'%(time.strftime('%Y-%m-%d%H:%M:%S'),msg)

  • defneed_verify(self,selenium_html):

  • '有時候對方會封鎖ip,這里做一下判斷,檢測html中是否包含id=verify_change的標簽,有的話,代表被重定向了,提醒過一陣子重試'

  • returnpq(selenium_html)('#verify_change').text()!=''

  • defcreate_dir(self):

  • '創建文件夾'

  • ifnotos.path.exists(self.kw):

  • os.makedirs(self.kw)

  • defrun(self):

  • '爬蟲入口函數'

  • #Step0:創建公眾號命名的文件夾

  • self.create_dir()

  • #Step1:GET請求到搜狗微信引擎,以微信公眾號英文名稱作為查詢關鍵字

  • self.log(u'開始獲取,微信公眾號英文名為:%s'%self.kw)

  • self.log(u'開始調用sougou搜索引擎')

  • sougou_search_html=self.get_search_result_by_kw()

  • #Step2:從搜索結果頁中解析出公眾號主頁鏈接

  • self.log(u'獲取sougou_search_html成功,開始抓取公眾號對應的主頁wx_url')

  • wx_url=self.get_wx_url_by_sougou_search_html(sougou_search_html)

  • self.log(u'獲取wx_url成功,%s'%wx_url)

  • #Step3:Selenium+PhantomJs獲取js非同步載入渲染後的html

  • self.log(u'開始調用selenium渲染html')

  • selenium_html=self.get_selenium_js_html(wx_url)

  • #Step4:檢測目標網站是否進行了封鎖

  • ifself.need_verify(selenium_html):

  • self.log(u'爬蟲被目標網站封鎖,請稍後再試')

  • else:

  • #Step5:使用PyQuery,從Step3獲取的html中解析出公眾號文章列表的數據

  • self.log(u'調用selenium渲染html完成,開始解析公眾號文章')

  • articles=self.parse_wx_articles_by_html(selenium_html)

  • self.log(u'抓取到微信文章%d篇'%len(articles))

  • #Step6:把微信文章數據封裝成字典的list

  • self.log(u'開始整合微信文章數據為字典')

  • articles_list=self.switch_arctiles_to_list(articles)

  • #Step7:把Step5的字典list轉換為Json

  • self.log(u'整合完成,開始轉換為json')

  • data_json=json.mps(articles_list)

  • #Step8:寫文件

  • self.log(u'轉換為json完成,開始保存json數據到文件')

  • self.save_file(data_json)

  • self.log(u'保存完成,程序結束')

  • #main

  • if__name__=='__main__':

  • gongzhonghao=raw_input(u'輸入要爬取的公眾號')

  • ifnotgongzhonghao:

  • gongzhonghao='python6359'

  • weixin_spider(gongzhonghao).run()

  • 第二版代碼:

    對代碼進行了一些優化和整改,主要:

    1.增加了excel存貯

    2.對獲取文章內容規則進行修改

    3.豐富了注釋

    本程序已知缺陷: 如果公眾號的文章內容包括視視頻,可能會報錯。

    [python]view plain

  • #!/usr/bin/python

  • #coding:utf-8

『肆』 如何用Python進行微信二次開發

創建步驟:

1.申請免費且支持python的伺服器,新浪雲sae,新建SAE應用之後,有兩種代碼提交方式,建議使用SVN(因為git支持代碼提交,但不支持環境配置);

2.將對應版本的信息復制到微信開發-基本配置-URL,提交顯示錯誤,因為還沒有寫代碼,可以先用web框webpy架寫個網頁;

查看webpy使用說明:http://www.webpy.org/install.zh-cn

查看ase進行python開發入門說明:http://www.sinacloud.com/doc/sae/python/index.html

3.配置信息,告訴新浪雲需要什麼運行環境。點擊代碼管理-編輯代碼,將用到的第三方庫信息寫入config.yaml,注意破折號,冒號後面空格!!

libraries:
-name:webpy
version:"0.36"

-name:lxml
version:"2.3.4"

在index.wsgi文件中寫入python啟動程序
新建文件,寫入接受微信get請求驗證的Python文件

4.在index.wgsi中寫入以下信息:

#coding=utf-8

importos
importsae
importweb#配置web的路由
urls=(
'/weixin','WeixinInterface'
)
#拼接路徑
app_root=os.path.dirname(__file__)
templates_root=os.path.join(app_root,'templates')
#渲染模版
render=web.template.render(templates_root)

#啟動app
app=web.application(urls,globals()).wsgifunc()
application=sae.create_wsgi_app(app)

5.在自己編寫的Python文件中寫入微信驗證和接受信息的程序

#coding=utf-8

importhashlib
importweb
importtime
importos
fromlxmlimportetree

#hashlib用於加密,md5,hash等
#lxml用來解析xml文件

classWeixinInterface(object):
#初始化
def__init__(self):
#拼接路徑
self.app_root=os.path.dirname(__file__)
self.templates_root=os.path.join(self.app_root,'templates')
#渲染模版
self.render=web.template.render(self.templates_root)

#使用get方法,接收微信的get請求,看開發者文檔的說明
#http://mp.weixin.qq.com/wiki/8/.html
defGET(self):
data=web.input()
signature=data.signature#微信加密簽名
timestamp=data.timestamp#時間戳
nonce=data.nonce#隨機數
echostr=data.echostr#隨即字元串
token='zq90857'#自己設置的token

#將token、timestamp、nonce三個參數進行字典序排序
list=[token,timestamp,nonce]
list.sort()
#將三個參數字元串拼接成一個字元串進行sha1加密
sha1=hashlib.sha1()
map(sha1.update,list)
temStr=sha1.hexdigest()#加密
#判斷
iftemStr==signature:
returnechostr

6.假設接收文字信息,按照開發者文檔的要求,配置template文件夾下reply_text.xml文件

$defwith(toUser,fromUser,createtime,content)
<xml>
<ToUserName><![CDATA[$toUser]]></ToUserName>
<FromUserName><![CDATA[$fromUser]]></FromUserName>
<CreateTime>$createtime</CreateTime>
<MsgType><![CDATA[text]]></MsgType>
<Content><![CDATA[$content]]></Content>
</xml>

『伍』 Python在微信如何打開

python操作微信?用 itchat 模塊。微信並不支持運行任何 python 代碼。

『陸』 python怎麼轉換成微信程序

安裝模塊

1.生成微信對象

bot = Bot() #初始化一個對象,就相當於拿到了這個人的微信,後續的一些操作都要用它來完成

2.分別找到微信對象的好友,聊天對象,朋友,群組,公眾號

friends = bot.friends() # 獲取朋友

chats = bot.chats() # 獲取聊天對象

groups = bot.groups() #獲取群聊

maps = bot.maps() #獲取公眾號

拿到的都是列表 如果要取到對象加上角標[0] 但是這樣很麻煩 推薦方法,這樣寫

ensure_one(bot.groups().search('東寶中學優秀校友群'))

3. 查找某個好友

friend = bot.friends().search('袁勇')[0]

4.向好友發送消息

5.統計微信好友的信息,比如男女比例,地域分配,等等

bot.friends().stats_text()

6.監聽群裡面某個人的消息

7.接入圖靈機器人 讓機器人來回復好友信息

8.設置最大保存信息條數,並且可以搜索

9.用微信監控你的程序

1.獲得專用logger

2.指定一個群為消息接受者

3.將異常消息發送到指定對象那裡

『柒』 用python怎麼設計一個微信的介面

最近一段時間想看看能不能用萬能的python來對微信進行一些操作(比如自動搶紅包之類的...hahahaha),所以就在此記錄一下啦~~

1、安裝

sudo pip install itchat

2、登錄

itchat.auto_login()

註:itchat.auto_login()這種方法將會通過微信掃描二維碼登錄,但是這種登錄的方式確實短時間的登錄,並不會保留登錄的狀態,也就是下次登錄時還是需要掃描二維碼,如果加上hotReload==True,那麼就會保留登錄的狀態,至少在後面的幾次登錄過程中不會再次掃描二維碼,該參數生成一個靜態文件itchat.pkl用於存儲登錄狀態

itchat.auto_login(hotReload=True)

3、退出登錄

主要使用的是回調函數的方法,登錄完成後的方法需要賦值在 loginCallback中退出後的方法,需要賦值在 exitCallback中.若不設置 loginCallback的值, 將會自動刪除二維碼圖片並清空命令行顯示.

import itchat,time

def lcb():
print("登錄完成!")
def ecb():
print("退出成功!")

itchat.auto_login(loginCallback=lcb,exitCallback=ecb) #源碼中規定需要用回調函數。
time.sleep(10)
itchat.logout() #強制退出登錄

4、發送消息

send()

itchat.send(msg="WANGPC的微信消息!",toUserName="filehelper") #返回值為True或Flase

或者:

send_msg

send_msg(msg='Text Message', toUserName=None),其中的的msg是要發送的文本,toUserName是發送對象, 如果留空, 將發送給自己,返回值為True或者False

實例代碼

send_file

send_file(fileDir, toUserName=None) fileDir是文件路徑, 當文件不存在時, 將列印無此文件的提醒,返回值為True或者False

實例代碼

send_image

send_image(fileDir, toUserName=None) 參數同上

實例代碼

send_video

send_video(fileDir, toUserName=None) 參數同上

實例代碼

『捌』 用Python做到將微信里的所有信息都可以自動化,群發,定時發,等等需要學習哪些技術

以後不用設置自動化,沒法挽救了

熱點內容
android敏捷開發 發布:2025-05-11 11:56:49 瀏覽:79
腳本pon 發布:2025-05-11 11:52:27 瀏覽:825
ct5推薦哪個配置 發布:2025-05-11 11:47:45 瀏覽:741
領購未上傳發票 發布:2025-05-11 11:43:27 瀏覽:716
查看華為雲伺服器的ip地址 發布:2025-05-11 11:24:44 瀏覽:235
長沙銀行密碼多少 發布:2025-05-11 11:24:38 瀏覽:671
緩存手機視頻合並軟體哪個好 發布:2025-05-11 11:22:30 瀏覽:698
伺服器c盤怎麼清除 發布:2025-05-11 11:16:33 瀏覽:39
動態估演算法 發布:2025-05-11 11:06:19 瀏覽:923
sql2008使用教程 發布:2025-05-11 10:53:16 瀏覽:315