当前位置:首页 » 编程语言 » python多进程变量

python多进程变量

发布时间: 2023-05-19 10:48:09

python多线程全局变量和锁

1.python中数据类型,int,float,复数,字符,元组,做全局变量时需要在函数里面用global申明变量,才能对变量进行操作。

而,对象,列表,词典,不需要声明,直接就是全局的。

2.线程锁mutex=threading.Lock()

创建后就是全局的。线程调用函数可以直接在函数中使用。

mutex.acquire()开启锁

mutex=release()关闭锁

要注意,死锁的情况发生。

注意运行效率的变化:

正常1秒,完成56997921

加锁之后,1秒只运行了531187,相差10倍多。

3.继承.threading.Thread的类,无法调用__init__函数,无法在创建对象时初始化新建的属性。

4.线程在cpu的执行,有随机性

5. 新建线程时,需要传参数时,args是一个元组,如果只有一个参数,一定后面要加一个,符号。不能只有一个参数否则线程会报创建参数错误。threading.Thread(target=fuc,args=(arg,))

Ⅱ python 多进程

基于官方文档:
https://docs.python.org/zh-cn/3/library/multiprocessing.html
日乐购,刚才看到的一个博客,写的都不太对,还是基于官方的比较稳妥
我就是喜欢抄官方的,哈哈

通常我们使用Process实例化一个进程,并调用 他的 start() 方法启动它。
这种方法和 Thread 是一样的。

上图中,我写了 p.join() 所以主进程是 等待 子进程执行完后,才执行 print("运行结束")
否则就是反过来了(这个不一定,看你的语句了,顺序其实是随机的)例如:

主进加个 sleep

所以不加join() ,其实子进程和主进程是各干各的,谁也不等谁。都执行完后,文件运行就结束了

上面我们用了 os.getpid() 和 os.getppid() 获取 当前进程,和父进程的id
下面就讲一下,这两个函数的用法:
os.getpid()
返回当前进程的id
os.getppid()
返回父进程的id。 父进程退出后,unix 返回初始化进程(1)中的一个
windows返回相同的id (可能被其他进程使用了)
这也就解释了,为啥我上面 的程序运行多次, 第一次打印的parentid 都是 14212 了。
而子进程的父级 process id 是调用他的那个进程的 id : 1940

视频笔记:
多进程:使用大致方法:

参考: 进程通信(pipe和queue)

pool.map (函数可以有return 也可以共享内存或queue) 结果直接是个列表

poll.apply_async() (同map,只不过是一个进程,返回结果用 xx.get() 获得)

报错:

参考 : https://blog.csdn.net/xiemanR/article/details/71700531

把 pool = Pool() 放到 if name == " main ": 下面初始化搞定。
结果:

这个肯定有解释的

测试多进程计算效果:
进程池运行:

结果:

普通计算:

我们同样传入 1 2 10 三个参数测试:

其实对比下来开始快了一半的;
我们把循环里的数字去掉一个 0;
单进程:

多进程:

两次测试 单进程/进程池 分别为 0.669 和 0.772 几乎成正比的。
问题 二:
视图:
post 视图里面

Music 类:

直接报错:

写在 类里面也 在函数里用 self.pool 调用也不行,也是相同的错误。

最后 把 pool = Pool 直接写在 search 函数里面,奇迹出现了:

前台也能显示搜索的音乐结果了

总结一点,进程这个东西,最好 写在 直接运行的函数里面,而不是 一个函数跳来跳去。因为最后可能 是在子进程的子进程运行的,这是不许的,会报错。
还有一点,多进程运行的函数对象,不能是 lambda 函数。也许lambda 虚拟,在内存??

使用 pool.map 子进程 函数报错,导致整个 pool 挂了:
参考: https://blog.csdn.net/hedongho/article/details/79139606
主要你要,对函数内部捕获错误,而不能让异常抛出就可以了。

关于map 传多个函数参数
我一开始,就是正常思维,多个参数,搞个元祖,让参数一一对应不就行了:

报错:

参考:
https://blog.csdn.net/qq_15969343/article/details/84672527
普通的 process 当让可以穿多个参数,map 却不知道咋传的。
apply_async 和map 一样,不知道咋传的。

最简单的方法:
使用 starmap 而不是 map

结果:
子进程结束
1.8399453163146973
成功拿到结果了

关于map 和 starmap 不同的地方看源码

关于apply_async() ,我没找到多参数的方法,大不了用 一个迭代的 starmap 实现。哈哈

关于 上面源码里面有 itertools.starmap
itertools 用法参考:
https://docs.python.org/zh-cn/3/library/itertools.html#itertool-functions

有个问题,多进程最好不要使用全部的 cpu , 因为这样可能影响其他任务,所以 在进程池 添加 process 参数 指定,cpu 个数:

上面就是预留了 一个cpu 干其他事的

后面直接使用 Queue 遇到这个问题:

解决:
Manager().Queue() 代替 Queue()

因为 queue.get() 是堵塞型的,所以可以提前判断是不是 空的,以免堵塞进程。比如下面这样:
使用 queue.empty() 空为True

Ⅲ python 多进程

os.fork()指令会创建另外一个进程,他的输出源也是你的python command line或者其他IDE。所以你会看见2个提示符。另外,IDE要处理那么多输出源,当然会很卡。还有,你连打下3次这个命令,相当于对三个进程都进行了下达指令,所以这时候你的进程数目为8(看不懂的建议看小学数学)。你的各个进程的输出会类似于打架,所以窗口会变得很慢。
建议:用pid来区分各个进程(os.fork()在父进程会返回pid,子进程会返回0),例如:
import os
import time
pid=os.fork()
if pid==0:
time.sleep(0.1);

print "Child."

else:
print "The child's pid is:"+str(pid)

//end

以上代码中子进程我给他暂停0.1秒来防止与父进程的输出“打架”,当然有更好的解决方法,由于字数限制不打出来了,具体就是锁住输出源,通过之后再解锁,可以网络。

点赞、采纳、转发,素质三连,友谊你我他!

Ⅳ python中多进程和多线程的区别

什么是线程、进程?
进程(process)与线程(thread)是操作系统的基本概念,它们比较抽象,不容易掌握。
关于这两者,最经典的一句话就是“进程是资源分配的最小单位,线程是CPU调度的最小单位”,线程是程序中一个单一的顺序控制流程,进程内一个相对独立的、可调度的执行单元,是系统独立调度和分配CPU的基本单位指运行中的程序的调度单位,在单个程序中同时运行多个线程完成不同的工作,称为多线程。
进程与线程的区别是什么?
进程是资源分配的基本单位,所有与该进程有关的资源,都被记录在进程控制块PCB中,以表示该进程拥有这些资源或正在使用它们,另外,进程也是抢占处理机的调度单位,它拥有一个完整的虚拟地址空间,当进程发生调度时,不同的进程拥有不同的虚拟地址空间,而同一进程内的不同线程共享同一地址空间。
与进程相对应的,线程与资源分配无关,它属于某一个进程,并与进程内的其他线程一起共享进程的资源,线程只由相关堆栈(系统栈或用户栈)寄存器和线程控制表TCB组成,寄存器可被用来存储线程内的局部变量,但不能存储其他线程的相关变量。
通常在一个进程中可以包含若干个线程,它们可以利用进程所拥有的资源,在引入线程的操作系统中,通常都是把进程作为分配资源的基本单位,而把线程作为独立运行和独立调度的基本单位。
由于线程比进程更小,基本上不拥有系统资源,所以对它的调度所付出的开销就会小得多,能更高效的提高系统内多个程序间并发执行的程度,从而显着提高系统资源的利用率和吞吐量。
因而近年来推出的通用操作系统都引入了线程,以便进一步提高系统的并发性,并把它视为现代操作系统的一个重要指标。

Ⅳ python3.4.3 多进程之间结果变量的传递问题,程序无任何结果输出

多进程间共享的变量要使用特殊的数据结构,在multiprocessing包里有提供,常用的有Queue, Value, Array等,这里比较适合用Queue

修改后的程序如下,注意Result赋值,和ProcessCheck的参数

另外,Result要排序后输出的话,要用循环从Queue取值构建list再排序,这里省略了

importdatetime
importsys
importtime
importmultiprocessing
PartStart=[]#每个process计算的起点
PartEnd=[]#每个process计算的终点
Result=multiprocessing.Queue()#所有结果存储在Result数组中
ProcessCount=10#进程数
EndNum=9999999#计算范围,默认100开始,终止数可以任意修改,大于100即可

print('Start:%s'%datetime.datetime.now().strftime("%Y/%d/%m%H:%M:%S"))
start=time.time()

d=int(((EndNum-99)/ProcessCount)+0.5)
foriinrange(ProcessCount):
PartStart.append(100+i*d)
PartEnd.append(PartStart[i]+d-1)
PartEnd[ProcessCount-1]=EndNum
#==========================================
#这段代码只是计算每个process的计算起点和终点

defCheckNum(Number):
tmp=str(Number)
len_num=len(tmp)
sum_num=0
foriinrange(len_num):
sum_num=sum_num+(int(tmp[i])**len_num)
ifsum_num==int(Number):
returnTrue
#print(Number,"是水仙花数")
else:
returnFalse
#print(Number,"不是水仙花数")
defProcessCheck(Start,End,Result):
forjinrange(int(Start),int(End)+1):
ifCheckNum(j):
#print(j,"是水仙花数")
print("helloworld")
Result.put(str(j)+"是水仙花数")
#============================================
#这段代码用于计算某数值区间内的水仙花数,并存储进result数组中,也是每个process运行的代码

defmain():
threads=[]
foriinrange(ProcessCount):
p=multiprocessing.Process(target=ProcessCheck,args=(PartStart[i],PartEnd[i],Result))
threads.append(p)
foriinrange(ProcessCount):
threads[i].start()
foriinrange(ProcessCount):
threads[i].join()
#Result.sort(key=lambdat:t[0])
foriinrange(Result.qsize()):
print(Result.get())
#将最后的结果排序输出,但没有任何结果出现
end=time.time()
input('End:%s'%datetime.datetime.now().strftime("%Y/%d/%m%H:%M:%S")+" "+"共耗时:"+str(end-start))
#这个input没有任何意义,主要是防止程序直接结束退出
if__name__=='__main__':
main()
热点内容
一般电脑配置哪个好 发布:2025-05-20 10:40:58 浏览:602
我的世界撸树服务器 发布:2025-05-20 10:33:37 浏览:739
ftp搭建win7 发布:2025-05-20 10:06:06 浏览:82
访问坚果 发布:2025-05-20 10:06:02 浏览:394
ftpxlight 发布:2025-05-20 10:05:22 浏览:111
java的实验报告 发布:2025-05-20 10:02:06 浏览:528
豪华配置高电动轿车有哪些 发布:2025-05-20 10:01:59 浏览:487
哪些电脑配置低 发布:2025-05-20 09:34:16 浏览:955
地板网站源码 发布:2025-05-20 09:27:23 浏览:346
安卓视频转换器怎么使用 发布:2025-05-20 09:20:52 浏览:544