python中多线程,多进程,多协程概念及编程上的应用

摘要:
1.多线程线程是进程的一个实体,是CPU调度的最小单位。它是一个较小的基本单元,可以独立于进程运行。Num=5cpuio密集型适用于多线程开发。进程是系统中资源分配的最小单位。每个进程都有自己独立的内存空间。没有进程通过进程间通信进行通信。然而,进程占用独立空间,并且相对较重,因此上下文进程之间的切换成本相对较大,但相对稳定和安全。

1, 多线程

  1.  线程是进程的一个实体,是CPU进行调度的最小单位,他是比进程更小能独立运行的基本单位。
  2.  线程基本不拥有系统资源,只占用一点运行中的资源(如程序计数器,一组寄存器和栈),但是它可以与同属于一个进程的其他线程共享全部的资源。
  3.  提高程序的运行速率,上下文切换快,开销比较少,但是不够稳定,容易丢失数据,形成死锁。

直接上代码:

import time
import threading

# 函数1用时2秒
def fun1():
    time.sleep(2)
    print(threading.current_thread().name, time.ctime())

# 函数2用时4秒
def fun2():
    time.sleep(4)
    print(threading.current_thread().name, time.ctime())

# 函数3用时6秒
def fun3():
    time.sleep(6)
    print('hello python', time.ctime())

th1 = threading.Thread(target=fun1)
th2 = threading.Thread(target=fun2)
th3 = threading.Thread(target=fun3)

th1.start()
th2.start()
th3.start()

打印结果:

Thread-1 Mon Jan  7     11:01:52 2019
Thread-2 Mon Jan  7     11:01:54 2019
hello python Mon Jan  7 11:01:56 2019

解析:从结果看出,他们同一时间 11:01:50开始执行,分别用了不同的时间结束

接着往下看,添加join阻塞线程

''''''

th1.start() th1.join() th2.start() th2.join() th3.start() th3.join()

打印结果:

Thread-1 Mon Jan 7     11:19:00 2019
Thread-2 Mon Jan 7     11:19:04 2019
hello python Mon Jan 7 11:19:10 2019

我们看到这三线程按顺序依次执行。

我们接着看看线程的方法使用:

threading.enumerate()            #列举线程,返回列表,其中里面会有一条主线程
threading.activeCount()          #查看线程运行个数
threading.current_thread().name     #查看当前运行线程名称
join()                      #阻塞线程运行

我们接着看第二种开线程的方式:

import threading
import time

class MyThread(threading.Thread):
    def run(self):
        for i in range(3):
            time.sleep(1)
            msg = "I'm "+self.name+' @ '+str(i) #name属性中保存的是当前线程的名字
            print(msg)

if __name__ == '__main__':
    t = MyThread()
    t.setName('yangzhenyu')
    a = t.isAlive()
    print(a)
    print(t.getName())

    t.start()
    b = t.isAlive()
    print(b)

打印结果:

False
yanzghenyu
True
I'm yanzghenyu @ 0
I'm yanzghenyu @ 1
I'm yanzghenyu @ 2

方法总结:

t.setName()    #设置运行线程名称,不指定默认Thread-1 
t.getName()    #获取线程名称
t.isAlive()        #判断线程是否运行,返回布尔类型   

线程间共享全局变量:

import threading
import time

n = 100

def work01():
    global n
    for i in range(3):
        n += 1
    print(n)                          //103

def work02():
    global n
    print(n)                         //103

print(n)                             //100

t1 = threading.Thread(target=work01)
t1.start()
time.sleep(
1)
t2
= threading.Thread(target=work02) t2.start()

关于线程锁 

  1. 用threading.Lock()创建锁,用acquire()申请锁,每次只有一个线程获得锁,其他线程必须等此线程release()后才能获得锁
  2. RLock允许在同一线程中被多次acquire。而Lock却不允许这种情况。
  3. 注意:如果使用RLock,那么acquire和release必须成对出现,即同一线程中调用了n次acquire,必须调用n次的release才能真正释放所占用的琐

下面例子中我们用到的是Lock(),当加完锁之后,该方法同一时间内只能被一个线程调用。

import threading
mylock=threading.Lock()#创建锁
num = 0
def add_num(name):
    global num
    while True:
        mylock.acquire()#申请锁也就是加锁
        print('thread %s locked! num=%d'%(name,num))
        if num>=5:
            print('thread %s release! num=%d'%(name,num))
            mylock.release()#释放锁
            return 
        num += 1
        print('thread %s release! num = %d'%(name,num))
        mylock.release()

t1 = threading.Thread(target=add_num,args=('A',))
t2 = threading.Thread(target=add_num,args=('B',))
t1.start()
t2.start()

打印结果:

thread A locked! num=0
thread A release! num = 1
thread A locked! num=1
thread A release! num = 2
thread A locked! num=2
thread A release! num = 3
thread A locked! num=3
thread A release! num = 4
thread A locked! num=4
thread A release! num = 5
thread A locked! num=5
thread A release! num=5
thread B locked! num=5
thread B release! num=5

 python中多线程,多进程,多协程概念及编程上的应用第1张

cpu io密集型适合用多线程进行开发



关于进程:

  • 进程是系统进行资源分配的最小单位,每个进程都有自己的独立内存空间,不用进程通过进程间通信来通信。
  • 但是进程占据独立空间,比较重量级,所以上下文进程间的切换开销比较大,但是比较稳定安全。

进程创建:

第一种创建进程的方式:

from multiprocessing import Process
import time
import random
import os


def piao(name):
    print("%s is piaoping"%name)
    time.sleep(random.randint(0,1))
    print("%s is piao end"%name)

if __name__ == '__main__':
    print("CPU的个数是:%d"%os.cpu_count())
    p1 = Process(target=piao,args=("alex",),name="进程1")
    print(p1.name)
    p1.start()
    print("父进程!") #执行速度要远快于建立新进程的时间

打印结果:

CPU的个数是:2
进程1
父进程!
alex is piaoping
alex is piao end

第二种创建进程的方式:

from multiprocessing import Process
import time
import random

#继承Process类,并实现自己的run方法

class Piao(Process):
    def __init__(self,name):
        #必须调用父类的init方法
        super().__init__()
        self.name = name

    def run(self):
        print("%s is piaoing"%self.name)
        time.sleep(random.randint(1,3))
        print("%s is piaoeng"%self.name)


if __name__ == '__main__':
    p1 = Piao("Alex")
    #开辟一个新的进程实际上就是执行本进程所对应的run()方法
    p1.start()
    print("主进程!")

结果:

主进程!
Alex is piaoing
Alex is piaoeng

解析:join括号中不携带参数,表示父进程在这个位置要等待p1进程执行完成后,如果指定参数,也就是等待时间s,那么主进程将在这个时间内结束,

     用is_active()  方法即可检测进程的状态,不加join() 返回True,表示进程还在进行。

进程的方法,

start()    启动进程实例(创建子进程);
terminate():不管任务是否完成,立即终止;
name:    当前进程实例别名,默认为Process-N,N为从1开始递增的整数;
pid:     当前进程实例的PID值;  os.getpid()
is_alive(): 判断进程实例是否还在执行;
join([timeout]):是否等待进程实例执行结束,或等待多少秒;

进程池:

  在程序实际处理问题时,忙时会有成千上万个任务需要执行,闲时有零星任务,创建时需要消耗时间,销毁也需要时间,

即使开启成千上万个进程,操作系统也不能 让他同时执行。这里就用到了进程池,用于管理小块内存的申请与释放。

,

1,上代码:

from multiprocessing.pool import Pool
from time import sleep


def fun(a):
    sleep(1)
    print(a)

if __name__ == '__main__':
    p = Pool()   # 这里不加参数,但是进程池的默认大小,等于电脑CPU的核数
            # 也是创建子进程的个数,也是每次打印的数字的个数
    for i in range(10):
        p.apply_async(fun, args=(i,))
p.close() p.join()
# 等待所有子进程结束,再往后执行 print("end")

2,callback 举例:

from multiprocessing import Process,Pool


def func(i):
    i+=1
    return i#普通进程处理过的数据返回给主进程p1

def call_back(p1):
    p1+=1
    print(p1)

if __name__ == '__main__':
    p = Pool()
    for i in range(10):
        p1 = p.apply_async(func,args=(i,),callback = call_back)#p调用普通进程并且接受其返回值,将返回值给要执行的回调函数处理
    p.close()
    p.join()

解析:   1,p.apply ( func,args = ())     同步的效率,也就是说池中的进程一个一个的去执行任务

      p.apply_async( func,args = () , callback = None) : 异步的效率,也就是池中的进程一次性都去执行任务.

    2,异步处理任务时 : 必须要加上close和join. 进程池的所有进程都是守护进程(主进程代码执行结束,守护进程就结束). 

    3,func : 进程池中的进程执行的任务函数

       4,args : 可迭代对象性的参数,是传给任务函数的参数

       5,callback : 回调函数,就是每当进程池中有进程处理完任务了,返回的结果可以交给回调函数,

                由回调函数进行进一步处理,回调函数只异步才有,同步没有.回调函数是父进程调用.

3. map( func,iterable)  (该方法经常用到爬虫)

from multiprocessing import Pool

def func(num):
    num += 1
    print(num)
    return num

if __name__ == '__main__':
    p = Pool(2)
    res = p.map(func,[i for i in range(100)])
    # p.close()#map方法自带这两种功能
    # p.join()
    print('主进程中map的返回值',res)

func : 进程池中的进程执行的任务函数

iterable : 可迭代对象,是把可迭代对象那个中的每个元素一次传给任务函数当参数.

map方法自带close和join

进程间的通信:

1)队列

from multiprocessing import Queue,Process
import os,time,random

#添加数据函数
def proc_write(queue,urls):
    print("进程(%s)正在写入..."%(os.getpid()))
    for url in urls:
        queue.put(url)
        print("%s被写入到队列中"%(url))
        time.sleep(random.random()*3)

#读取数据函数
def proc_read(queue):
    print("进程(%s)正在读取..."%(os.getpid()))

    while True:
        url = queue.get()
        print("从队列中提取到:%s"%(url))

if __name__ =="__main__":
queue
= Queue() proc_writer1 = Process(target=proc_write,args=(queue,["ur1","ur2","ur3","ur4"])) proc_writer2 = Process(target=proc_write,args=(queue,["ur5","ur6","ur7","ur8"])) proc_reader = Process(target=proc_read,args=(queue,)) proc_writer1.start() proc_writer1.join() proc_writer2.start() proc_writer2.join() proc_reader.start() proc_reader.terminate()

生产者与消费者模式(线程间的通信):

from queue import Queue
import threading,time


class Producer(threading.Thread):
    def run(self):
        global queue
        count = 0
        while True:
            if queue.qsize() < 1000:
                for i in range(100):
                    count = count +1
                    msg = '生成产品'+str(count)
                    queue.put(msg)
                    print(msg)
            time.sleep(0.5)

class Consumer(threading.Thread):
    def run(self):
        global queue
        while True:
            if queue.qsize() > 100:
                for i in range(3):
                    msg = self.name + '消费了 '+queue.get()
                    print(msg)
            time.sleep(1)


if __name__ == '__main__':
    queue = Queue()

    for i in range(500):
        queue.put('初始产品'+str(i))
    for i in range(2):
        p = Producer()
        p.start()
    for i in range(5):
        c = Consumer()
        c.start()

2) 进程间的通信(管道)

from multiprocessing import Pipe,Process
import random,time,os

def proc_send(pipe,urls):
    for url in urls:
        print("进程(%s)发送:%s"%(os.getpid(),url))
        pipe.send(url)
        time.sleep(random.random())

def proc_recv(pipe):
    while True:
        print("进程(%s)接收到:%s"%(os.getpid(),pipe.recv()))
        time.sleep(random.random())

if __name__ == "__main__":
    pipe = Pipe()
    p1 = Process(target=proc_send,args=(pipe[0],["url_"+str(i) for i in range(10)],))   
    p2 = Process(target=proc_recv,args=(pipe[1],))
    p1.start()
    p2.start()
    p1.join()
    p2.terminate()

解析:

  pipe用于两个进程间的通信,两个进程分别位于管道的两端,Pipe方法返回(conn1,conn2)代表一个管道的两端,

  Pipe方法有dumplex参数,若该参数为True,管道为全双工模式,

  若为Fasle,conn1只负责接收消息,conn2只负责发送消息.send和recv方法分别是发送和接收消息的方法



协程:

协程:是更小的执行单位,是一种轻量级的线程,协程的切换只是单纯的操作CPU的上下文,所以切换速度特别快,且耗能小。

gevent是第三方库,通过greenlet实现协程,其基本思想是:

当一个greenlet遇到IO操作时,比如访问网络,就自动切换到其他的greenlet,等到IO操作完成,再在适当的时候切换回来继续执行。由于IO操作非常耗时,经常使程序处于等待状态,有了gevent为我们自动切换协程,就保证总有greenlet在运行,而不是等待IO。

由于切换是在IO操作时自动完成,所以gevent需要修改Python自带的一些标准库,这一过程在启动时通过monkey patch完成:

from gevent import monkey

monkey.patch_all()  # 用来在运行时动态修改已有的代码,而不需要修改原始代码。

import gevent
import requests


def f(url):
    print('GET: %s' % url)
    html = requests.get(url).text
    print(url, len(html))


gevent.joinall([
    gevent.spawn(f, 'http://i.maxthon.cn/'),  # 先执行这个函数,发送请求,等待的时候发送第二个请求
    gevent.spawn(f, 'http://www.jianshu.com/u/3cfeb3395a95'),
    gevent.spawn(f, 'http://edu.51cto.com/?jydh')])

运行结果:

GET: http://i.maxthon.cn/
GET: http://www.jianshu.com/u/3cfeb3395a95
GET: http://edu.51cto.com/?jydh
http://i.maxthon.cn/ 461786
http://edu.51cto.com/?jydh 353858
http://www.jianshu.com/u/3cfeb3395a95 597

从结果看,3个网络操作是并发执行的,而且结束顺序不同,但只有一个线程。

使用gevent,可以获得极高的并发性能,但gevent只能在Unix/Linux下运行,在Windows下不保证正常安装和运行。

免责声明:文章转载自《python中多线程,多进程,多协程概念及编程上的应用》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇k8s .netcore的春天Ubuntu离线安装软件包下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

机器学习算法与Python实践之(七)逻辑回归(Logistic Regression)

http://blog.csdn.net/zouxy09/article/details/20319673 机器学习算法与Python实践之(七)逻辑回归(Logistic Regression) zouxy09@qq.com http://blog.csdn.net/zouxy09 机器学习算法与Python实践这个系列主要是参考《机器学习实战》这本书...

【测试平台学习2】 Django 的初使用

前言 最近打算使用Django+Vue 打造一个简单的测试平台,本文对django 的使用略做记录 Django的安装与背景 Python 的后端主要有Django 和flask , 我对此只有粗浅的理解和认识, 使用flask 编写过一个接口Mock系统, flask是轻量化的,能快速实现接口的开发工作,但是它没有自带数据库。 Django 相对比较全面...

从深圳回武汉的面试感想以及一些面试题

  转载:https://www.cnblogs.com/itdragon/p/9026994.html 大家好,我是ITDragon龙,今天分享一些面试中常问的题目,和一些面试感受。我是四月二十五号离职,二十六号上午八点从深圳出发,下午三点到武汉。二十七号便开始参加面试。每天的节奏基本是:上午去公司面试,中午去小区房子装修监工,下午再去公司面试,中途还...

Linux中三种SCSI target的介绍之STGT

  版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。本文链接:https://blog.csdn.net/scaleqiao/article/details/46706953 最近在做一个和scsi target相关的项目,我借着这个机会调研了一下linux中现有的scsi target方...

Python实现自动连接密码本破解wifi

在闲余时间尝试了利用Python实现使用本地无线网卡,自动连接wifi,读取密码本中的密码,迭代尝试密码连接破解wifi,话不多说,代码随上,密码可以从网上下载,也可参考我的密码本: 链接:https://pan.baidu.com/s/1xNEKvurhs6SgdXlCmu_new 提取码:6666 在执行该脚本前,一定要安装pywifi包,--pip...

Ant学习---第一节:Ant安装和简单使用

一、下载 ant 插件,路径如下: http://ant.apache.org/bindownload.cgi 二、安装 ant 插件,解压下载下来的 ant 插件,配置环境变量(最好系统环境变量),如下: ANT_HOME:D:learn_toolapache-ant-1.9.4 还要将 ant 解压包中bin文件夹中的内容给配置到 path 环境变量中...