加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 建站 > 正文

Python分布式进程中你会遇到的坑

发布时间:2019-05-29 11:56:05 所属栏目:建站 来源:编程思录
导读:小惊大怪 你是不是在用Python3或者在windows系统上编程?最重要的是你对进程和线程不是很清楚?那么恭喜你,在python分布式进程中,会有坑等着你去挖。。。(hahahaha,此处允许我吓唬一下你)开玩笑的啦,不过,如果你知道序列中不支持匿名函数,那这个坑就和
副标题[/!--empirenews.page--]

 Python分布式进程中你会遇到的坑

小惊大怪

你是不是在用Python3或者在windows系统上编程?最重要的是你对进程和线程不是很清楚?那么恭喜你,在python分布式进程中,会有坑等着你去挖。。。(hahahaha,此处允许我吓唬一下你)开玩笑的啦,不过,如果你知道序列中不支持匿名函数,那这个坑就和你say byebye了。好了话不多数,直接进入正题。

分布式进程

正如大家所知道的Process比Thread更稳定,而且Process可以分布到多台机器上,而Thread最多只能分布到同一台机器的多个CPU上。Python的multiprocessing模块不但支持多进程,其中managers子模块还支持把多进程分布到多台机器上。一个服务进程可以作为调度者,将任务分布到其他多个进程中,依靠网络通信。由于managers模块封装很好,不必了解网络通信的细节,就可以很容易地编写分布式多进程程序。

代码记录

举个例子

如果我们已经有一个通过Queue通信的多进程程序在同一台机器上运行,现在,由于处理任务的进程任务繁重,希望把发送任务的进程和处理任务的进程分布到两台机器上,这应该怎么用分布式进程来实现呢?你已经知道了原有的Queue可以继续使用,而且通过managers模块把Queue通过网络暴露出去,就可以让其他机器的进程来访问Queue了。好,那我们就这么干!

写个task_master.py

我们先看服务进程。服务进程负责启动Queue,把Queue注册到网络上,然后往Queue里面写入任务。

  1. #!/user/bin/pytthon 
  2. # -*- coding:utf-8 -*- 
  3. # @Time: 2018/3/3 16:46 
  4. # @Author: lichexo 
  5. # @File: task_master.py 
  6. import random, time, queue 
  7. from multiprocessing.managers import BaseManager 
  8. # 发送任务的队列: 
  9. task_queue = queue.Queue() 
  10. # 接收结果的队列: 
  11. result_queue = queue.Queue() 
  12. # 从BaseManager继承的QueueManager: 
  13. class QueueManager(BaseManager): 
  14.  pass 
  15. # 把两个Queue都注册到网络上, callable参数关联了Queue对象: 
  16. QueueManager.register('get_task_queue', callable=lambda: task_queue) 
  17. QueueManager.register('get_result_queue', callable=lambda: result_queue) 
  18. # 绑定端口5000, 设置验证码'abc': 
  19. manager = QueueManager(address=('', 5000), authkey=b'abc') 
  20. # 启动Queue: 
  21. manager.start() 
  22. # 获得通过网络访问的Queue对象: 
  23. task = manager.get_task_queue() 
  24. result = manager.get_result_queue() 
  25. # 放几个任务进去: 
  26. for i in range(10): 
  27.  n = random.randint(0, 10000) 
  28.  print('Put task %d...' % n) 
  29.  task.put(n) 
  30. # 从result队列读取结果: 
  31. print('Try get results...') 
  32. for i in range(10): 
  33.  r = result.get(timeout=10) 
  34.  print('Result: %s' % r) 
  35. # 关闭: 
  36. manager.shutdown() 
  37. print('master exit.') 

请注意,当我们在一台机器上写多进程程序时,创建的Queue可以直接拿来用,但是,在分布式多进程环境下,添加任务到Queue不可以直接对原始的task_queue进行操作,那样就绕过了QueueManager的封装,必须通过manager.get_task_queue()获得的Queue接口添加。然后,在另一台机器上启动任务进程(本机上启动也可以)

写个task_worker.py

  1. #!/user/bin/pytthon 
  2. # -*- coding:utf-8 -*- 
  3. # @Time: 2018/3/3 16:46 
  4. # @Author: lichexo 
  5. # @File: task_worker.py 
  6. import time, sys, queue 
  7. from multiprocessing.managers import BaseManager 
  8. # 创建类似的QueueManager: 
  9. class QueueManager(BaseManager): 
  10.  pass 
  11. # 由于这个QueueManager只从网络上获取Queue,所以注册时只提供名字: 
  12. QueueManager.register('get_task_queue') 
  13. QueueManager.register('get_result_queue') 
  14. # 连接到服务器,也就是运行task_master.py的机器: 
  15. server_addr = '127.0.0.1' 
  16. print('Connect to server %s...' % server_addr) 
  17. # 端口和验证码注意保持与task_master.py设置的完全一致: 
  18. m = QueueManager(address=(server_addr, 5000), authkey=b'abc') 
  19. # 从网络连接: 
  20. m.connect() 
  21. # 获取Queue的对象: 
  22. task = m.get_task_queue() 
  23. result = m.get_result_queue() 
  24. # 从task队列取任务,并把结果写入result队列: 
  25. for i in range(10): 
  26.  try: 
  27.  n = task.get(timeout=1) 
  28.  print('run task %d * %d...' % (n, n)) 
  29.  r = '%d * %d = %d' % (n, n, n*n) 
  30.  time.sleep(1) 
  31.  result.put(r) 
  32.  except Queue.Empty: 
  33.  print('task queue is empty.') 
  34. # 处理结束: 
  35. print('worker exit.') 

任务进程要通过网络连接到服务进程,所以要指定服务进程的IP。

运行结果

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读