成都网站建设设计

将想法与焦点和您一起共享

如何实现多个线程的等待同时结束

这篇文章主要介绍“如何实现多个线程的等待同时结束”,在日常操作中,相信很多人在如何实现多个线程的等待同时结束问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”如何实现多个线程的等待同时结束”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

河池ssl适用于网站、小程序/APP、API接口等需要进行数据传输应用场景,ssl证书未来市场广阔!成为创新互联建站的ssl证书销售渠道,可以享受市场价格4-6折优惠!如果有意向欢迎电话联系或者加微信:18982081108(备注:SSL证书合作)期待与您的合作!

我们在写多线程代码的时候,可能会需要等待多个线程同时结束,然后再进行后续的流程。例如,我做了一个聚合搜索引擎,用户输入一个关键词,我需要同时在很多个搜索引擎上搜索,然后把搜索结果汇总以后返回给用户。

示例代码如下:

@app.get('/api/search') def search(keyword: str):     google_result = requests.get('Google 搜索地址').text     baidu_result = requests.get('百度搜索地址').text     bing_result = requests.get('Bing搜索地址').text     result = combine(google_result, baidu_result, bing_result)     return {'success': True, 'result': result}

从上面这段代码,大家可能会发现一个问题,就是在请求多个搜索引擎的时候是串行的,先访问 Google,访问完成再访问百度,访问完成最后访问  Bing。这样显然会浪费大量的时间。

如果你不会async/await,那么为了解决这个问题,你能想到的显然就是使用多线程。使用3个线程同时访问 Google、百度和  Bing,然后把结果汇总传入combine函数,不就解决问题了吗?

如果仅仅是启动多个线程,那么做法很简单:

import threading  def get_url(url):     result = requests.get(url, headers=HEADERS).text     return result  @app.get('/api/search') def search(keyword: str):     google_thead = threading.Thread(target=get_url, 'Google 搜索地址')     baidu_thread = threading.Thread(target=get_url, '百度搜索地址')     bing_thread = threading.Thread(target=get_url, 'Bing搜索地址')     google_thread.start()     baidu_thread.start()     bing_thread.start()     ...

现在问题来了,三个线程确实已经启动了,但你怎么知道到什么时候为止,所有线程都运行完毕?

这里我们给出几个方法。

使用 join

调用线程的.join()方法,就可以卡住主线程,直到这个子线程运行完毕才能让主线程继续运行后面的代码。所以我们可以修改代码为:

import threading  def get_url(url):     result = requests.get(url, headers=HEADERS).text     return result  @app.get('/api/search') def search(keyword: str):     google_thead = threading.Thread(target=get_url, 'Google 搜索地址')     baidu_thread = threading.Thread(target=get_url, '百度搜索地址')     bing_thread = threading.Thread(target=get_url, 'Bing搜索地址')     google_thread.start()     baidu_thread.start()     bing_thread.start()          google_thread.join()     baidu_thread.join()     bing_thread.join()

但等一等,我怎么拿到子线程的返回呢?在默认情况下,你确实拿不到返回的数据。所以你需要传入一个东西去子线程接收结果。所以代码可以改为:

import threading  def get_url(url, output):     result = requests.get(url, headers=HEADERS).text     output.append(result)  @app.get('/api/search') def search(keyword: str):     result = []     google_thead = threading.Thread(target=get_url, args=['Google 搜索地址', result])     baidu_thread = threading.Thread(target=get_url, args=['百度搜索地址', result])     bing_thread = threading.Thread(target=get_url, args=['Bing搜索地址', result])     google_thread.start()     baidu_thread.start()     bing_thread.start()          google_thread.join()     baidu_thread.join()     bing_thread.join()     combine(*result)

因为线程是共享内存的,所以他们可以直接修改主线程传入的列表。

在使用.join()的时候,需要小心不要把.join()放错了地方,否则你的多线程就会变成单线程。详情可以看我的这篇文章: 等一等,你的多线程可别再乱  join 了。

ThreadPoolExecutor

Python  自带了一个concurrent模块,它就是专门用来处理并发问题的。我们也可以使用这个模块中的ThreadPoolExecutor来解决问题:

from concurrent.futures import ThreadPoolExecutor, as_completed  def get_url(url):     result = requests.get(url, headers=HEADERS).text     return result  @app.get('/api/search') def search(keyword: str):     tasks = []     with ThreadPoolExecutor() as executor:         for url in ['Google 搜索地址', '百度搜索地址', 'Bing搜索地址']             task = executor.submit(get_url, url)             tasks.append(task)         result = [x.result() for x in as_completed(tasks)]       combine(*result)     ...

concurrent.futures里面的as_completed函数接收一个列表,列表里面是多个并发任务。当所有并发任务都运行结束时,它才会返回一个可迭代对象。对它进行迭代以后,每个元素的.result()就是每个子线程运行的返回结果。

其他方法

除了上面两个方法外,还可以使用multiprocessing.dummy里面的Pool来实现更简单的多线程。

到此,关于“如何实现多个线程的等待同时结束”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注创新互联网站,小编会继续努力为大家带来更多实用的文章!


新闻名称:如何实现多个线程的等待同时结束
新闻来源:http://chengdu.cdxwcx.cn/article/pegehe.html