并发是现代编程中的一个重要思想,它允许多个任务同时运行以提高应用程序的性能。
在 python 中实现并发的方法有多种,其中最著名的是线程和多处理。
在本文中,我们将详细探讨这两种方法,了解它们的工作原理,并讨论何时使用每种方法,以及实际的代码示例。
什么是并发?
在我们讨论线程和多处理之前,了解并发的含义很重要。
立即学习“Python免费学习笔记(深入)”;
并发是指一个程序可以同时执行多个任务或进程。
这可以使程序更好地利用资源并运行得更快,特别是当它需要执行诸如读取文件或进行大量计算之类的操作时。
实现并发的方式主要有两种:
并行性:在计算机处理器的不同部分上同时运行多个任务。 并发:在同一时间段内处理多个任项目网点我wcqh.cn务,但不一定在完全相同的时刻。python 提供了两种主要方式来实现并发:
线程:适用于可以同时管理的任务。 多处理:适用于需要在不同处理器核心上真正同时运行的任务。python 中的线程
线程允许您在同一进程内运行多个较小的进程单元(称为线程),共享相同的内存空间。
线程比进程更轻,并且它们之间的切换更快。
但是,python 中的线程受全局解释器锁 (gil) 的约束,这确保一次只有一个线程可以执行 python 代码。
线程如何工作
python的线程模块提供了一种简单灵活的方式来创建和管理线程。
让我们从一个基本示例开始:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
26
27
28
29
import threading
import time
def print_numbers():
for i in range(5):
print(f”number: {i}”)
time.sleep(1)
# creating a thread
thread = threading.thread(target=print_numbers)
# starting the thread
thread.start()
# wait for the thread to complete
thread.join()
print(“thread has finished executing”)
# outpu项目网点我wcqh.cnt:
# number: 0
# number: 1
# number: 2
# number: 3
# number: 4
# thread has finished executing
在此示例中:
我们定义了一个函数 print_numbers(),它打印从 0 到 4 的数字,两次打印之间有一秒的延迟。 我们使用 threading.thread() 创建一个线程,并将 print_numbers() 作为目标函数传递。 start() 方法开始线程的执行,而 join() 确保主程序等待线程完成后再继续执行。示例:i/o 密集型任务的线程化
线程对于 i/o 项目网点我wcqh.cn密集型任务特别有用,例如文件操作、网络请求或数据库查询,在这些任务中程序大部分时间都在等待外部资源。
这是一个使用线程模拟下载文件的示例:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
import threading
import time
def download_file(file_name):
print(f”starting download of {file_name}…”)
time.sleep(2) # simulate download time
print(f”finished downloading {fil项目网点我wcqh.cne_name}”)
files = [“file1.zip”, “file2.zip”, “file3.zip”]
threads = []
# create and start threads
for file in files:
thread = threading.thread(target=download_file, args=(file,))
thread.start()
threads.append(thread)
# ensure all threads have finished
for thread in threads:
thread.join()
print(“all files have 项目网点我wcqh.cnbeen downloaded.”)
# output:
# starting download of file1.zip…
# starting download of file2.zip…
# starting download of file3.zip…
# finished downloading file1.zip
# finished downloading file2.zip
# finished downloading file3.zip
# all files have been downloaded.
通过为每个文件下载创建和管理单独的线程,程序可以同时处理多个任务,从项目网点我wcqh.cn而提高整体效率。
代码中关键步骤如下:
定义了一个函数 download_file 来模拟下载过程。 创建文件名列表来表示需要下载的文件。 对于列表中的每个文件,都会创建一个新线程,并以 download_file 作为其目标函数。每个线程在创建后立即启动并添加到线程列表中。 主程序使用 join() 方法等待所有线程完成,确保程序在所有下载完成之前不会继续进行。线程的局限性
虽然线程可以提高 i/o 密集型任务的性能,但它也有局限性:
全局解释器锁 (gil):对于 cpu 密集型任务,gil 限制一次只能执行一个线程,从而限制了多核处理器中线程的有效项目网点我wcqh.cn性。竞争条件:由于线程共享相同的内存空间,不正确的同步可能会导致竞争条件,程序的结果取决于线程的时间。 死锁:线程相互等待释放资源可能会导致死锁,从而无法取得任何进展。python 中的多处理
多处理通过使用单独的进程而不是线程来解决线程的局限性。
每个进程都有自己的内存空间和python解释器,允许在多核系统上实现真正的并行。
这使得多重处理成为需要大量计算的任务的理想选择。
多重处理的工作原理
python 中的多处理模块允许您轻松创建和管理进程。
让我们从一个基本示例开始:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
import multiproc项目网点我wcqh.cnessing
import time
def print_numbers():
for i in range(5):
print(f”number: {i}”)
time.sleep(1)
if __name__ == “__main__”:
# creating a process
process = multiprocessing.process(target=print_numbers)
# starting the process
process.start()
# wait for the process to complete
process.join()
print(“process has finish项目网点我wcqh.cned executing”)
# output:
# number: 0
# number: 1
# number: 2
# number: 3
# number: 4
# process has finished executing
此示例与线程示例类似,但具有进程。
请注意,进程的创建和管理与线程类似,但由于进程运行在单独的内存空间中,因此它们是真正并发的,并且可以运行在不同的 cpu 核心上。
示例:cpu 密集型任务的多处理
多处理对于受 cpu 限制的任务特别有用,例如数值计算或数据处理。
这是一个使用多个进程计算数字平方的示例:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
impor项目网点我wcqh.cnt multiprocessing
def compute_square(number):
return number * number
if __name__ == “__main__”:
numbers = [1, 2, 3, 4, 5]
# create a pool of processes
with multiprocessing.pool() as pool:
# map function to numbers using multiple processes
results = pool.map(compute_square, numbers)
print(“squares:”, results)项目网点我wcqh.cn
# output:
# squares: [1, 4, 9, 16, 25]
以下是代码中的关键步骤:
函数compute_square被定义为接受一个数字作为输入并返回其平方。 if name == “main“: 块中的代码确保它仅在直接执行脚本时运行。 定义了一个数字列表,将对其进行平方。 工作进程池是使用 multiprocessing.pool() 创建的。 map 方法用于将compute_square函数应用于列表中的每个数字,将工作负载分配到多个进程。进程间通信(ipc)
由于每个进程都有自己的内存空间,进程之间共享项目网点我wcqh.cn数据需要进程间通信(ipc)机制。
多处理模块提供了一些用于ipc的工具,例如queue、pipe和value。
这是一个使用队列在进程之间共享数据的示例:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
import multiprocessing
def worker(queue):
# Retrieve and process data from the queue
while not queue.empty():
item = queue.get()
print(f”Processing {ite项目网点我wcqh.cnm}”)
if __name__ == “__main__”:
queue = multiprocessing.Queue()
# Add items to the queue
for i in range(10):
queue.put(i)
# Create a pool of processes to process the queue
processes = []
for _ in range(4):
process = multiprocessing.Process(target=worker, args=(queue,))
processes.append(process)
process.start()项目网点我wcqh.cn
# Wait for all processes to complete
for process in processes:
process.join()
print(“All processes have finished.”)
# Output:
# Processing 0
# Processing 1
# Processing 2
# Processing 3
# Processing 4
# Processing 5
# Processing 6
# Processing 7
# Processing 8
# Processing 9
# All processes have finished.
在此示例项目网点我wcqh.cn中:
defworker(queue):定义一个以队列作为参数的函数worker。该函数检索并处理队列中的项目,直到队列为空。 if name == “main“:: 确保以下代码仅在直接执行脚本时运行,而不是作为模块导入时运行。 queue = multiprocessing.queue():创建用于进程间通信的队列对象。 for i in range(10):queue.put(i):将项目(数字 0 到 9)添加到队列中。 processes = []:初始化一个空列表来存储进程对象。 for _ in range项目网点我wcqh.cn(4) 循环:创建四个工作进程。 process = multiprocessing.process(target=worker, args=(queue,)):创建一个以worker为目标函数的新进程,并将队列作为参数传递。 processes.append(process):将进程对象添加到进程列表中。 process.start():启动进程。 进程中进程的 for 循环:使用 join() 方法等待每个进程完成。多重处理的挑战
虽然多处理提供了真正的并行性,但它也面临着一系列挑战:
更高的开销:由于内存空间是独立的,创建和管理项目网点我wcqh.cn进程比线程更耗费资源。复杂性:进程之间的通信和同步比线程更复杂,需要ipc机制。 内存使用:每个进程都有自己的内存空间,导致与线程相比内存占用更高。何时使用线程与多处理
在线程和多处理之间进行选择取决于您正在处理的任务类型:
使用线程:
对于需要大量等待的任务,例如网络操作或读/写文件(i/o 密集型任务)。 当您需要在任务之间共享内存并可以管理竞争条件等潜在问题时。 实现轻量级并发,无需创建多个进程的额外开销。使用多重处理:
对于需要大量计算或数据处理的任务(cpu 密集型任务),并且可以从同时在多个 cpu 核心上运行中受益。 当您需要真正的并行性并且项目网点我wcqh.cn线程中的全局解释器锁(gil)成为限制时。 适用于可以独立运行且不需要频繁通信或共享内存的任务。结论
python 中的并发是让应用程序运行得更快的强大方法。
线程非常适合需要大量等待的任务,例如网络操作或读/写文件,但由于全局解释器锁(gil)的原因,它对于需要大量计算的任务并不那么有效。
另一方面,多处理允许真正的并行性,使其非常适合 cpu 密集型任务,尽管它会带来更高的开销和复杂性。
无论您是处理数据、处理多个网络请求,还是进行复杂的计算,python 的线程和多重处理工具都能为您提供所需的功能,使您的程序尽可能高效、快速。
以上就是Python 中的并发性与线程和多处理的详细内项目网点我wcqh.cn容,更多请关注青狐资源网其它相关文章!
暂无评论内容