Python 中的并发性与线程和多处理

并发是现代编程中的一个重要思想,它允许多个任务同时运行以提高应用程序的性能。

python 中实现并发的方法有多种,其中最著名的是线程和多处理。

在本文中,我们将详细探讨这两种方法,了解它们的工作原理,并讨论何时使用每种方法,以及实际的代码示例。

什么是并发?

在我们讨论线程和多处理之前,了解并发的含义很重要。

立即学习Python免费学习笔记(深入)”;

并发是指一个程序可以同时执行多个任务或进程。

这可以使程序更好地利用资源并运行得更快,特别是当它需要执行诸如读取文件或进行大量计算之类的操作时。

实现并发的方式主要有两种:

并行性:在计算机处理器的不同部分上同时运行多个任务。 并发:在同一时间段内处理多个任项目网点我wcqh.cn务,但不一定在完全相同的时刻。

python 提供了两种主要方式来实现并发:

线程:适用于可以同时管理的任务。 多处理:适用于需要在不同处理器核心上真正同时运行的任务。

python 中的线程

线程允许您在同一进程内运行多个较小的进程单元(称为线程),共享相同的内存空间。

线程比进程更轻,并且它们之间的切换更快。

但是,python 中的线程受全局解释器锁 (gil) 的约束,这确保一次只有一个线程可以执行 python 代码。

线程如何工作

python的线程模块提供了一种简单灵活的方式来创建和管理线程。

让我们从一个基本示例开始:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

2项目网点我wcqh.cn5

26

27

28

29

import threading

import time

def print_numbers():

for i in range(5):

print(f”number: {i}”)

time.sleep(1)

# creating a thread

thread = threading.thread(target=print_numbers)

# starting the thread

thread.start()

# wait for the thread to complete

thread.join()

print(“thread has finished executing”)

# outpu项目网点我wcqh.cnt:

# number: 0

# number: 1

# number: 2

# number: 3

# number: 4

# thread has finished executing

登录后复制

在此示例中:

我们定义了一个函数 print_numbers(),它打印从 0 到 4 的数字,两次打印之间有一秒的延迟。 我们使用 threading.thread() 创建一个线程,并将 print_numbers() 作为目标函数传递。 start() 方法开始线程的执行,而 join() 确保主程序等待线程完成后再继续执行。

示例:i/o 密集型任务的线程化

线程对于 i/o 项目网点我wcqh.cn密集型任务特别有用,例如文件操作、网络请求或数据库查询,在这些任务中程序大部分时间都在等待外部资源。

这是一个使用线程模拟下载文件的示例:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

import threading

import time

def download_file(file_name):

print(f”starting download of {file_name}…”)

time.sleep(2)  # simulate download time

print(f”finished downloading {fil项目网点我wcqh.cne_name}”)

files = [“file1.zip”, “file2.zip”, “file3.zip”]

threads = []

# create and start threads

for file in files:

thread = threading.thread(target=download_file, args=(file,))

thread.start()

threads.append(thread)

# ensure all threads have finished

for thread in threads:

thread.join()

print(“all files have 项目网点我wcqh.cnbeen downloaded.”)

# output:

# starting download of file1.zip…

# starting download of file2.zip…

# starting download of file3.zip…

# finished downloading file1.zip

# finished downloading file2.zip

# finished downloading file3.zip

# all files have been downloaded.

登录后复制

通过为每个文件下载创建和管理单独的线程,程序可以同时处理多个任务,从项目网点我wcqh.cn而提高整体效率。

代码中关键步骤如下:

定义了一个函数 download_file 来模拟下载过程。 创建文件名列表来表示需要下载的文件。 对于列表中的每个文件,都会创建一个新线程,并以 download_file 作为其目标函数。每个线程在创建后立即启动并添加到线程列表中。 主程序使用 join() 方法等待所有线程完成,确保程序在所有下载完成之前不会继续进行。

线程的局限性

虽然线程可以提高 i/o 密集型任务的性能,但它也有局限性:

全局解释器锁 (gil):对于 cpu 密集型任务,gil 限制一次只能执行一个线程,从而限制了多核处理器中线程的有效项目网点我wcqh.cn性。竞争条件:由于线程共享相同的内存空间,不正确的同步可能会导致竞争条件,程序的结果取决于线程的时间。 死锁:线程相互等待释放资源可能会导致死锁,从而无法取得任何进展。

python 中的多处理

多处理通过使用单独的进程而不是线程来解决线程的局限性。

每个进程都有自己的内存空间和python解释器,允许在多核系统上实现真正的并行。

这使得多重处理成为需要大量计算的任务的理想选择。

多重处理的工作原理

python 中的多处理模块允许您轻松创建和管理进程。

让我们从一个基本示例开始:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

import multiproc项目网点我wcqh.cnessing

import time

def print_numbers():

for i in range(5):

print(f”number: {i}”)

time.sleep(1)

if __name__ == “__main__”:

# creating a process

process = multiprocessing.process(target=print_numbers)

# starting the process

process.start()

# wait for the process to complete

process.join()

print(“process has finish项目网点我wcqh.cned executing”)

# output:

# number: 0

# number: 1

# number: 2

# number: 3

# number: 4

# process has finished executing

登录后复制

此示例与线程示例类似,但具有进程。

请注意,进程的创建和管理与线程类似,但由于进程运行在单独的内存空间中,因此它们是真正并发的,并且可以运行在不同的 cpu 核心上。

示例:cpu 密集型任务的多处理

多处理对于受 cpu 限制的任务特别有用,例如数值计算或数据处理。

这是一个使用多个进程计算数字平方的示例:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

impor项目网点我wcqh.cnt multiprocessing

def compute_square(number):

return number * number

if __name__ == “__main__”:

numbers = [1, 2, 3, 4, 5]

# create a pool of processes

with multiprocessing.pool() as pool:

# map function to numbers using multiple processes

results = pool.map(compute_square, numbers)

print(“squares:”, results)项目网点我wcqh.cn

# output:

# squares: [1, 4, 9, 16, 25]

登录后复制

以下是代码中的关键步骤:

函数compute_square被定义为接受一个数字作为输入并返回其平方。 if name == “main“: 块中的代码确保它仅在直接执行脚本时运行。 定义了一个数字列表,将对其进行平方。 工作进程池是使用 multiprocessing.pool() 创建的。 map 方法用于将compute_square函数应用于列表中的每个数字,将工作负载分配到多个进程。

进程间通信(ipc)

由于每个进程都有自己的内存空间,进程之间共享项目网点我wcqh.cn数据需要进程间通信(ipc)机制。

多处理模块提供了一些用于ipc的工具,例如queue、pipe和value。

这是一个使用队列在进程之间共享数据的示例:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

import multiprocessing

def worker(queue):

# Retrieve and process data from the queue

while not queue.empty():

item = queue.get()

print(f”Processing {ite项目网点我wcqh.cnm}”)

if __name__ == “__main__”:

queue = multiprocessing.Queue()

# Add items to the queue

for i in range(10):

queue.put(i)

# Create a pool of processes to process the queue

processes = []

for _ in range(4):

process = multiprocessing.Process(target=worker, args=(queue,))

processes.append(process)

process.start()项目网点我wcqh.cn

# Wait for all processes to complete

for process in processes:

process.join()

print(“All processes have finished.”)

# Output:

# Processing 0

# Processing 1

# Processing 2

# Processing 3

# Processing 4

# Processing 5

# Processing 6

# Processing 7

# Processing 8

# Processing 9

# All processes have finished.

登录后复制

在此示例项目网点我wcqh.cn中:

defworker(queue):定义一个以队列作为参数的函数worker。该函数检索并处理队列中的项目,直到队列为空。 if name == “main“:: 确保以下代码仅在直接执行脚本时运行,而不是作为模块导入时运行。 queue = multiprocessing.queue():创建用于进程间通信的队列对象。 for i in range(10):queue.put(i):将项目(数字 0 到 9)添加到队列中。 processes = []:初始化一个空列表来存储进程对象。 for _ in range项目网点我wcqh.cn(4) 循环:创建四个工作进程。 process = multiprocessing.process(target=worker, args=(queue,)):创建一个以worker为目标函数的新进程,并将队列作为参数传递。 processes.append(process):将进程对象添加到进程列表中。 process.start():启动进程。 进程中进程的 for 循环:使用 join() 方法等待每个进程完成。

多重处理的挑战

虽然多处理提供了真正的并行性,但它也面临着一系列挑战:

更高的开销:由于内存空间是独立的,创建和管理项目网点我wcqh.cn进程比线程更耗费资源。复杂性:进程之间的通信和同步比线程更复杂,需要ipc机制。 内存使用:每个进程都有自己的内存空间,导致与线程相比内存占用更高。

何时使用线程与多处理

在线程和多处理之间进行选择取决于您正在处理的任务类型:

使用线程:

对于需要大量等待的任务,例如网络操作或读/写文件(i/o 密集型任务)。 当您需要在任务之间共享内存并可以管理竞争条件等潜在问题时。 实现轻量级并发,无需创建多个进程的额外开销。

使用多重处理:

对于需要大量计算或数据处理的任务(cpu 密集型任务),并且可以从同时在多个 cpu 核心上运行中受益。 当您需要真正的并行性并且项目网点我wcqh.cn线程中的全局解释器锁(gil)成为限制时。 适用于可以独立运行且不需要频繁通信或共享内存的任务。

结论

python 中的并发是让应用程序运行得更快的强大方法。

线程非常适合需要大量等待的任务,例如网络操作或读/写文件,但由于全局解释器锁(gil)的原因,它对于需要大量计算的任务并不那么有效。

另一方面,多处理允许真正的并行性,使其非常适合 cpu 密集型任务,尽管它会带来更高的开销和复杂性。

无论您是处理数据、处理多个网络请求,还是进行复杂的计算,python 的线程和多重处理工具都能为您提供所需的功能,使您的程序尽可能高效、快速。

以上就是Python 中的并发性与线程和多处理的详细内项目网点我wcqh.cn容,更多请关注青狐资源网其它相关文章!

© 版权声明
THE END
喜欢就支持一下吧
点赞615 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容