使用多处理时,如果共享只读数据复制到不同的进程,就会出现问题。如果是这样,如何防止或鼓励这种复制?
提供的代码片段,它在多个进程执行的函数中使用全局数组作为默认参数,引起对内存重复的担忧。为了防止各个进程获取数据的单独副本,请考虑利用共享内存。
可以将多处理和 Numpy 结合起来以有效地共享数据:
<code class="python">import multiprocessing import ctypes import numpy as np shared_array_base = multiprocessing.Array(ctypes.c_double, 10*10) shared_array = np.ctypeslib.as_array(shared_array_base.get_obj()) shared_array = shared_array.reshape(10, 10)</code>
在每个进程执行的函数中,对共享数组所做的更改对所有进程都是可见的:
<code class="python">def my_func(i, def_param=shared_array): shared_array[i,:] = i</code>
相应的此问题的机制取决于应用程序的具体要求和访问模式。共享内存提供了一种有效的方法来防止这种情况下的数据重复,确保多个进程之间的共享访问。
以上是应该在多处理环境中复制只读共享数据吗?的详细内容。更多信息请关注PHP中文网其他相关文章!