Skip to content

3.14。共享 CUDA 内存

原文: http://numba.pydata.org/numba-doc/latest/cuda/ipc.html

3.14.1。流程共享

警告

此功能仅限于 Linux。

3.14.1.1。将设备阵列导出到另一个进程

可以使用 CUDA IPC API 在同一台机器中与另一个进程共享设备阵列。为此,请使用设备阵列上的.get_ipc_handle()方法获取IpcArrayHandle对象,该对象可以转移到另一个进程。

DeviceNDArray.get_ipc_handle()

返回 IpcArrayHandle 对象,可以安全地序列化并转移到另一个进程以共享本地分配。

注意:此功能仅适用于 Linux。

class numba.cuda.cudadrv.devicearray.IpcArrayHandle(ipc_handle, array_desc)

IPC 阵列句柄,可以序列化并传输到同一台机器中的另一个进程,以共享 GPU 分配。

在目标进程中,使用 .open() 方法创建一个新的 DeviceNDArray 对象,该对象共享原始进程的分配。要释放资源,请调用 .close() 方法。之后,目标无法再使用共享数组对象。 (注意:资源的基础弱点现在已经死了。)

该对象实现了自动调用 .open().close() 方法的上下文管理器接口:

with the_ipc_array_handle as ipc_array:
    # use ipc_array here as a normal gpu array object
    some_code(ipc_array)
# ipc_array is dead at this point

close()

关闭数组的 IPC 句柄。

open()

返回一个新的 DeviceNDArray ,它与原始进程共享分配。不得在原始流程中使用。

3.14.1.2。从另一个进程 导入 IPC 内存

以下函数用于从另一个进程打开 IPC 句柄作为设备数组。

cuda.open_ipc_array(shape, dtype, strides=None, offset=0)

打开 IPC _ 句柄 ( _CUipcMemHandle )的上下文管理器,表示为字节序列(例如 _ 字节 ,int 的元组)并将其表示为给定 _ 形状 的阵列跨越 _ 和 _dtype 。可以省略 _ 步幅 _。在这种情况下,假设它是 1D C 连续阵列。

产生一个设备阵列。

当上下文管理器退出时,IPC 句柄自动关闭。


我们一直在努力

apachecn/AiLearning

【布客】中文翻译组