

新闻资讯
技术教程python 的 `multiprocessing.pool` 本身不支持“每进程分配 n 个核心”的语义,但可通过合理设置进程数、结合 `psutil` 或 `os.sched_setaffinity` 实现核心资源的逻辑隔离与高效复用。
在实际高性能计算或 CPU 密集型任务中,开发者有时希望每个子进程独占固定数量的 CPU 核心(例如:2 核/进程),以避免线程争抢、缓存抖动或 NUMA 不均衡等问题。然而,标准 multiprocessing.Pool 的构造参数 processes= 仅指定并发进程数,而非底层 CPU 资源配额——操作系统调度器仍可能将多个进程调度到同一组核心上,无法保证严格的资源隔离。
✅ 正确思路是:将“N 核/进程”转化为“总核数 ÷ N 核/进程 = 最大安全进程数”,再配合 CPU 亲和性(CPU affinity)进行显式绑定。
例如,若系统有 TOTAL_CORES = 16,要求每个工作进程独占 N_CORES_PER_PROCESS = 2 核,且需为父进程预留 2 核,则最大可用工作进程数为:
import os
TOTAL_CORES = os.cpu_count() or 16
N_CORES_PER_PROCESS = 2
RESERVED_CORES = 2 # 父进程及系统开销预留
MAX_PROCESSES = max(1, (TOTAL_CORES - RESERVED_CORES) // N_CORES_PER_PROCESS)
with multiprocessing.Pool(processes=MAX_PROCESSES) as pool:
results = pool.map(func, range(10000))⚠️ 但仅控制进程数还不够——为真正实现“每进程绑定特定核心”,推荐在子进程中调用 os.sched_setaffinity()(Linux/macOS)或使用 psutil.Process().cpu_affinity()(跨平台):
import multiprocessing
import os
import psutil
def worker_init(core_ids):
"""子进程初始化:绑定指定 CPU 核心列表"""
try:
psutil.Process().cpu_affinity(core_ids)
except (psutil.AccessDenied, AttributeError, OSError):
# Windows 不支持 cpu_affinity;或权限不足时降级处理
pass
def func(x):
return x ** 2
if __name__ == "__main__":
TOTAL_CORES = os.cpu_count()
N_CORES_PER_PROCESS = 2
# 划分核心组:[[0,1], [2,3], ..., [8,9]](假设 TOTAL_CORES >= 10)
core_groups = [list(range(i, min(i + N_CORES_PER_PROCESS, TOTAL_CORES)))
for i in range(0, TOTAL_CORES, N_CORES_PER_PROCESS)]
# 启动 Pool,每个进程初始化时绑定一组核心
with multiprocessing.Pool(
processes=len(core_groups),
initializer=worker_init,
initargs=(core_groups[0],) # 注意:此处需动态传入每组核心 —— 实际需用更灵活方式(见下文)
) as pool:
# ⚠️ 上述 initargs 是静态的;如需每进程绑定不同核心组,推荐使用 concurrent.futures + ProcessPoolExecutor 自定义启动逻辑
pass? 更健壮的实践方案(推荐):
使用 concurrent.futures.ProcessPoolExecutor 配合自定义 mp_context 和 initializer,或借助第三方库如 loky(joblib 默认后端,支持自动 C

? 总结: