域名

如何监视Python程序的内存使用情况

时间:2010-12-5 17:23:32  作者:域名   来源:IT科技类资讯  查看:  评论:0
内容摘要:我们使用Python和它的数据处理库套件(如panda和scikiti -learn)进行大量数据处理时候,可能使用了大量的计算资源。如何监视程序的内存使用情况就显得尤为重要。1. 询问操作系统跟踪内

我们使用Python和它的何监数据处理库套件(如panda和scikiti -learn)进行大量数据处理时候,可能使用了大量的视P使用计算资源。如何监视程序的内存内存使用情况就显得尤为重要。

1. 询问操作系统

跟踪内存使用情况的情况最简单方法是使用操作系统本身。您可以使用top来提供您在一段时间内使用的何监资源的概述。或者,视P使用如果您想要现场检查资源使用情况,内存您可以使用ps命令:

$ ps -m -o %cpu,情况%mem,command  %CPU %MEM COMMAND  23.4  7.2 python analyze_data.py   0.0  0.0 bash 

m标志指示ps按照进程使用最多内存的顺序显示结果。o标志控制显示每个进程的何监哪些属性——在本例中是使用的CPU百分比、消耗的视P使用系统内存百分比和正在执行的进程的命令行。CPU百分比将一个完整的内存CPU核心计算为100%的使用率,因此如果您有一个4核的情况机器,可能会看到总计高达400%的何监CPU使用率。还有其他输出选项用于显示其他进程属性,视P使用以及用于控制显示哪些进程的内存ps的香港云服务器其他标志。

结合一些创造性的shell脚本,可以编写一个监视脚本,使用ps跟踪任务的内存使用情况。

2. tracemalloc

Python解释器的操作中有大量的hooks,可以在Python代码运行时用于监视和内省。pdb使用这些钩子来提供调试;覆盖率也使用它们来提供测试覆盖率。tracemalloc模块还使用它们来提供一个了解内存使用情况的窗口。

tracemalloc是在Python 3.4中添加的一个标准库模块,它跟踪Python解释器分配的每个单独的内存块。tracemalloc能够提供关于运行Python进程中内存分配的非常细粒度的信息:

import tracemalloc tracemalloc.start() my_complex_analysis_method() current, peak = tracemalloc.get_traced_memory() print(f"Current memory usage is { current / 10**6}MB; Peak was { peak / 10**6}MB") tracemalloc.stop() 

调用tracemplugin .start()启动跟踪进程。在进行跟踪时,您可以询问分配了哪些内容的详细信息;在本例中,我们只要求当前和峰值内存分配。调用tracemplugin .stop()将删除hook并清除已经收集的任何跟踪。

不过,这种程度的细节是要付出代价的。云南idc服务商tracemalloc将自己深深地注入到正在运行的Python进程中——正如您所预期的那样,这会带来性能损失。在我们的测试中,我们观察到在运行分析时使用tracemalloc的速度下降了30%。在分析单个进程时,这可能是可以的,但在生产中,您确实不希望仅仅为了监视内存使用情况而降低30%的性能。

3. 抽样

幸运的是,Python标准库提供了另一种观察内存使用情况的方法—resource模块。resource模块为程序分配的资源提供基本控制,包括内存使用:

import resource usage = resource.getrusage(resource.RUSAGE_SELF).ru_maxrss 

getrusage()的调用返回程序所使用的资源。常量RUSAGE_SELF表示我们只对这个进程使用的资源感兴趣,而不是它的子进程。返回的对象是一个结构,亿华云它包含一系列操作系统资源,包括CPU时间、信号、上下文切换等;但就我们的目的而言,我们感兴趣的是maxrss——最大驻留集大小——它是进程当前在RAM中持有的内存量。

但是,与tracemalloc模块不同的是,资源模块不随时间跟踪使用情况—它只提供点采样。因此,我们需要实现一种方法来随时间对内存使用情况进行采样。

首先,我们定义一个类来执行内存监控:

import resource from time import sleep class MemoryMonitor:     def __init__(self):         self.keep_measuring = True     def measure_usage(self):         max_usage = 0         while self.keep_measuring:             maxmax_usage = max(                 max_usage,                 resource.getrusage(resource.RUSAGE_SELF).ru_maxrss             )             sleep(0.1)         return max_usage 

在这个类的实例上调用measure_usage()时,它将进入一个循环,每0.1秒测量一次内存使用情况。将跟踪内存使用量的任何增加,并在循环退出时返回最大内存分配。

但是什么告诉循环退出呢?我们在哪里调用被监视的代码?我们在单独的线程中完成。

from concurrent.futures import ThreadPoolExecutor with ThreadPoolExecutor() as executor:     monitor = MemoryMonitor()     mem_thread = executor.submit(monitor.measure_usage)     try:         fn_thread = executor.submit(my_analysis_function)         result = fn_thread.result()     finally:         monitor.keep_measuring = False         max_usage = mem_thread.result()     print(f"Peak memory usage: { max_usage}") 

ThreadPoolExecutor为提交要在线程中执行的任务提供了一种方便的方法。我们向执行程序提交两个任务——监视器和my_analysis_function(如果分析函数需要额外的参数,可以通过提交调用传入它们)。对fn_thread.result()的调用将被阻塞,直到分析函数完成并获得其结果,此时我们可以通知监视器停止并获得最大内存。try/finally模块确保了如果分析函数抛出异常,内存线程仍然会被终止。

使用这种方法,我们可以有效地随时间对内存使用情况进行抽样。大部分工作将在主分析线程中完成;但是每0.1秒,监视器线程就会被唤醒,进行一次内存测量,如果内存使用量增加就将其存储,然后返回睡眠状态。

英文原文:

https://medium.com/survata-engineering-blog/monitoring-memory-usage-of-a-running-python-program-49f027e3d1ba

copyright © 2025 powered by 益强资讯全景  滇ICP备2023006006号-31sitemap