﻿<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:trackback="http://madskills.com/public/xml/rss/module/trackback/" xmlns:wfw="http://wellformedweb.org/CommentAPI/" xmlns:slash="http://purl.org/rss/1.0/modules/slash/"><channel><title>C++博客-提琴协奏-随笔分类-操作系统 OS</title><link>http://www.cppblog.com/flagman/category/15573.html</link><description>提琴协奏</description><language>zh-cn</language><lastBuildDate>Sat, 11 Dec 2010 04:24:17 GMT</lastBuildDate><pubDate>Sat, 11 Dec 2010 04:24:17 GMT</pubDate><ttl>60</ttl><item><title>关于系统缓存的问题-物理内存消耗远远多于实际占用物理内存</title><link>http://www.cppblog.com/flagman/archive/2010/12/11/IssueRelatedWithSystemCache.html</link><dc:creator>flagman</dc:creator><author>flagman</author><pubDate>Sat, 11 Dec 2010 03:19:00 GMT</pubDate><guid>http://www.cppblog.com/flagman/archive/2010/12/11/IssueRelatedWithSystemCache.html</guid><wfw:comment>http://www.cppblog.com/flagman/comments/136131.html</wfw:comment><comments>http://www.cppblog.com/flagman/archive/2010/12/11/IssueRelatedWithSystemCache.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.cppblog.com/flagman/comments/commentRss/136131.html</wfw:commentRss><trackback:ping>http://www.cppblog.com/flagman/services/trackbacks/136131.html</trackback:ping><description><![CDATA[<p><em>【 某某提到: 】<br>: 一台服务器装有windows server 2008 r2，安装16G内存并设置16G虚拟内存。最近在运行一个用C#编写的大规模计算程序时发现，有很大一部分物理内存被莫名其妙地消耗了。资源监视器显示该程序占用物理内存不到5G，但是总的物理内存消耗接近10G，可用物理内存仅剩6G。随着运?<br>: 除了这个程序之外没有其它程序大量占用内存。这个程序有大量磁盘IO操作，在运行中会不时地调用GC.Collect()以及时清理不用的内存。这个实验中用到的一系列程序的结构基本相同，都会不时调用GC清理，但其它程序的内存使用都正常，只有这个程序会出现占用内存是实际使用的<br>: 请问为什么会出现这样莫名其妙多占用内存的情况呢？谢谢大家</em><br><br></p>
<p>这个既不是应用本身的bug，也不是系统的memory leak。</p>
<p>当前资源监视器中关于系统物理内存，有这么几个统计项，可用、缓存、总数、已安装；其中"缓存"这项，代表着已用于文件系统、网络等等子系统的数据缓冲存储的内存容量，其中包含数量巨大的驻留在物理内存中的数据页面。而这样的物理内存消耗并没有归入任何一个进程列表显示的进程所占用的物理内存。这就是为什么下面公式，</p>
<p>进程列表显示的所有进程所占用的物理内存之和 + 可用物理内存 &lt; 物理内存总数</p>
<p>，成立的原因所在。</p>
<p>导致这一现象的原因，从这个大规模计算程序的行为描述看，基本可以断定是由于以下两点，<br>1）应用本身的大规模数据驻留物理内存，导致parser.exe进程庞大的working set；<br>2）大量频繁的IO操作，引起大量的物理内存为系统缓存所占用；</p>
<p>对于1),必须注意，GC.Collect()只是设置使能垃圾收集的标志位，并没有立即启动垃圾收集过程，这个过程的实际启动时刻由CLR来动态决议；</p>
<p>所以如果要获得即时的托管内存的释放，并进一步释放物理内存以减小当前进程的working set，可以使用AppDomain这个.net下可以用来资源划分、获取和释放的，在概念上近似于轻量级进程的编程语义；在AppDomain中获取的各种资源，包括托管内存、加载其中的各个assembly以及CCW等，在此AppDomain被释放时都被相应的及时释放（或者引用计数递减）。</p>
<p>对于2），重新观察先前的设计实现和模型，考虑是否能把一些分散的IO操作合并起来进行，比如,<br>for(long i=0; i &lt; Count; ++i)<br>{<br>&nbsp; ...<br>&nbsp; objIO.Operation(Data[i], 1);<br>&nbsp; ...<br>}<br>修改为<br>for(long i=0; i &lt; Count; ++i)<br>{<br>&nbsp; ...<br>&nbsp; ...<br>}<br>objIO.Operation(Data, Count);<br>这样对于提高应用的IO效率以及提升系统缓存利用率应当会有帮助。</p>
<p><br>对于2），系统缓存随着这个大规模计算应用的进行而逐步增大，并最后导致整个系统无法获取的物理内存而无法继续运行的现象，估计即使采用了在上文提出的，在应用程序代码中尽可能合并IO操作，减少IO次数的方法，也不会改善系统缓存占用物理内存数量过大的问题。这个问题本质上是Windows操作系统本身从NT时代到现在，一直存在的问题，主要是围绕着Windows kernel中的Cache mananger以及memory manager核心态组件的实现机制而产生的。</p>
<p>根据目前的Cc(对Cache manager的简称，在WindowsResourceKernel开源项目中，Cache manager相关模块的函数都以Cc作为前缀，比如CcCopyRead，CcFlushCache等，Memory manager也同样简称Mm)的实现机制，所有对文件系统的访问，包括本地和网络，都会首先由Cc对相关页面作缓存映射，随着频繁的IO的操作，被Cc缓存的页面也迅速递增，而被缓存页面占用多少物理内存，这是由Windows kernel中的Memory manager决定。目前在64位平台上，系统缓存最高可达1TB，所以这个应用进程的运行中出现分配8G的缓存是完全可能的，但同时问题也随之而来，那就是系统缓存占用了过多的物理内存，导致其他进程以及内核本身无法申请足够的物理内存，最后致使系统&#8220;僵死&#8221;；</p>
<p>对于这个问题，微软提供了&#8220;Microsoft Windows Dynamic Cache Service&#8221;工具来提供对系统缓存的工作集working set容量（也就是驻留物理内存的大小）的控制，这个工具主要是对SetSystemFileCacheSize的封装，可以设置系统缓存容量的上下限。</p>
<p>但这只是一种临时的解决方案，因为应用虽然可以通过上面这个Dynamic Cache Service来设置和限制系统缓存容量的大小，但是如何确定缓存容量大小的非常困难，如果过小，所有IO性能大受影响，整个Cc如同虚设；如果过大(等价于不受限)，那么系统缓存占用过多物理内存导致系统僵死的现象就会重现。</p>
<p>所以从根本上看，这个问题应由包括Cc和Mm在内的整个Windows kernel作出完整一致的调整，但从目前的实现看要完成整个方案改动很大，据称这个改进可能会考虑包含在Win7中发布。</p>
<p>Microsoft Windows Dynamic Cache Service下载,<br><a href="http://www.microsoft.com/downloads/en/details.aspx?FamilyID=e24ade0a-5efe-43c8-b9c3-5d0ecb2f39af&amp;displaylang=en">http://www.microsoft.com/downloads/en/details.aspx?FamilyID=e24ade0a-5efe-43c8-b9c3-5d0ecb2f39af&amp;displaylang=en</a></p>
<p>Microsoft Windows Dynamic Cache Service相关的介绍，<br><a href="http://blogs.msdn.com/b/ntdebugging/archive/2009/02/06/microsoft-windows-dynamic-cache-service.aspx">http://blogs.msdn.com/b/ntdebugging/archive/2009/02/06/microsoft-windows-dynamic-cache-service.aspx</a></p>
<img src ="http://www.cppblog.com/flagman/aggbug/136131.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.cppblog.com/flagman/" target="_blank">flagman</a> 2010-12-11 11:19 <a href="http://www.cppblog.com/flagman/archive/2010/12/11/IssueRelatedWithSystemCache.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>思考系统API设计的问题</title><link>http://www.cppblog.com/flagman/archive/2010/12/01/Thinking_Of_API_Design.html</link><dc:creator>flagman</dc:creator><author>flagman</author><pubDate>Wed, 01 Dec 2010 13:28:00 GMT</pubDate><guid>http://www.cppblog.com/flagman/archive/2010/12/01/Thinking_Of_API_Design.html</guid><wfw:comment>http://www.cppblog.com/flagman/comments/135191.html</wfw:comment><comments>http://www.cppblog.com/flagman/archive/2010/12/01/Thinking_Of_API_Design.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.cppblog.com/flagman/comments/commentRss/135191.html</wfw:commentRss><trackback:ping>http://www.cppblog.com/flagman/services/trackbacks/135191.html</trackback:ping><description><![CDATA[<p>最近正好在思考系统API设计中考量的一些问题，<br><br>【某网友讨论到】<br><em>: 那地址是不是同一个地址呢。我现在的理解是这样的，假设有巨大的真实内存。windows首先将高2G的内存自己占了，用作各种内核对象。这2G内存共享给每个进程，但进程不能直接访问，只能通过windows给定的函数访问。<br>: 然后每个进程都给他2G内存，进程如果创建自己的对象就放到自己那2G内存里面，如果要建立内核对象就放到共享的那高2G里面去。<br>: 所以不同进程如果可以访问高2G内存的话，任何进程访问到同一个高地址实际上都是访问到同一个对象。但如果访问低2G地址的话，不同进程是对应不同的对象的。<br></em><br><br><br>在不同的进程中，询问同一个内核对象的实际地址（无论是线性地址还是物理地址），是无意义的：</p>
<p>首先，内核对象只能由在内核态下的例程才能直接访问，在我们日常的代码中，所调用的Windows API，比如CreateFile, （注意调用刚开始时是处于用户态下的），一般都会在ntdll.dll中找到对应的内核函数或例程，接着系统切换到内核态，开始调用实际对应的内核函数(KiCreateFile)，这个时候才会去访问内核对象的实际地址，然后建立一个该内核对象对应当前进程的Handle，并把它返回给caller，同时切换回用户态；因此，对于用户态程序来说，只要且只能知道该内核对象在当前进程中的对应的Handle就可以对其进行操作了；</p>
<p>其次，这样的设计是出于对OS核心数据结构（当然包括我们正在讨论的内核对象）的保护；如果用户态程序可以轻易的获取内核数据结构的实际地址，那么对于整个OS的安全和稳定显然构成很大的问题；一个用户态的误操作可以轻易的引起整个OS的崩溃，而有了这一层的保护，崩溃的只是当前进程而不是整个系统；</p>
<p>接着上面这点，也可以看出，内核对象的如此设计达到了接纳OS本身的平滑演进的目的。从Windows 3.0到95/98，从NT到Win2k/XP，再到眼下的Vista/Win7，Windows操作系统本身发生了巨大的变化和进步，采纳了无数的新技术新方法，但是它基本的系统应用编程接口，也就是我们所熟知的windows API，却并没有发生太大的改变，很多Win 3.0 这个16位OS时代的程序代码只要当初设计规范编码规范，稍许修改就可以在最新版的OS上运行如飞；是什么做到了这些？也就是所谓的极为重要的向后兼容性，我个人认为，把操作系统的重要/主要功能抽象成内核对象，并通过一套极为solid的API暴露出来，达成了这个目标。</p>
<p>这是一种更高层次上的面向对象，把实现的细节，把系统的复杂，简单而优雅的封装了起来。你只要调用CreateFile去建个文件或管道或邮槽，不用担心当前OS是Windows 3.0还是Win7，获得的Handle，你也不用去关心它以及它所指向的内核对象是Windows 3.0的实现还是Win7的实现。</p>
<p>Windows上所有的精彩几乎都是基于这套通过内核对象概念抽象并暴露的API基础之上，COM/OLE，这个二十年前震撼性的ABI和IPC范畴的技术规范，其中很多的设计思路也是植根于内核对象的设计理念，如COM对象的引用计数和内核对象引用计数，IUnknown和Windows Handle(前者是指向某个二进制兼容的组件对象，后者引用或间接指向某个内核对象，都是对于某个复杂概念的一致性抽象表述)，等等；</p>
<p>十年前的.net，本来是作为COM的升级版本推出，把COM/OLE的实现复杂性封装在了虚拟机平台CLR里面，而从这个虚拟机的开源实现SSCLI，我们可以看到大量的COM机制在.net的具体实现里面起了举足轻重的作用。在这些VM中大量symbol有着COR的前缀或者后缀，COR指代什么？Common Object Runtime, 原来CLR/SSCLI的设计思路也是把OS通过虚拟机VM的形式，并通过common object向应用程序暴露功能。</p>
<p>小结一下，<br>OS内核对象API，三十年前系统级别的对象抽象；<br>COM/OLE，二十年前二进制组件级别的对象抽象；<br>.net/CLR, 十年前虚拟机平台级别的对象抽象；</p>
<p>写到这里倒是引起了我其他的一些思考，软件工业界一直以来对面向对象OO是热火朝天，特别是语言层面，从C++/Java/C#到Python/JScript，不一而足；</p>
<p>但是我们有没有从根本性的设计理念上对面向对象，察纳雅言了呢？</p>
<p>如果现在设计Windows这套API的任务放在大家面前，会采用内核对象/Handle方案还是直接指向OS内部数据结构的方式来暴露功能？</p>
<p>从三十年前的这套API的设计中，我们真的可以学到很多。</p>
<p><br>&nbsp;</p>
<img src ="http://www.cppblog.com/flagman/aggbug/135191.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.cppblog.com/flagman/" target="_blank">flagman</a> 2010-12-01 21:28 <a href="http://www.cppblog.com/flagman/archive/2010/12/01/Thinking_Of_API_Design.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item></channel></rss>