﻿<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:trackback="http://madskills.com/public/xml/rss/module/trackback/" xmlns:wfw="http://wellformedweb.org/CommentAPI/" xmlns:slash="http://purl.org/rss/1.0/modules/slash/"><channel><title>C++博客-beautykingdom-随笔分类-MultiCore</title><link>http://www.cppblog.com/beautykingdom/category/9451.html</link><description /><language>zh-cn</language><lastBuildDate>Mon, 02 Feb 2009 16:47:06 GMT</lastBuildDate><pubDate>Mon, 02 Feb 2009 16:47:06 GMT</pubDate><ttl>60</ttl><item><title>NUMA与英特尔下一代Xeon处理器学习心得&lt;转&gt;</title><link>http://www.cppblog.com/beautykingdom/archive/2009/02/02/72826.html</link><dc:creator>chatler</dc:creator><author>chatler</author><pubDate>Mon, 02 Feb 2009 14:18:00 GMT</pubDate><guid>http://www.cppblog.com/beautykingdom/archive/2009/02/02/72826.html</guid><wfw:comment>http://www.cppblog.com/beautykingdom/comments/72826.html</wfw:comment><comments>http://www.cppblog.com/beautykingdom/archive/2009/02/02/72826.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.cppblog.com/beautykingdom/comments/commentRss/72826.html</wfw:commentRss><trackback:ping>http://www.cppblog.com/beautykingdom/services/trackbacks/72826.html</trackback:ping><description><![CDATA[<p>&nbsp; &nbsp;&nbsp; &nbsp;作为一名工程师，一名做技术的工程师，NUMA也是我的近期工作重点之一。在工作时间，在茶余饭后，也看了些NUMA的资料，学习了英特尔下一代Xeon处理器。这里就是我的一点小结，一点心得，和感兴趣的朋友分享分享。</p>
<p>因时间有限，每次就总结一部分，慢慢道来，欲知详情，下回分晓！ <img alt=:-) src="http://softwareblogs-zho.intel.com/wordpress/wp-includes/images/smilies/icon_smile.gif"> </p>
<p>&nbsp;<span><span>一、概述</span></span></p>
<p><span><span>从系统架构来说，目前的主流企业服务器基本可以分为三类：</span><span><span>SMP (Symmetric Multi Processing</span></span><span>，对称多处理架构</span><span><span>)</span></span><span>，</span><span><span>NUMA (Non-Uniform Memory Access</span></span><span>，非一致存储访问架构</span><span><span>)</span></span><span>，和</span><span><span>MPP (Massive Parallel Processing</span></span><span>，海量并行处理架构</span><span><span>)</span></span><span>。三种架构各有特点，本文将重点聊聊</span><span><span>NUMA</span></span><span>。</span></span></p>
<p><span><span><span><span>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; </span></span></span><span>为了了解</span><span><span>NUMA</span></span><span>，我这里就介绍一下</span><span><span>NUMA</span></span><span>与其他两种</span><span><span>Non-NUMA</span></span><span>的主要区别。</span></span></p>
<p><span><span><span>1</span></span><span>．</span><span><span>SMP</span></span><span>（</span><span><span>Symmetric Multi Processing</span></span><span>）</span></span></p>
<p><span><span><span><span>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; </span></span><span>SMP</span></span><span>是非常常见的一种架构。在</span><span><span>SMP</span></span><span>模式下，多个处理器均对称的连接在系统内存上，所有处理器都以平等的代价访问系统内存。它的优点是对内存的访问是平等、一致的；缺点是因为大家都是一致的，在传统的</span><span><span> SMP </span></span><span>系统中，所有处理器都共享系统总线，因此当处理器的数目增多时，系统总线的竞争冲突迅速加大，系统总线成为了性能瓶颈，所以目前</span><span><span> SMP </span></span><span>系统的处理器数目一般只有数十个，可扩展性受到很大限制。</span></span></p>
<p><span><span><span>2</span></span><span>．</span><span><span>MPP (Massive Parallel Processing)</span></span></span></p>
<p><span><span><span><span>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; </span>MPP</span></span><span>则是逻辑上将整个系统划分为多个节点，每个节点的处理器只可以访问本身的本地资源，是完全无共享的架构。节点之间的数据交换需要软件实施。它的优点是可扩展性非常好；缺点是彼此数据交换困难，需要控制软件的大量工作来实现通讯以及任务的分配、调度，对于一般的企业应用而言过于复杂，效率不高。</span></span></p>
<p><span><span><span>3</span></span><span>．</span><span><span>NUMA</span></span><span>（</span><span><span>Non-Uniform Memory Access</span></span><span>）</span></span></p>
<p><span><span><span><span>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; </span>NUMA</span></span><span>架构则在某种意义上是综合了</span><span><span>SMP</span></span><span>和</span><span><span>MPP</span></span><span>的特点：逻辑上整个系统也是分为多个节点，每个节点可以访问本地内存资源，也可以访问远程内存资源，但访问本地内存资源远远快于远程内存资源。它的优点是兼顾了</span><span><span>SMP</span></span><span>和</span><span><span>MPP</span></span><span>的特点</span><span><span>, </span></span><span>易于管理，可扩充性好；缺点是访问远程内存资源的所需时间非常的大。</span></span></p>
<p><span><span><span><span>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; </span></span></span><span>在实际系统中使用比较广的是</span><span><span>SMP</span></span><span>和</span><span><span>NUMA</span></span><span>架构。像传统的英特尔</span><span><span>IA</span></span><span>架构就是</span><span><span>SMP</span></span><span>，而很多大型机采用了</span><span><span>NUMA</span></span><span>架构。</span></span></p>
<p><span><span><span><span>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; </span></span></span><span>现在已经进入了多核时代，随着核数的越来越多，对于内存吞吐量和延迟有了更高的要求。正是考虑到这种需求，</span><span><span>NUMA</span></span><span>架构出现在了最新的英特尔</span><span><span>下一代Xeon处理器</span></span><span>中。<br><br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &nbsp; 做为英特尔下一代的45nm Xeon处理器， 它会成为未来英特尔从台式机、笔记本到服务器全线产品的主流处理器。 比较前一代酷睿处理器平台，它的平台在对以前的系统架构和内存层次体系进行了重大改变的同时，对微架构也进行了全方位的细化， 主要改进表现在以下的特性：<br> &gt; 新的核心架构，最大可扩展到每个接口4个核心<br> &gt; 同步多线程(SMT) 技术最大允许每个处理器可以运行8个线程<br> &gt; 最新的点到点直连架构：Intel&#174; QuickPath Interconnect (Intel&#174; QPI)技术<br> &gt; Intel&#174; QuickPath 集成内存控制器（IMC），DDR3接口<br> &gt; 微架构功能的改进，包括增强的SSE4.2指令集，改进的锁定支持，循环流和分支预测等特性<br> &gt; 更好的节能特性</p>
<p>下面详细介绍一下下一代Xeon处理器四大主要技术:</p>
<p> &gt; Intel&#174; QuickPath Interconnect (Intel&#174; QPI)技术<br>使用QPI架构代替了原来的FSB架构，QPI是基于数据包传输，高带宽低延迟的点到点传输技术，速度可以达到6.4GT/s，对双向传输的QPI总线连接来说理论最大值可以达到25.6GB/s的数据传输，远远高于原来基于FSB架构的数据带宽。</p>
<p> &gt; Intel&#174; QuickPath 集成内存控制器（IMC）<br>在每一个socket上集成了独立的DDR3内存控制器（IMC）供接口访问内存，较之非IMC的平台，大大提高了带宽（使用DDR3－1333可以达到32GB/s的峰值带宽，较之以前的平台具有四到六倍的带宽提升），显著地降低了内存延迟，从而提升了性能，为每个CPU提供了访问本地内存资源的快速通道。与前一代平台不同的是，内存访问采用NUMA架构，对于NUMA-aware的应用来说可以得到更大的性能提升。DDR3的IMC最大支持到每个CPU接口96GB的DDR3内存容量，将来最大容量可以达到144GB，为高端的企业运算提供了强有力的内存支持。</p>
<p><strong>同志们，NUMA在这就闪亮登场了！ </strong></p>
<p> &gt; 改进的电源管理<br>集成在芯片上的电源管理使得能耗的控制更加高效。</p>
<p> &gt; 同步多线程技术（SMT）<br>同步多线程技术使得每个核心可以同时执行2个线程，所以对于4核的CPU来说，就可以在每个处理器芯片上达到最大8个逻辑处理器。</p>
<p><span><span>前面介绍了NUMA的很牛的架构，那目前系统层面上，软件对NUMA的支持怎么样呢？请见本文：NUMA架构软件支持栈</span></span></p>
<p><span><span>对于</span><span>NUMA</span><span>架构而言，经过了几十年的发展，目前的软件支持栈已经非常完备，从底层的操作系统，到之上的数据库、应用服务器，基本所有主流的产品均以为</span><span>NUMA</span><span>提供了充分的支持。</span></span></p>
<p><span><strong><em><span>操作系统（</span></em></strong><strong><em><span>Operating System</span></em></strong><strong><em><span>）</span></em></strong><strong><em></em></strong></span></p>
<p><span><span>目前，</span><span>Windows Server 2003 </span><span>和</span><span>Windows XP 64-bit Edition, Windows XP</span><span>等都是</span><span>NUMA aware</span><span>的，而</span><span>Windows Vista</span><span>则有了对</span><span>Numa</span><span>调度的支持。所有使用</span><span>2.6</span><span>版本以上</span><span>kernel</span><span>的</span><span>Linux</span><span>操作系统都能够支持</span><span>NUMA</span><span>。而</span><span>Solaris</span><span>，</span><span>HP-Unix</span><span>等</span><span>UNIX</span><span>操作系统也是充分支持</span><span>NUMA</span><span>架构的。</span></span></p>
<p><span><strong><em><span>数据库（</span></em></strong><strong><em><span>Database</span></em></strong><strong><em><span>）</span></em></strong></span></p>
<p><span><span>对于数据库产品来说，</span><span>Oracle</span><span>从</span><span>8i</span><span>开始支持</span><span>NUMA,</span><span>而之后的</span><span>Oracle9i</span><span>，</span><span>Oracle10g</span><span>，</span><span>Oracle11g</span><span>都能够支持</span><span>NUMA</span><span>。</span><span>SQL Server 2005 </span><span>和</span><span>SQL Server 2008</span><span>均有效的提供了对</span><span>NUMA</span><span>的支持。</span></span></p>
<p><span><strong><em><span>中间件服务器（</span></em></strong><strong><em><span>Middleware</span></em></strong><strong><em><span>）</span></em></strong><strong><em></em></strong></span></p>
<p><span><span>目前业界典型的受控程序主要是</span><span>Java</span><span>应用和</span><span>.Net</span><span>应用。由于内存分配，线程调度对于应用而言是透明的，完全是由虚拟机来处理。因此它们在</span><span>NUMA</span><span>环境下的性能表现主要取决于虚拟机的实现是否能充分利用到底层操作系统对</span><span>NUMA</span><span>的支持。</span></span></p>
<p><span><span><span>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; </span></span><span>综上所述，目前的软件栈对</span><span>NUMA</span><span>架构均已经作了充分的支持。那么应用软件如何支持</span><span>NUMA</span><span>架构呢？请见下面章节的论述。</span></span></p>
<p><span><span>在传统</span><span>SMP</span><span>系统上，所有</span><span>CPU</span><span>都以同样的方式通过一个共享内存控制器来访问内存，各</span><span>CPU</span><span>之间也是通过它来进行交流，所以很容易造成拥堵。而一个内存控制器所能够管理的内存数量也是非常有限的。此外，通过唯一的</span><span>hub</span><span>访问内存造成的延迟也是非常高的。</span></span></p>
<p><span>&nbsp;</span><span><span>在</span><span>NUMA</span><span>结构下，每个计算机不再只有唯一的内存控制器，而是把整个系统分成多个节点。每个节点分别有自己的处理器和内存。系统中所有的节点都通过全互联的方式连接。所以，每当在系统中增加新的节点，系统所能够支持的内存和带宽都会增加，具有非常好的扩展性。</span></span></p>
<p><strong><em><span>&nbsp;</span></em></strong><span><span>下面就讲讲<strong>NUMA的内存组织</strong></span></span></p>
<p><strong><em><span>&nbsp;</span></em></strong><span><span>在</span><span>NUMA</span><span>系统中，每个</span><span>CPU</span><span>可以访问两种内存：本地内存（</span><span>Local Memory</span><span>）和远端内存（</span><span>Remote Memory</span><span>）。和</span><span>CPU</span><span>在同一个节点的内存称为本地内存，访问延迟非常低。和</span><span>CPU</span><span>在不同节点上的内存叫做远端内存，</span><span>CPU</span><span>需要通过节点互联方式访问，所以访问延迟要比访问本地内存长。</span></span></p>
<p><span>&nbsp;</span><span><span>从软件的角度来看，远端内存和本地内存是以同样的方式访问的。理论上讲，</span><span>NUMA</span><span>系统可以被软件视为与</span><span>SMP</span><span>同样的系统，不区分本地和远端内存。但是如果追求更好的性能，这个区别还是需要被考虑的。</span></span></p>
<p><span>&nbsp;</span><span><span>经实验，对于常规的内存操作，如清空（</span><span>Memset</span><span>），块复制（</span><span>Memcpy</span><span>），流读写（</span><span>Stream</span><span>），指针追溯（</span><span>Pointer Chase</span><span>）等操作来说，本地内存的访问速度要远远优于远端内存。</span></span></p>
<p><span>&nbsp;</span><span><span>由于</span><span> NUMA </span><span>同时使用本地内存和远端内存，因此，访问某些内存区域的时间会比访问其他内存区域的要长。本地内存和远端内存通常用于引用当前正在运行的线程。本地内存是指与当前正在运行线程的</span><span> CPU </span><span>位于同一节点上的内存。任何不属于当前正在运行的线程所在的节点的内存均为远端内存。访问远端内存的开销与访问本地内存的开销比率称为</span><span> NUMA </span><span>比率。如果</span><span> NUMA </span><span>比率为</span><span> 1</span><span>，则它是对称多处理</span><span> (SMP)</span><span>。比率越高，访问其他节点内存的开销就越大。不支持</span><span> NUMA </span><span>的</span><span> </span><span>应用程序有时在</span><span> NUMA </span><span>硬件上的执行效果非常差。</span></span></p>
<p><span>&nbsp;</span><span><span>由于访问本地内存和远端内存的开销是有区别的，所以在</span><span>NUMA</span><span>模式下，如果每个线程更多的是访问本地内存，那么性能相比而言会有一定提升。</span></span></p>
<p>多谢各位的参与和支持，让我更有动力去把这个系列写好。前面有同学问起了QPI，我这里就详细解释一下，而QPI也是下一代Xeon处理器的特性之一。</p>
<p>QPI全称<span>Intel&#174; QuickPath Interconnect，是直接连接同一台机器的不同CPU之间的传输通道，使得各个核（CORE）之间的数据传输更快：如果数据在cache里，就可以直接用QPI来传输，而不用再访问内存了。</span></p>
<p><span><a href="http://softwareblogs-zho.intel.com/wordpress/wp-content/uploads/2008/12/untitled.jpg"><img class="alignnone size-medium wp-image-866" height=260 alt="" src="http://softwareblogs-zho.intel.com/wordpress/wp-content/uploads/2008/12/untitled-300x260.jpg" width=300></a></span></p>
<p>下一代Xeon处理器使用QPI架构代替了原来的FSB架构，QPI是基于数据包传输，高带宽低延迟的点到点传输技术，速度可以达到6.4GT/s,远远高于原来基于FSB架构的数据带宽。当然,具体平台的实现中QPI连接数目可以根据目标市场和系统复杂性而有所不同，表现出极大的灵活性和扩展性。&nbsp;</p>
<p><span>又有同学可能要问，那同一个CPU内的不同的核怎么交换数据呢？这就更简单了。下一代Xeon处理器的不同核是存在cache共享的，这样如果数据在cache里，那就直接共享了，不用再到内存里找，简单吧，呵呵</span></p>
<p>接下来讲讲<span><em><strong>NUMA</strong></em></span><span><em><strong>策略</strong></em>，也就是为了更好的利用NUMA来给咱们干活：</span><span></p>
<p><span>为描述在</span><span>NUMA</span><span>架构下针对内存访问的优化，我们可以引入</span><span>NUMA</span><span>策略的概念。</span><span>NUMA</span><span>策略</span><span>(NUMA Policy)</span><span>即是指在多个节点上合理的进行内存分配的机制。对于不同软件设计要求，策略的目标可能会不同：有一些设计可能强调低延迟访问，另一些则可能更加看重内存的访问带宽。</span></p>
<p>&nbsp;<span>对于强调低延迟访问的设计，基本的分配方式就是尽量在线程的本地内存上为其进行分配，</span><span> </span><span>并尽量让线程保持在该节点上。这被称为线程的节点亲和性</span><span>(Node affinity)</span><span>。这样既充分利用了本地内存的低延迟，</span><span> </span><span>同时也能有效降低节点间的通信负担。</span></p>
<p>&nbsp;<span>NUMA</span><span>架构的一个优势是，即便是在拥有大量</span><span>CPU</span><span>的大规模系统中，我们也可以保证局部内存访问的低延迟。通常来讲，</span><span>CPU</span><span>的处理速度是远大于内存的存取速度的。在读写内存时，</span><span>CPU</span><span>常常需要花大量的时钟周期来等待。降低内存访问的延迟因而能够有效的提升软件性能。</span></p>
<p>&nbsp;<span>另外，为</span><span>SMP</span><span>设计的操作系统通常会有缓存亲和性</span><span>(Cache Affinity) </span><span>的优化措施。缓存亲和性机制可以让数据尽量长时间的保留在某一个</span><span>CPU</span><span>的缓存中，而不是来回在多个</span><span>CPU</span><span>的缓存里换来换去。操作系统通常是通过优化进行线程</span><span>/</span><span>进程调度来保证这一点：在线程被重新调入时，调度器会尽量让线程在之前运行的同一个</span><span>CPU</span><span>上运行，从而保证缓存利用率。这一机制显然是和</span><span>NUMA</span><span>系统尽量利用本地内存的策略是一致的，有利于面向</span><span>SMP</span><span>系统的程序向</span><span>NUMA</span><span>架构移植。</span></p>
<p>&nbsp;<span>但缓存亲和性机制同</span><span>NUMA</span><span>系统的节点亲和性又是有区别的：首先，同一个节点间多个</span><span>CPU</span><span>或者核的线程迁移并不影响该线程的节点亲和性；其次，当线程被迫迁移到其他节点时，他所拥有的内存是不会跟着迁移的，</span><span> </span><span>仍然保留在原来位置。这个时候，本地内存就变成了远端内存，对它的访问既慢又占用节点通信带宽。相对的，线程在迁移之后能够以较小的代价迅速建立起新的缓存，并继续在新</span><span>CPU</span><span>上体现缓存的亲和优势。</span><span> </span><span>因此，</span><span>NUMA</span><span>系统对于节点亲和性的依赖更大。</span></p>
<p>&nbsp;<span>操作系统的调度器同时也不能仅仅为保证节点亲和性做优化。因为通常相对于频繁访问远端内存来说，让</span><span>CPU</span><span>空闲带来的性能损失更大。如果特定应用系统的性能受内存访问的影响远大于</span><span>CPU</span><span>的利用率，这个时候程序员或者管理员则可采用特别的</span><span>NUMA</span><span>策略来强调节点的亲和性，从而提升性能。</span></p>
<p>&nbsp;<span>另外</span><span>, </span><span>尽管大部分应用会因为优化响应时间而收益，还有一部分应用则对内存带宽比较敏感。为了提升内存带宽，</span><span>NUMA</span><span>架构下的多个内存控制器可以并行使用。这类似于</span><span>RAID</span><span>阵列通过并行处理磁盘</span><span>IO</span><span>来提升读写性能。通过适当的软件或者硬件机制，</span><span>NUMA</span><span>架构可以使内存控制单元在各个内存控制器上交替的分配内存。这意味着分配得到的连续内存页面会水平地分布到各个节点上。当应用程序对内存进行流式读写时，各个内存控制器的带宽就相当于累加了。此机制获得性能提升决定于</span><span>NUMA</span><span>架构的实现。对于远端内存访问延迟严重的架构，该提升往往会比较明显。在一些</span><span>NUMA</span><span>系统中，系统硬件本身提供了节点交织分配机制；而在没有硬件提供节点交织的系统中，可由操作系统来实现该机制。</span></p>
<br>
<p><span><span>下面是一些<strong>NUMA</strong><strong>策略控制工具</strong></span></span></p>
<p><strong><em></em></strong></p>
<p><strong><em><span>NUMACTL </span></em></strong><span><span>是设定进程</span><span>NUMA</span><span>策略的命令行工具。对于那些无法修改和重新编译的程序，它可以进行非常有效的策略设定。</span><span>Numactl</span><span>使管理员可以通过简单的命令行调用来设定进程的策略，</span><span> </span><span>并可以集成到管理脚本中。</span><span> </span></span></p>
<p>&nbsp;<span><span>Numactl</span><span>的主要功能包括：</span><span> </span></span></p>
<p><span><span><span>1.</span>&nbsp;</span></span><span><span>设定进程的内存分配基本策略</span></span></p>
<p><span><span><span>2.&nbsp;</span></span></span><span><span>限定内存分配范围，如某一特定节点或部分节点集合</span></span></p>
<p><span><span><span>3.&nbsp;</span></span></span><span><span>对进程进行节点或节点集合的绑定</span></span></p>
<p><span><span><span>4.&nbsp;</span></span></span><span><span>修改命名共享内存，</span><span>tmpfs</span><span>或</span><span>hugetblfs</span><span>等的内存策略</span></span></p>
<p><span><span><span>5.&nbsp;</span></span></span><span><span>获取当前策略信息及状态</span></span></p>
<p><span><span><span>6.&nbsp;</span></span></span><span><span>获取</span><span>NUMA</span><span>硬件拓扑</span></span></p>
<p><span>&nbsp;</span><span><span>下面是使用</span><span>numactl</span><span>设定进程策略的实例：</span></span></p>
<p><span>&nbsp;</span><span>numactl --cpubind=0 --membind=0,1 program</span></p>
<p>&nbsp;<span><span>其意义为：在节点</span><span>0</span><span>上的</span><span>CPU</span><span>运行名为</span><span>program</span><span>的程序，并且只在节点</span><span>0</span><span>，</span><span>1</span><span>上分配内存。</span><span>Cpubind</span><span>的参数是节点编号，而不是</span><span>cpu</span><span>编号。在每个节点上有多个</span><span>CPU</span><span>的系统上，编号的定义顺序可能会不同。</span></span></p>
<p><span>&nbsp;</span><span><span>下面是使用</span><span>numactl</span><span>更改共享内存段的分配策略的实例：</span></span></p>
<p><span>&nbsp;</span><span>numactl --length=1G --file=/dev/shm/interleaved --interleave=all</span></p>
<p><span>&nbsp;</span><span><span>其意义为：</span><span> </span><span>对命名共享内存</span><span>interleaved</span><span>进行设置，其策略为全节点交织分配，大小为</span><span>1G</span><span>。</span></span></p>
<p><span>&nbsp;</span><span><strong><span>NUMASTAT </span></strong><span>是获取</span><span>NUMA</span><span>内存访问统计信息的命令行工具。对于系统中的每个节点，内核维护了一些有关</span><span>NUMA</span><span>分配状态的统计数据。</span><span>numastat</span><span>命令会基于节点对内存的申请，分配，转移，失败等等做出统计，也会报告</span><span>NUMA</span><span>策略的执行状况。这些信息对于测试</span><span>NUMA</span><span>策略的有效性是非常有用的。</span></span></p>
<p>下面介绍<span><strong><em><span>NUMA</span></em></strong><strong><em><span>策略的实现方式和策略</span></em></strong><strong><em></em></strong></span></p>
<p>&nbsp;</p>
<p><span><span>在最新的通用操作系统，</span><span> </span><span>如</span><span>Windows</span><span>和</span><span>linux</span><span>上，</span><span> </span><span>都不同程度的提供了面向</span><span>NUMA</span><span>架构的系统控制和</span><span>API</span><span>支持。下面以</span><span>linux</span><span>为例，对该类接口进行说明。</span></span></p>
<p><span>&nbsp;</span></p>
<p><span><strong><em><span>Linux</span></em></strong><strong><em><span>下的</span></em></strong><strong><em><span>NUMA API </span></em></strong></span></p>
<p><span>&nbsp;</span></p>
<p><span><span>版本为</span><span>2.5</span><span>之后的</span><span>linux</span><span>内核在进程调度，内存管理等方面对</span><span>NUMA</span><span>系统做了大量优化。同时，基于</span><span>2.6</span><span>内核版本的各主要</span><span>linux</span><span>发行版，如</span><span>Redhat</span><span>，</span><span>SUSE</span><span>等均包括了面向用户空间的</span><span>numautils</span><span>工具包，提供对</span><span>NUMA</span><span>系统内存策略的监控功能，并开放面向用户空间程序的</span><span>API</span><span>接口。该接口习惯上称为</span><span>NUMA API</span><span>。</span></span></p>
<p><span>&nbsp;</span></p>
<p><span><span>NUMA API</span><span>主要任务是管理</span><span>NUMA</span><span>的内存策略。</span><span>NUMA</span><span>策略通过几个子系统的协同工作来实现。内核管理进程的内存分配机制以及特殊的内存映射。</span><span>NUMA API</span><span>通过新引入的</span><span>3</span><span>个内核系统调用来实现这一点。在用户空间中，</span><span>NUMA API</span><span>通过</span><span>libnuma</span><span>库提供了统一的接口供用户空间程序使用。相对于系统调用，</span><span>libnuma</span><span>接口更加清晰易用。同时</span><span>NUMA API</span><span>还提供了命令行工具</span><span>numactl</span><span>和</span><span>numastat</span><span>来帮助系统管理员实现进程级别的策略管理。</span></span></p>
<p><span>&nbsp;</span></p>
<p><span><span>在</span><span>Linux</span><span>上</span><span>NUMA API</span><span>支持四种内存分配策略：</span></span></p>
<p><span>&nbsp;</span></p>
<ol type=1>
    <li><span><span>缺省</span><span>(default) -&nbsp;</span><span>总是在本地节点分配（分配在当前线程运行的节点上）</span></span>
    <li><span><span>绑定</span><span>(bind) -&nbsp;</span><span>分配到指定节点上</span></span>
    <li><span><span>交织</span><span>(interleave) -&nbsp;</span><span>在所有节点或者指定的节点上交织分配</span></span>
    <li><span><span>优先</span><span>(preferred) -&nbsp;</span><span>在指定节点上分配，失败则在其他节点上分配</span></span> </li>
</ol>
<p><span>&nbsp;</span></p>
<p><span><span>绑定和优先的区别是，在指定节点上分配失败时（如无足够内存），绑定策略会报告分配失败，而优先策略会尝试在其他节点上进行分配。强制使用绑定有可能会导致前期的内存短缺，并引起大量换页。在</span><span>libnuma</span><span>库中，优先和绑定是组合在一起的。通过对线程调用</span><span>uma_set_strict</span><span>函数，可以在两种策略间切换。缺省的策略是更加普适的优先策略。</span></span></p>
<p><span>&nbsp;</span></p>
<p><span><span>策略可以基于进程或内存区域设定。进程策略对整个进程内的内存分配都有效，而内存区域策略作用于指定的内存区域，其优先级比进程策略要高。</span></span></p>
<p><span>&nbsp;</span></p>
<p><strong><em><span>进程策略</span></em></strong><strong><em><span> </span></em></strong><span><span>作用于所有由内核分配的内存页，包括</span><span>malloc, </span><span>系统调用中使用的内核级的分配以及文件缓冲区等。唯一的例外是，中断中分配的内存总是在当前节点中。当子进程</span><span>Fork</span><span>时，会继承父进程的进程策略。</span></span></p>
<p><span>&nbsp;</span></p>
<p><strong><em><span>内存区域策略</span></em></strong><strong><em><span> </span></em></strong><span><span>又称为</span><span>VMA</span><span>策略，它允许一个进程为自己地址空间里的一块内存设置策略。</span><span>内存区域</span><span>策略比进程策略具有更高的优先级。它的主要优点在于能够在分配发生前进行设置。目前，内存区策略只支持一部分内存机制，如：</span><span>SYSV</span><span>共享内存，</span><span>shmem</span><span>和</span><span>tmpfs</span><span>文件映射，以及</span><span>hugetlbfs</span><span>文件系统。在共享内存段或文件映射被删除前，共享内存的区域策略会一直有效。</span></span></p>
<p><span>Linux</span><span>系统提供命令行及编程</span><span>API</span><span>两级用户空间工具来对策略进行控制。</span></p>
<p><span><strong><span>libnuma&nbsp;-- NUMA</span></strong><strong><span>策略的应用程序编程接口</span></strong><strong></strong></span></p>
<p><span>&nbsp;</span></p>
<p><span><span>尽管</span><span>numactl</span><span>能够用作进程级别的内存控制，但其缺点也很明显：分配策略作用于整个进程，无法指定到线程或者特定内存区域。</span><span>Libnuma</span><span>为更加精细的控制提供了</span><span>API</span><span>接口。</span></span></p>
<p><span>&nbsp;</span></p>
<p><span><span>应用程序只需在代码中引用</span><span>numa.h</span><span>头文件</span><span>, </span><span>并在连接时如下连接</span><span>libnuma</span><span>的共享库即可方便使用</span><span>libnuma</span><span>：</span></span></p>
<p><span>&nbsp;</span></p>
<p><span><span>#include &lt;numa.h&gt;</span></span></p>
<p><span><span>&#8230;.</span></span></p>
<p><span><span>cc ... -lnuma</span></span></p>
<p><span>&nbsp;</span></p>
<p><span><span>在开始使用</span><span>NUMA API</span><span>更改策略或分配内存之前</span><span>，</span><span> </span><span>首先需要调用</span><span>numa_available()</span><span>函数。</span><span> </span><span>之后</span><span>, </span><span>则可以使用</span><span>libnuma</span><span>的接口对进程策略进行更改</span><span>，</span><span>或分配内存。</span><span>Libnuma</span><span>库的函数包括以下几组</span><span>:</span></span></p>
<p><span>&nbsp;</span></p>
<p><span><span><span>1.</span><span>&nbsp;&nbsp;&nbsp; </span></span></span><span><span>环境信息</span><span> <span>&#8211; </span></span><span>包括一组用于获取系统内存和</span><span>CPU</span><span>拓扑信息的函数，如系统节点数目，特定节点的内存大小等等。</span></span></p>
<p><span><span><span>2.</span><span>&nbsp;&nbsp;&nbsp; </span></span></span><span><span>进程策略</span><span> <span>&#8211; </span></span><span>包括一组用于获取，设定和更改进程级策略的函数；</span></span></p>
<p><span><span><span>3.</span><span>&nbsp;&nbsp;&nbsp; </span></span></span><span><span>内存区域策略</span><span> <span>&#8211; </span></span><span>包括一组用于设定特定内存区域策略的函数；</span></span></p>
<p><span><span><span>4.</span><span>&nbsp;&nbsp;&nbsp; </span></span></span><span><span>节点绑定</span><span> -&nbsp;</span><span>将线程绑定到指定节点或节点组的函数；</span></span></p>
<p><span><span><span>5.</span><span>&nbsp;&nbsp;&nbsp; </span></span></span><span><span>分配函数</span><span> -&nbsp;</span><span>忽略当前进程策略，直接使用特定的策略进行分配的一组函数；</span></span></p>
<p><span><span><span>6.</span><span>&nbsp;&nbsp;&nbsp; </span></span></span><span><span>其他辅助函数</span></span></p>
<p><span>&nbsp;</span></p>
<p><span><span>通过使用这些接口，程序员可以非常灵活的配置程序内存分配的方式和策略，</span><span> </span><span>以达到优化性能的目的。通常的基于</span><span>NUMA</span><span>的内存分配流程为</span><span>:</span></span></p>
<p><span><span><span>1.</span><span>&nbsp;&nbsp;&nbsp; </span></span></span><span><span>使用</span><span>numa_available()</span><span>判定系统是否支持</span><span>NUMA</span></span></p>
<p><span><span><span>2.</span><span>&nbsp;&nbsp;&nbsp; </span></span></span><span><span>使用进程策略函数定义进程的整体策略</span></span></p>
<p><span><span><span>3.</span><span>&nbsp;&nbsp;&nbsp; </span></span></span><span><span>使用节点绑定函数合理绑定线程</span></span></p>
<p><span><span><span>4.</span><span>&nbsp;&nbsp;&nbsp; </span></span></span><span><span>使用普通的分配函数</span><span>(</span><span>如</span><span>malloc)</span><span>进行普通分配</span></span></p>
<p><span><span><span>5.</span><span>&nbsp;&nbsp;&nbsp; </span></span></span><span><span>对于特定性能需求的代码</span><span>, </span><span>使用</span><span>NUMA</span><span>分配函数做指定分配</span></span></p>
<p><span><span><span>6.</span><span>&nbsp;&nbsp;&nbsp; </span></span></span><span><span>对于内存区域，使用内存区域策略函数设定其分配策略</span></span></p>
<p>前面说了NUMA的总总特点，有朋友问了这么一个问题：要是我的程序就是乱序的访问内存，也不太可能改了，那怎么办呢？是不是就注定被NUMA欺负了？也不是。</p>
<p>在英特尔下一代Xeon处理器平台中，BIOS里有一个<span lang=EN-US>NUMA </span>选项，可以指定怎么映射内存。以两颗CPU为例。如果指定NUMA mode，那么前一半内存空间被指定到直接连接CPU0， 后一半内存空间被指定到直接连接CPU1，换句话说就是我们说的NUMA方式；如果指定Non NUMA，那么就是奇数页面被指定到直接连接CPU0，偶数页面被指定到直接连接CPU1，也就是页面奇偶交错分布，用户体验上就跟传统方式类似，虽然没有了NUMA的好处，但也没被NUMA伤了。</p>
</span></span></span>
<img src ="http://www.cppblog.com/beautykingdom/aggbug/72826.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.cppblog.com/beautykingdom/" target="_blank">chatler</a> 2009-02-02 22:18 <a href="http://www.cppblog.com/beautykingdom/archive/2009/02/02/72826.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item></channel></rss>