我们总希望能在内核空间和用户空间自由交换数据,传统的方式是采用内核提供的vma机制,通过copy_to/from_user之类的方法来实现。这对于高速数据块传送是不可取的。
其实kswapd有时交换数据至外存时,性能相当差,一般而言,你的PC主存并不见得就用尽了,而且很多应用并是你所关心的,但却实实在在消耗你的计算资源,此时,你可能会想到采用实地址操作你的应用(尽管有MMU的支持),在uClinux中,当没有MMU时,工作起来是挺爽的。
最方便的,最高效的,无非是实地址下,操作物理内存,相当于DMA。尽管Linux 2.6内核在VMA方面的性能要优于2.4,但swap机制有一定的缺限。在VxWorks中,对内存的管理是很细致且精确的。如果你在Linux下申请大块内存操作时,当触发kswap快速交换回主存时,你会发现你的计算机
哪一段时间,几乎要休息几分钟,尽管你看起来free输出的頁面已经很多了,但此时的外存几乎一直忙着,且CPU负荷相当重,这时也可能你根本就没做任何操作。
有没有办法既在VMA机制下工作,又能直接处理主存数据呢?
回答是肯定的:
内核启动后,会将主存映射为/dev/mem,当我们在VMA中申请一块逻辑区间后,将转换的物理地址传与用户空间,用户空间就可以线性操作这段区间了,直接采用mmap就可以在物理主存中读写。
还有更快的方式吗?不采用mmap行吗?
当然有,当VMA将物理区块地址及大小传与用户空间后,用户完全可以采用地址读写模式,这几近于机器指令操作了。(可以独立于OS之外)
此种实现方式很简单,首先打开/dev/mem,直接定位至VMA传上来的地址就可以操作了,无需mmap。通知用户空间,可以采用procfs/sysfs等。
强烈建议:在边界控制上,一定要精确细致,不推荐初学者采用,一旦越界,可能引起“Kernel Panic”
更有可能就DOWN了。
对于此实现方式,建议参考mapper(LDD3)程序。
同时,也可以用mapper检查读写是否正确。
新的IA32中,PAGE_SIZE = 4K MAX_ORDER = 11
gfp最大申请4M线性逻辑空间,减去PAGE_OFFSET即可得到物理地址。
如果采用了HIMEM和NUMA,请参见Kernel关于内存映射的算法。
当主存达到1G或超过时,请减小用户空间大小。
随着硬件技术的发展,VMA在主存相当大时,可以考虑进行修正,完全可以集中采用物理映射方式。没必要交换了。否则,反而影响性能。
32位平台,如果主存2G,采用SWAP会使得性能有较大下降。
而在大容量数据传输时,也不可能采用SWAP方式的,不允许换出。
建议Linus在VMA中加入进程分类,不平类别的应用,分配不同的内存块。
小数据PAGE_SIZE = 4K/大数据4M/128M
地址模式全转换为64位,兼容32位,当应用于Embedded系统时,直接使用32位模式。
如将做成多个微系统,不同微核,运行不同应用(不同的进程管理,内存管理,文件管理),只是接口可以统一,不同标志而已。