在linux系统中,要实现内存模拟挂载为硬盘,则要先来了解下什么是tmpfs文件系统。
tmpfs是一种虚拟内存文件系统,最大的特点是它的存储空间在VM里面,这里提一下VM(virtual memory),VM是由linux内核里面的vm子系统管理,现在大多数操作系统都采用
了虚拟内存管理机制。linux下面VM的大小由RM(Real Memory)和swap组成,RM的大小就是物理内存的大小,而Swap的大小是由你自己决定的。
Swap是通过硬盘虚拟出来的内存空间,因此它的读写速度相对RM(Real Memory)要慢许多,为什么需要Swap呢?当一个进程申请一定数量的内存时,如内核的vm子系统发现没
有足够的RM时,就会把RM里面的一些不常用的数据交换到Swap里面,如果需要重新使用这些数据再把它们从Swap交换到RM里面。
如果系统有足够大的物理内存,那就根本无需划分Swap分区了。
VM由RM+Swap两部分组成,因此tmpfs最大的存储空间可达(The size of RM + The size of Swap)。
但是对于tmpfs本身而言,它并不知道自己使用的空间是RM还是Swap,这一切都是由内核的vm子系统管理的。
如何使用tmpfs?
上面这条命令分配了上限为20m的VM到/mnt/tmp目录下,用df命令查看一下,确实/mnt/tmp挂载点显示的大小是20m,但是tmpfs一个优点就是它的大小是随着实际存储的容量而
变化的,换句话说,假如/mnt/tmp目录下什么也没有,tmpfs并不占用VM。上面的参数20m只是告诉内核这个挂载点最大可用的VM为20m,如果不加上这个参数,tmpfs默认的大
小是RM的一半,假如你的物理内存是128M,那么tmpfs默认的大小就是64M,
tmpfs的缺点
当然有,由于它的数据是在VM里面,因此断电或者你卸载它之后,数据就会立即丢失,这也许就是它叫tmpfs的原故。不过这其实不能说是缺点。那tmpfs到底有什么用呢?
tmpfs的用途
由于tmpfs使用的是VM,因此它比硬盘的速度肯定要快,因此我们可以利用这个优点使用它来提升机器的性能。
分配最大2m的VM给/tmp。
由于/tmp目录是放临时文件的地方,因此我们可以使用tmpfs来加快速度,由于没有挂载之前/tmp目录下的文件也许正在被使用,因此挂载之后系统也许有的程序不能正常工作
。
在/etc/fstab中添加如下语句,即可:
重启电脑,恢复。
推荐一篇文章:http://www-128.ibm.com/developerworks/cn/linux/filesystem/l-fs3/
测试过程:
Filesystem Size Used Avail Use% Mounted on
/dev/sda1 852G 325G 483G 41% /
tmpfs 16G 0 16G 0% /dev/shm
/dev/md0 1.8T 506G 1.3T 30% /opt
[root@localhost shm]#
[root@localhost shm]# mount -t tmpfs -osize=2048M tmpfs /mnt/ram/
[root@localhost shm]#
[root@localhost shm]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda1 852G 325G 483G 41% /
tmpfs 16G 0 16G 0% /dev/shm
/dev/md0 1.8T 506G 1.3T 30% /opt
tmpfs 2.0G 0 2.0G 0% /mnt/ram
[root@localhost shm]#
[root@localhost shm]#
[root@localhost chairly]#cp codeblocks-8.02-src.tar.bz2 /mnt/ram/
[root@localhost ram]#
[root@localhost ram]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda1 852G 325G 483G 41% /
tmpfs 16G 0 16G 0% /dev/shm
/dev/md0 1.8T 506G 1.3T 30% /opt
tmpfs 2.0G 6.6M 2.0G 1% /mnt/ram
[root@localhost ram]#
[root@localhost ram]# free
total used free shared buffers cached
Mem: 32818744 3167792 29650952 0 128844 2710972
-/+ buffers/cache: 327976 32490768
Swap: 35005624 0 35005624
[root@localhost ram]#
[root@localhost ram]# rm *
rm: remove regular file`codeblocks-8.02-src.tar.bz2'? y
[root@localhost ram]#
[root@localhost ram]# free
total used free shared buffers cached
Mem: 32818744 3161160 29657584 0 128856 2704292
-/+ buffers/cache: 328012 32490732
Swap: 35005624 0 35005624
[root@localhost ram]#
在/mnt/ram下无法使用dd命令测试硬盘读写速度。
总是报dd: opening `/mnt/ram/write.dat': Invalid argument。
有知道此错误的原因与解决方法的朋友,请分享下。
在生产环境中,一定要确保服务器网络连接的高可用性。网卡(NIC)绑定技术有助于保证高可用性特性并提供其它优势以提高网络性能。
本文要介绍的Linux双网卡绑定,就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址
而并行链接聚合成一个逻辑链路工作。
其实这项技术在Sun和Cisco中早已存在,被称为Trunking和 Etherchannel技术,在Linux的2.4.x的内核中也采用这这种技术,被称为bonding。bonding技术的最早应用是在
集群—— beowulf上,为了提高集群节点间的数据传输而设计的。
bonding原理
说到bonding,还要谈谈网卡的混杂 (promisc)模式。
正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc
的模式,可以接收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的Mac地址改成相
同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。
绑定的前提条件:芯片组型号相同,而且网卡应该具备自己独立的BIOS芯片。
具体配置步骤如下,共分四步:
本测试环境是在RHEL5.4上做的。
/etc/sysconfig/network-scripts
[root@xxx network-scripts]# cat ifcfg-eth0
# Advanced Micro Devices [AMD] 79c970[PCnet32 LANCE]
DEVICE=eth0
BOOTPROTO=dhcp
ONBOOT=yes
HWADDR=00:0c:29:50:ed:1d
[root@xxx network-scripts]# catifcfg-eth0.bak
# Advanced Micro Devices [AMD] 79c970[PCnet32 LANCE]
DEVICE=eth0
BOOTPROTO=static
BROADCAST=192.168.1.255
HWADDR=00:0C:29:71:AC:8B
IPADDR=192.168.1.10
NETMASK=255.255.255.0
NETWORK=192.168.1.0
ONBOOT=yes
[root@xxx network-scripts]#
1、先建立/etc/sysconfig/network-scripts/ifcfg-bond0文件,内容如下:
NETMASK=255.255.255.0
BROADCAST=192.168.0.255
IPADDR=192.168.0.10
NETWORK=192.168.0.0
ONBOOT=yes
测试环境修改:
[root@xxx network-scripts]# catifcfg-bond0
# Advanced Micro Devices [AMD] 79c970[PCnet32 LANCE]
DEVICE=bond0
BOOTPROTO=static
BROADCAST=192.168.1.255
#HWADDR=00:0C:29:71:AC:8B
IPADDR=192.168.1.10
NETMASK=255.255.255.0
NETWORK=192.168.1.0
ONBOOT=yes
[root@xxx network-scripts]#
2、修改/etc/sysconfig/network-scripts/目录下原来的ifcfg-eth0和ifcfg-eth1文件,内容如下:
BOOTPROTO=none
TYPE=Ethernet
DEVICE=eth0
ONBOOT=yes
MASTER=bond0
BOOTPROTO=none
TYPE=Ethernet
DEVICE=eth1
ONBOOT=yes
MASTER=bond0
测试环境:
# Advanced Micro Devices [AMD] 79c970[PCnet32 LANCE]
DEVICE=eth0
BOOTPROTO=dhcp–》BOOTPROTO=none
ONBOOT=yes
#HWADDR=00:0c:29:50:ed:1d
TYPE=Ethernet
MASTER=bond0
3、在/etc/modprobe.conf文件里增加两行:
options bond0 miimon=100 mode=0
说明:miimon是用来进行链路监测的。比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有
0,1,2,3四种模式,常用的为0,1两种。
mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。
mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份。
4、编辑/etc/rc.d/rc.local文件,添加如下内容:
ifenslave bond0 eth0 eth1
基本创建完成。
不重启服务器的情况下,执行:
ifenslave bond0 eth0 eth1;
然后执行:
service network restart
即可使用绑定后的虚拟网卡。
在linux系统的7种启动级别,默认为X-Window,类似于Windows的窗口模式。
如何修改或变更linux的默认启动级别或模式呢?
以root身份进入Linux,修改文件:/etc/inittab文件
找到“id:5:initdefault:”,其中的5就是X-Window,为默认运行级别,一般把5改为3即可,即默认进入命令行模式。
linux的7种启动级别,分别为:
# 1 - Single user mode
# 2 - Multiuser, without NFS (The same as 3, if you do not have networking)
# 3 - Full multiuser mode
# 4 - unused
# 5 - X11
# 6 - reboot (Do NOT set initdefault to this)
各个运行级的解释:
1 为单用户模式,就像Win9x下的安全模式类似。
2 为多用户模式,但是没有NFS支持。
3 为完整的多用户模式,是标准的运行级。
4 一般不用,在一些特殊情况下可以用它来做一些事情。例如在笔记本电脑的电池用尽时,可以切换到这个模式来做一些设置。
5 就是X11,进到X Window系统了。
6 为重启,运行init 6机器就会重启。
0和6一般不用;
在命令行中运行startx,即可启动到级别5。