声明:我的机器在本文中叫 宿机,vmware中的linux就叫linux
本文已经实现了通过host-only模式 宿机 ping通 linux,但是在host-only模式下,linux 没有ping通 宿机...我很郁闷(我的本机连接已经设置共享了,还是不行!)
于是我就只能使用bridge模式 实现 宿机 跟 linux 互通
host-only:
1.首先确认虚拟机中的网卡是连接的,并且选择的是 host-only 模式 如图所示:
2.查看虚拟机host-only方式的IP分配情况:
我的是vmware8.0 ,我的是这么打开的:
Edit --> Virtual Network Editor ,打开如下画面:
3.大家都看到了,我本机的情况是:从 192.168.213.0 ,
然后分配的IP地址是:192.168.213.1 ~ 192.168.213.254
那么我的网卡中,其中 VMware Virtual Ethernet Adapter for VMnet1 的
IP地址设置为:192.168.213.1
子网掩码:255.255.255.0
其他的不用管,如图所示:
4.忘了告诉大家,宿机IP为:192.168.1.100
现在启动 linux
使用vi 编辑:/etc/sysconfig/network-scripts/ifcfg-eth0 ( // 后面的是注释,大家这个不要加进去 )
DEVICE=eth0 //设备名称,不要修改
BOOTPROTO=static
BROADCAST=192.168.213.255 //广播地址,一般为本网段的最后一个IP
IPADDR=192.168.213.5
NETMASK=255.255.255.0
NETWORK=192.168.213.1 //跟宿机中的 VMware Virtual Ethernet Adapter for VMnet1 的 IP 地址相同
ONBOOT=yes
TYPE=Ethernet
5. 在linux中执行命令:
ifconfig eth0 down
ifconfig eth0 up
service network restart
6.截止到目前,已经OK!
打开宿机的 cmd,ping 192.168.213.5 就可以ping 通了,
但是不知道 linux 为什么 ping 不宿机!!!
鉴于这个问题,可以通过bridge 模式连接,这样 两者互通是很方便的,当然了,这个需要一个局域网的环境。
另外简单的说说bridge
bridge:
1.首先确认虚拟机中的网卡是连接的,并且选择的是 bridge 模式 如图所示:
2.
宿机IP为:192.168.1.100
现在启动 linux
使用vi 编辑:/etc/sysconfig/network-scripts/ifcfg-eth0 ( // 后面的是注释,大家这个不要加进去 )
DEVICE=eth0
BOOTPROTO=static
BROADCAST=192.168.1.255
IPADDR=192.168.1.115
NETMASK=255.255.255.0
NETWORK=192.168.1.1
ONBOOT=yes
TYPE=Ethernet
3.在linux中执行命令:
ifconfig eth0 down
ifconfig eth0 up
service network restart
6.截止到目前,已经OK!
打开宿机的 cmd,ping 192.168.1.115 就可以ping 通了。
同时,linux也可以 ping 通宿机 ping 192.168.1.100
NFS 是Network File System的缩写,即网络文件系统。一种使用于分散式文件系统的协定,由Sun公司开发,于1984年向外公布。功能是通过网络让不同的机器、不同的操作系统能够彼此分享个别的数据,让应用程序在客户端通过网络访问位于服务器磁盘中的数据,是在类Unix系统间实现磁盘文件共享的一种方法。
NFS 的基本原则是“容许不同的客户端及服务端通过一组RPC分享相同的文件系统”,它是独立于操作系统,容许不同硬件及操作系统的系统共同进行文件的分享。
NFS在文件传送或信息传送过程中依赖于RPC协议。RPC,远程过程调用 (Remote Procedure Call) 是能使客户端执行其他系统中程序的一种机制。NFS本身是没有提供信息传输的协议和功能的,但NFS却能让我们通过网络进行资料的分享,这是因为NFS使用了一些其它的传输协议。而这些传输协议用到这个RPC功能的。可以说NFS本身就是使用RPC的一个程序。或者说NFS也是一个RPC SERVER。所以只要用到NFS的地方都要启动RPC服务,不论是NFS SERVER或者NFS CLIENT。这样SERVER和CLIENT才能通过RPC来实现PROGRAM PORT的对应。可以这么理解RPC和NFS的关系:NFS是一个文件系统,而RPC是负责负责信息的传输。
二、系统环境
系统平台:Red hat 5.8
NFS Server IP:10.48.11.41
防火墙已关闭/iptables: Firewall is not running.
SELINUX=disabled
三、安装NFS服务
NFS的安装是非常简单的,只需要两个软件包即可,而且在通常情况下,是作为系统的默认包安装的。
nfs-utils-* :包括基本的NFS命令与监控程序
portmap-* :支持安全NFS RPC服务的连接
1、查看系统是否已安装NFS
[root@exadatabackup dir01]# rpm -qa | grep nfs
nfs-utils-lib-1.0.8-7.9.el5
nfs-utils-1.0.9-60.el5
[root@exadatabackup dir01]# rpm -qa | grep portmap
portmap-4.0-65.2.2.1
四、NFS系统守护进程
nfsd:它是基本的NFS守护进程,主要功能是管理客户端是否能够登录服务器;
mountd:它是RPC安装守护进程,主要功能是管理NFS的文件系统。当客户端顺利通过nfsd登录NFS服务器后,在使用NFS服务所提供的文件前,还必须通过文件使用权限的验证。它会读取NFS的配置文件/etc/exports来对比客户端权限。
portmap:主要功能是进行端口映射工作。当客户端尝试连接并使用RPC服务器提供的服务(如NFS服务)时,portmap会将所管理的与服务对应的端口提供给客户端,从而使客户可以通过该端口向服务器请求服务。
五、NFS服务器的配置
NFS服务器的配置相对比较简单,只需要在相应的配置文件中进行设置,然后启动NFS服务器即可。
NFS的常用目录
/etc/exports NFS服务的主要配置文件
/usr/sbin/exportfs NFS服务的管理命令
/usr/sbin/showmount 客户端的查看命令
/var/lib/nfs/etab 记录NFS分享出来的目录的完整权限设定值
/var/lib/nfs/xtab 记录曾经登录过的客户端信息
NFS服务的配置文件为 /etc/exports,这个文件是NFS的主要配置文件,不过系统并没有默认值,所以这个文件不一定会存在,可能要使用vim手动建立,然后在文件里面写入配置内容。
/etc/exports文件内容格式:
<输出目录> [客户端1 选项(访问权限,用户映射,其他)] [客户端2 选项(访问权限,用户映射,其他)]
a. 输出目录:
输出目录是指NFS系统中需要共享给客户机使用的目录;
b. 客户端:
客户端是指网络中可以访问这个NFS输出目录的计算机
客户端常用的指定方式:
指定ip地址的主机:192.168.0.200
指定子网中的所有主机:192.168.0.0/24 192.168.0.0/255.255.255.0
指定域名的主机:david.bsmart.cn
指定域中的所有主机:*.bsmart.cn
所有主机:*
c. 选项:
选项用来设置输出目录的访问权限、用户映射等。
NFS主要有3类选项:
访问权限选项:
设置输出目录只读:ro
设置输出目录读写:rw
用户映射选项:
all_squash: 将远程访问的所有普通用户及所属组都映射为匿名用户或用户组(nfsnobody);
no_all_squash: 与all_squash取反(默认设置);
root_squash: 将root用户及所属组都映射为匿名用户或用户组(默认设置);
no_root_squash:与rootsquash取反;
anonuid=xxx: 将远程访问的所有用户都映射为匿名用户,并指定该用户为本地用户(UID=xxx);
anongid=xxx: 将远程访问的所有用户组都映射为匿名用户组账户,并指定该匿名用户组账户为本地用户组账户(GID=xxx);
其它选项
secure: 限制客户端只能从小于1024的tcp/ip端口连接nfs服务器(默认设置);
insecure: 允许客户端从大于1024的tcp/ip端口连接服务器;
sync: 将数据同步写入内存缓冲区与磁盘中,效率低,但可以保证数据的一致性;
async: 将数据先保存在内存缓冲区中,必要时才写入磁盘;
wdelay: 检查是否有相关的写操作,如果有则将这些写操作
线程其实就像是对进程的进一步划分,每个进程都拥有自己的地址空间,而在这一个地址空间中可能存在多个控制线程。
线程的使用
为什么需要线程?以下是几点原因
1、许多应用中同时有多个活动,某些活动可能会阻塞,将这些活动分配到不同的线程可以使程序设计模型更加简单。
2、线程更加轻量级,创建和撤销比进程更快。
3、如果存在大量计算和大量I/O处理,多线程允许活动重叠进行(流水线),加快活动执行。
4、在多CPU系统中,可以实现真正的并行。
下面参考一个例子,一个字处理软件假设只有一个线程,那么当用户准备对书本进行重新排版的时候,程序不能立即执行,这时候还在等待用户的进一步输入,而全部的交互完成之后,软件处理可能需要大量的等待时间。相反,假设这个程序拥有两个线程,一个负责与用户进行交互,一个负责后台的处理,那么,在用户与软件进行交互的过程中,另一个线程就能够处理大量的工作而不需要用户全部输入完毕,这样就节省了许多时间。当然,也可以同时拥有3个线程,还有一个负责与磁盘交互,随时进行数据的备份,如图:
考虑另一个例子,一个万维网服务器,对页面的请求发送给服务器,所请求的页面发还给客户机。
一种Web服务器的方式如下图所示,一个称为分派程序的线程从网络中读入工作请求,然后挑选一个被阻塞的工作线程,提交该请求,使工作线程处于就绪状态。然后,工作线程检查有关的请求是否在Web页面高速缓存中,如果没有,则该线程开始一个从磁盘调入页面的read操作,并且阻塞直到该操作完成。此时,分派线程可以挑选另一个线程完成其他工作,也可以把另一个当前就绪的工作线程投入运行。
但是,假设没有多线程可以使用,而且又不能忍受单线程造成的低性能,那么可以使用read系统调用的非阻塞版本。当请求到来时,这个唯一的线程就去对请求进行考察,如果该请求能够在高速缓存中得到满足,那么一些都好,如果不能,那么就启动一个非阻塞的磁盘操作。
服务器在当前表格中记录当前请求的状态,然后去处理下一个事件。可能是新工作的请求,或是磁盘对先前操作的回答。如果是新的工作,那么就去处理这个工作,如果是磁盘的回答,那么就从表中取出相应的回答。对于非阻塞磁盘I/O而言,这种回答通常以信号或中断方式进行。这种设计称为有限状态机。
下面可以对这三种情况进行一个对比:
经典的线程模型
进程模型基于两个独立的概念:资源分组处理与执行,对于进程,可以理解为把相关的资源集中在一起,而进程拥有一个执行的线程,简称为线程,该线程拥有寄存器、堆栈。线程是在CPU上被调度的实体。
同一个进程环境中,允许批次之间拥有较大独立性的多个线程执行,多个线程共享同一个地址空间和其他资源,而多进程则是共享物理内存、磁盘、打印机和其他资源,所以线程有时被称为轻量级进程。
进程之间可能存在相互竞争,或是由不同用户打开,所以需要保护,而进程内的线程之间不设保护,因为多线程的存在是为了彼此之间协同完成任务。
上图中,第一项是进程的属性,而非线程的属性。和进程一样,线程也拥有若干种状态:运行、就绪和阻塞,线程之间的切换和进程是一样的,但每个线程都拥有自己的堆栈,如下图,每个线程的堆栈有一帧,供各个被调用但是还没有从中返回的过程使用。在该帧存放了相应过程的局部变量和以及过程调用完成之后的返回地址。例如过程X调用过程Y,而过程Y又调用过程Z,那么当Z执行时,供X/Y/Z使用的帧会全部存在堆栈中。
在多线程的情况下,进程通常会从当前的单个线程开始,这个线程可以调用库函数创建新的线程,线程完成工作时,可以通过调用库函数退出。
POSIX线程
为了维持可移植性定义的标准,定义的线程包叫做Pthread,所有的Pthread线程都含有一个标识符、一组寄存器和一个存储在结构中的属性,这些属性包括堆栈大小、调度参数和线程需要的其他项目。
在用户空间中实现线程
两种方式实现线程包:用户空间和内核
第一种方法是把整个线程包放在用户空间,内核对线程包不可见。从内核来看,就是单线程任务,通过这种方法,可以使用函数库实现。
在用户空间管理线程时,每个进程需要有其专用的线程表,用来跟踪该进程中的线程。这些表与内核中的进程表类似,不过它仅仅记录各个线程的属性。该线程表有运行时系统管理。
当某个线程做了会引起阻塞的任务时,例如等待进程中另一个线程完成某项工作,它调用运行时系统的过程,这个过程检查该线程是否必须进入阻塞状态。如果是,那么它就在线程表中保存该线程的寄存器,查看表中可运行的就绪线程,并把新线程的保存值重新装入到机器寄存器中。只要堆栈指针和程序计数器一切换,新的线程就可以投入运行。
线程和进程有一个关键的差别。在线程完成运行时,例如在调用thread_yield时,pthread_yield代码就可以把该线程的信息保存在线程表中,进而,它可以调用线程调度程序选择另一个要运行的线程。保存该线程的