redhat分布式存储
㈠ 服务器redhat4.5接FC存储,想把存储挂载给redhat6.5的服务器,要求保留数据
存储连接好,多路径配置好,重启就能识别LUN,然后
挂载
之类的就行了
㈡ Redhat操作系统都有哪些优点呢
其实,这也是人之常情,因为大家都喜欢体验新的东西,享受那种刺激和未知路上的摸索的感觉。这对于那些不知道Redhat操作系统的朋友来说就是最好的印证。他们平时自己电脑上装的系统都是微软的windows,但是如今一听说Redhat操作系统非常优秀的时候,就希望自己也能够体验一把这个系统所带来的乐趣。那么,我们都相信,现在很多人对Redhat操作系统都不怎么了解,因为大家平时接触它的机会本来就不多。当然这里面还是要除去那些计算机专业人士。因为对于专业的IT人士来说他们还是比较知道Redhat系统的。其实,Redhat操作系统已经经过了一段比较漫长的发展时期,现在于2011年发布的6.0操作系统是目前比较新的,也是比较流行的一个系统。其中,最明显的优点就是这个系统能够免费为消费者使用,不像微软的系统需要花几千块的人民币才能够买到正版的系统回来体验。作为一种开源系统,Redhat系统还是在这个方面做得非常不错的。当然,它还具有非常不错的稳定性,这是很多用户最想要用到的系统。因为只有系统足够稳定,大家在实际使用过程中才会享受到新的技术带来的快感!当然Redhat系统的存储性能和虚拟化的功能也是它的这个系统的一大技术亮点。通过这种优秀的技术支持,使得使用这个系统的用户朋友能够体验到最先进的计算机应用软件,那种大型的高技术软件所能够给大家带来的刺激感将在Redhat操作系统里面得到最好的演示!如果你也是电脑技术迷,那么就从了解和认识Redhat开始吧,知道的越多,我们的技术也会不断质变的!
㈢ linux redhat6.3两台机器共用一块存储盘
可以使用NFS(网络文件系统)来实现。
一、NFS服务简介
NFS 是Network File System的缩写,即网络文件系统。一种使用于分散式文件系统的协定,由Sun公司开发,于1984年向外公布。功能是通过网络让不同的机器、不同的操作系统能够彼此分享个别的数据,让应用程序在客户端通过网络访问位于服务器磁盘中的数据,是在类Unix系统间实现磁盘文件共享的一种方法。
NFS 的基本原则是“容许不同的客户端及服务端通过一组RPC分享相同的文件系统”,它是独立于操作系统,容许不同硬件及操作系统的系统共同进行文件的分享。
NFS在文件传送或信息传送过程中依赖于RPC协议。RPC,远程过程调用 (Remote Procere Call) 是能使客户端执行其他系统中程序的一种机制。NFS本身是没有提供信息传输的协议和功能的,但NFS却能让我们通过网络进行资料的分享,这是因为NFS使用了一些其它的传输协议。而这些传输协议用到这个RPC功能的。可以说NFS本身就是使用RPC的一个程序。或者说NFS也是一个RPC SERVER。所以只要用到NFS的地方都要启动RPC服务,不论是NFS SERVER或者NFS CLIENT。这样SERVER和CLIENT才能通过RPC来实现PROGRAM PORT的对应。可以这么理解RPC和NFS的关系:NFS是一个文件系统,而RPC是负责负责信息的传输。
下面是5.6的步骤,6.3和这步骤差不多了。
二、系统环境
系统平台:CentOS release 5.6 (Final)
NFS Server IP:192.168.1.108
防火墙已关闭/iptables: Firewall is not running.
SELINUX=disabled
三、安装NFS服务
NFS的安装是非常简单的,只需要两个软件包即可,而且在通常情况下,是作为系统的默认包安装的。
nfs-utils-* :包括基本的NFS命令与监控程序
portmap-* :支持安全NFS RPC服务的连接
1、查看系统是否已安装NFS
系统默认已安装了nfs-utils portmap 两个软件包。
2、如果当前系统中没有安装NFS所需的软件包,需要手工进行安装。nfs-utils 和portmap 两个包的安装文件在系统光盘中都会有。
# mount /dev/cdrom /mnt/cdrom/
# cd /mnt/cdrom/CentOS/
# rpm -ivh portmap-4.0-65.2.2.1.i386.rpm
# rpm -ivh nfs-utils-1.0.9-50.el5.i386.rpm
# rpm -q nfs-utils portmap
四、NFS系统守护进程
nfsd:它是基本的NFS守护进程,主要功能是管理客户端是否能够登录服务器;
mountd:它是RPC安装守护进程,主要功能是管理NFS的文件系统。当客户端顺利通过nfsd登录NFS服务器后,在使用NFS服务所提供的文件前,还必须通过文件使用权限的验证。它会读取NFS的配置文件/etc/exports来对比客户端权限。
portmap:主要功能是进行端口映射工作。当客户端尝试连接并使用RPC服务器提供的服务(如NFS服务)时,portmap会将所管理的与服务对应的端口提供给客户端,从而使客户可以通过该端口向服务器请求服务。
五、NFS服务器的配置
NFS服务器的配置相对比较简单,只需要在相应的配置文件中进行设置,然后启动NFS服务器即可。
NFS的常用目录
/etc/exports NFS服务的主要配置文件
/usr/sbin/exportfs NFS服务的管理命令
/usr/sbin/showmount 客户端的查看命令
/var/lib/nfs/etab 记录NFS分享出来的目录的完整权限设定值
/var/lib/nfs/xtab 记录曾经登录过的客户端信息
NFS服务的配置文件为 /etc/exports,这个文件是NFS的主要配置文件,不过系统并没有默认值,所以这个文件不一定会存在,可能要使用vim手动建立,然后在文件里面写入配置内容。
/etc/exports文件内容格式:
<输出目录> [客户端1 选项(访问权限,用户映射,其他)] [客户端2 选项(访问权限,用户映射,其他)]
a. 输出目录:
输出目录是指NFS系统中需要共享给客户机使用的目录;
b. 客户端:
客户端是指网络中可以访问这个NFS输出目录的计算机
客户端常用的指定方式
指定ip地址的主机:192.168.0.200
指定子网中的所有主机:192.168.0.0/24 192.168.0.0/255.255.255.0
指定域名的主机:david.bsmart.cn
指定域中的所有主机:*.bsmart.cn
所有主机:*
c. 选项:
选项用来设置输出目录的访问权限、用户映射等。
NFS主要有3类选项:
访问权限选项
设置输出目录只读:ro
设置输出目录读写:rw
用户映射选项
all_squash:将远程访问的所有普通用户及所属组都映射为匿名用户或用户组(nfsnobody);
no_all_squash:与all_squash取反(默认设置);
root_squash:将root用户及所属组都映射为匿名用户或用户组(默认设置);
no_root_squash:与rootsquash取反;
anonuid=xxx:将远程访问的所有用户都映射为匿名用户,并指定该用户为本地用户(UID=xxx);
anongid=xxx:将远程访问的所有用户组都映射为匿名用户组账户,并指定该匿名用户组账户为本地用户组账户(GID=xxx);
其它选项
secure:限制客户端只能从小于1024的tcp/ip端口连接nfs服务器(默认设置);
insecure:允许客户端从大于1024的tcp/ip端口连接服务器;
sync:将数据同步写入内存缓冲区与磁盘中,效率低,但可以保证数据的一致性;
async:将数据先保存在内存缓冲区中,必要时才写入磁盘;
wdelay:检查是否有相关的写操作,如果有则将这些写操作一起执行,这样可以提高效率(默认设置);
no_wdelay:若有写操作则立即执行,应与sync配合使用;
subtree:若输出目录是一个子目录,则nfs服务器将检查其父目录的权限(默认设置);
no_subtree:即使输出目录是一个子目录,nfs服务器也不检查其父目录的权限,这样可以提高效率;
六、NFS服务器的启动与停止
在对exports文件进行了正确的配置后,就可以启动NFS服务器了。
1、启动NFS服务器
为了使NFS服务器能正常工作,需要启动portmap和nfs两个服务,并且portmap一定要先于nfs启动。
# service portmap start
# service nfs start
2、查询NFS服务器状态
# service portmap status
# service nfs status
3、停止NFS服务器
要停止NFS运行时,需要先停止nfs服务再停止portmap服务,对于系统中有其他服务(如NIS)需要使用时,不需要停止portmap服务
# service nfs stop
# service portmap stop
4、设置NFS服务器的自动启动状态
对于实际的应用系统,每次启动LINUX系统后都手工启动nfs服务器是不现实的,需要设置系统在指定的运行级别自动启动portmap和nfs服务。
# chkconfig --list portmap
# chkconfig --list nfs
设置portmap和nfs服务在系统运行级别3和5自动启动。
# chkconfig --level 35 portmap on
# chkconfig --level 35 nfs on
七、实例
1、将NFS Server 的/home/david/ 共享给192.168.1.0/24网段,权限读写。
服务器端文件详细如下:
# vi /etc/exports
/home/david 192.168.1.0/24(rw)
2、重启portmap 和nfs 服务
# service portmap restart
# service nfs restart
# exportfs
3、服务器端使用showmount命令查询NFS的共享状态
# showmount -e//默认查看自己共享的服务,前提是要DNS能解析自己,不然容易报错
# showmount -a//显示已经与客户端连接上的目录信息
4、客户端使用showmount命令查询NFS的共享状态
# showmount -e NFS服务器IP
5、客户端挂载NFS服务器中的共享目录
命令格式
# mount NFS服务器IP:共享目录 本地挂载点目录
# mount 192.168.1.108:/home/david/ /tmp/david/
# mount |grep nfs
挂载成功。
查看文件是否和服务器端一致。
6、NFS的共享权限和访问控制
现在我们在/tmp/david/ 里面建立一个文件,看看权限是什么
# touch 20130103
这里出现Permission denied,是因为NFS 服务器端共享的目录本身的写权限没有开放给其他用户,在服务器端打开该权限。
# chmod 777 -R /home/david/
再次在客户端/tmp/david/ 里面建立一个文件
我用root 用户建立的文件,变成了nfsnobody 用户。
NFS有很多默认的参数,打开/var/lib/nfs/etab 查看分享出来的/home/david/ 完整权限设定值。
# cat /var/lib/nfs/etab
默认就有sync,wdelay,hide 等等,no_root_squash 是让root保持权限,root_squash 是把root映射成nobody,no_all_squash 不让所有用户保持在挂载目录中的权限。所以,root建立的文件所有者是nfsnobody。
下面我们使用普通用户挂载、写入文件测试。
# su - david
$ cd /tmp/david/
$ touch 2013david
普通用户写入文件时就是自己的名字,这也就保证了服务器的安全性。
关于权限的分析
1. 客户端连接时候,对普通用户的检查
a. 如果明确设定了普通用户被压缩的身份,那么此时客户端用户的身份转换为指定用户;
b. 如果NFS server上面有同名用户,那么此时客户端登录账户的身份转换为NFS server上面的同名用户;
c. 如果没有明确指定,也没有同名用户,那么此时 用户身份被压缩成nfsnobody;
2. 客户端连接的时候,对root的检查
a. 如果设置no_root_squash,那么此时root用户的身份被压缩为NFS server上面的root;
b. 如果设置了all_squash、anonuid、anongid,此时root 身份被压缩为指定用户;
c. 如果没有明确指定,此时root用户被压缩为nfsnobody;
d. 如果同时指定no_root_squash与all_squash 用户将被压缩为 nfsnobody,如果设置了anonuid、anongid将被压缩到所指定的用户与组;
7、卸载已挂载的NFS共享目录
# umount /tmp/david/
八、启动自动挂载nfs文件系统
格式:
<server>:</remote/export> </local/directory> nfs < options> 0 0
# vi /etc/fstab
保存退出,重启系统。
查看/home/david 有没有自动挂载。
自动挂载成功。
九、相关命令
1、exportfs
如果我们在启动了NFS之后又修改了/etc/exports,是不是还要重新启动nfs呢?这个时候我们就可以用exportfs 命令来使改动立刻生效,该命令格式如下:
# exportfs [-aruv]
-a 全部挂载或卸载 /etc/exports中的内容
-r 重新读取/etc/exports 中的信息 ,并同步更新/etc/exports、/var/lib/nfs/xtab
-u 卸载单一目录(和-a一起使用为卸载所有/etc/exports文件中的目录)
-v 在export的时候,将详细的信息输出到屏幕上。
具体例子:
# exportfs -au 卸载所有共享目录
# exportfs -rv 重新共享所有目录并输出详细信息
2、nfsstat
查看NFS的运行状态,对于调整NFS的运行有很大帮助。
3、rpcinfo
查看rpc执行信息,可以用于检测rpc运行情况的工具,利用rpcinfo -p 可以查看出RPC开启的端口所提供的程序有哪些。
4、showmount
-a 显示已经于客户端连接上的目录信息
-e IP或者hostname 显示此IP地址分享出来的目录
5、netstat
可以查看出nfs服务开启的端口,其中nfs 开启的是2049,portmap 开启的是111,其余则是rpc开启的。
最后注意两点,虽然通过权限设置可以让普通用户访问,但是挂载的时候默认情况下只有root可以去挂载,普通用户可以执行sudo。
NFS server 关机的时候一点要确保NFS服务关闭,没有客户端处于连接状态!通过showmount -a 可以查看,如果有的话用kill killall pkill 来结束,(-9 强制结束)
㈣ RedHat Linux磁盘分区有哪些
磁盘分区:磁盘有两种存储方式:基本磁盘存储和动态磁盘存储。基本磁盘存储在磁盘上创建主分区,扩展分区和逻辑分区。对分区进行管理。 动态磁盘存储创建动态卷。对卷进行管理。Redhat Linux 磁盘分区为主,扩展,逻辑分区。
㈤ Redhat XFS文件系统
XFS是一种高度可扩展和高性能文件系统,它支持创建16 exabytes超大文件系统,8 exabytes的文件和10亿个目录结构。
1) 主要功能:XFS支持 元数据日志功能(metadata journaling) ,有助于更快地崩溃恢复。XFS文件系统在挂载并处于活动状态时也可以进行 碎片整理和扩展 。 另外,红帽企业版Linux 6支持 XFS的备份和恢复 功能。
2) xfs具有以下功能:基于范围的分配(Extent-based allocation)、条带感知分配策略(Stripe-aware allocation policies)、延迟分配(Delayed allocation)和空间预分配(Space pre-allocation)。延迟分配和其他性能优化对XFS的影响与对ext4的影响相同。 除非随后调用fsync(),否则不能保证程序对XFS文件系统的写入。
使用mkfs.xfs /dev/device命令来创建XFS文件系统。在一个包含已有文件系统的块设备上,执行mkfs.xfs -f会强制重写文件系统。
一旦xfs文件系统被创建,文件的大小不会减小。还可以用xfs_growfs命令来增大空间。
对于条带块设备(例如RAID5阵列),在创建文件系统时可以指定条带几何形状。 使用适当的条带几何形状可以大大提高XFS文件系统的性能。
在LVM或MD卷上创建文件系统时,mkfs.xfs选择最佳geometry几何形状。 在某些geometry信息导出到操作系统的硬件RAID上,也可能是这样。
指定条纹geometry几何体,子参数如下:
su =值:指定条带单位或RAID块大小。 该值必须以字节为单位指定,后缀为k,m或g。
sw =值:指定RAID设备中的数据磁盘数或条带中的条带单元数。
以下示例在包含4个条带单元的RAID设备上指定64k的块大小:
#mkfs.xfs -d su=64k,sw=4 /dev/device
有关创建XFS文件系统的更多信息,请参考man mkfs.xfs。
一个XFS系统可以不带额外的参数进行挂载:# mount /dev/device /mount/point
XFS默认分配inode以反映其在磁盘上的位置。 但是,由于某些32位用户空间应用程序与大于65536*65536(2的32次方)的inode号不兼容,因此XFS会将所有inode分配到磁盘位置中,从而导致32位inode号。 这会导致大于2TB的文件系统性能下降,因为inode偏向块设备的开头,而数据偏向末尾。
为了解决此问题,可以带上inode64挂载参数。这个参数表示XFS在整个文件系统中分配inodes和数据,这将改善性能 # mount -o inode64 /dev/device /mount/point
默认情况下,即使启用了写缓存的设备断电,XFS也会使用写屏障来确保文件系统的完整性(By default, XFS uses write barriers to ensure file system integrity even when power is lost to a device with write caches enabled)。 对于没有写缓存或具有电池供电的写缓存的设备,请使用nobarrier选项禁用屏障:# mount -o nobarrier /dev/device /mount/point。 掉电丢失文件的解决方案又多一个:写保障。
写保障write barrier是一种内核机制,用于保证持久化卷上文件系统的metadata是正确的和有序的,即使易失性的存储设备断电。 文件系统开启写保障fsync(),保证数据通过。
启用写屏障write barriers会导致某些应用程序的性能大幅下降。 具体来说,大量使用fsync()或创建和删除许多小文件的应用程序运行速度可能会慢得多。
XFS配额子系统管理着磁盘空间(块)和文件(inode)使用的限制。 XFS配额从用户,组,目录或项目级别上进行控制或报告其使用情况。请注意,虽然启用了用户,组和目录或项目级别的配额,但组配额和项目配额是互斥的。
在按目录或按项目进行管理时,XFS管理着与某个项目关联的目录层次结构的磁盘使用情况。这样,XFS可以识别项目之间的跨组织“组”边界。这提供了比管理用户或组配额时更有效的控制级别。
XFS配额在挂载mount时启用,并带有的挂载参数。挂载参数可以指定为noenforce,xfs使用情况将不受任何限制。挂载时有效的配额:uquota/uqnoenforce-用户配额、gquota/gqnoenforce-组配额、pquota/pqnoenforce-项目配额
启用配额后,xfs_quota工具可以设置配额大小并报告磁盘使用情况。默认情况下,xfs_quota在基本模式下交互式运行的。基本模式子命令仅报告使用情况,并且对所有用户可用。基本模式的xfs_quota子命令包括:quota username/userID:显示给定用户名或数字用户标识的用法和限制。df:显示块和索引节点的可用和已用计数。
相反,xfs_quota也具有专家模式。此模式的子命令允许配置限制,并且仅对具有较高特权的用户可用。要交互使用专家模式子命令,请运行xfs_quota -x。专家模式子命令包括:report /path:报告特定文件系统的配额信息。limit:修改配额限制。
挂载的XFS文件系统使用xfs_growfs命令进行扩大# xfs_growfs /mount/point -D size
D size 选项将文件系统增加带指定大小,不带-D size选项则xfs_growfs将文件系统扩大到设备支持的最大值。
在使用-D参数扩大文件系统前要保证底层块设备后期有一个合理的大小。
注意:挂载点一旦扩大空间后无法缩回。
使用xfs_repair修复XFS文件系统,命令格式为# xfs_repair /dev/device
xfs_repair具有高度可伸缩性,旨在有效地修复拥有大量inode节点的大型文件系统。 与其他Linux文件系统不同,即使当XFS文件系统未完全卸载umount时,xfs_repair也不在引导时运行(does not run at boot time)。 即使卸载不干净,则xfs_repair只是在挂载时replays log来进行修复,以确保文件系统一致。
xfs_repair不能修复带有脏日志(dirty log)的xfs文件系统。挂载mount和卸载unmount xfs文件系统会清理日志。如果日志已损坏并且无法重播,请使用-L选项强制清除日志,即xfs_repair -L /dev/device。请注意这可能影响到进一步的损坏或数据丢失。
xfs_freeze对文件系统的写入活动进行暂停或恢复。暂停写入活动允许基于硬件设备快照用于捕获文件系统一致性状态。
xfs_freeze由只运行在x86_64的xfsprogs包提供。
暂停suspend (冻结freeze) xfs文件系统使用命令# xfs_freeze -f /mount/point
解冻xfs文件系统使用命令# xfs_freeze -u /mount/point
当做一个LVM快照时,没有必要先使用xfs_freeze来暂停文件系统。LVM管理工具会在取快照前自动暂停XFS文件系统。
xfs_freeze可以用于冻结或解冻一个ext3、ext4、GFS2、XFS和BTRFS文件系统,它们的语法都是一样的。
xfsmp和xfsrestore分别支持XFS文件系统备份和恢复。
为了支持增量备份(incremental backups ),xfsmp使用转储级别来确定特定转储相对的基本转储(xfsmp uses mp levels to determine a base mp to which a specific mp is relative)。
-l参数指定转储级别0-9。在文件系统上执行0级转储进行完整备份,命令为 # xfsmp -l 0 -f /dev/device /path/filesystem
-f参数指定备份的目标。
相反,一个增量备份仅将上次0级转储后更改的文件进行备份。 1级转储是完整转储后的第一个增量转储;下一个增量转储将是2级,依此类推,直到9级的最大值。执行1级转储到/dev/st0:# xfsmp -l 1 -f /dev/st0 /path/filesystem
xfsrestore从xfsmp产生的转储中还原文件系统。 xfsrestore具有两种模式:默认简单模式和累积模式。特定的转储由会话ID或会话标签标识,因此还原转储需要其相应的会话ID或标签。要显示所有转储(完整和增量)的会话ID和标签:#xfsrestore -I
xfsrestore简单模式(Simple Mode)
简单模式允许用户从0级转储还原整个文件系统。确定了0级转储的会话ID后执行恢复:# xfsrestore -f /dev/st0 -S session-ID /path/to/destination
-f参数指定转储的位置,而-S或-L参数指定待还原的特定转储,-S参数用于指定会话ID,而-L参数用于指定会话标签。-I选项显示每次转储的会话标签和ID。
xfsrestore累积模式(Cumulative Mode)
xfsrestore累积模式允许从特定的增量备份(从1级到9级)还原文件系统,添加-r参数# xfsrestore -f /dev/st0 -S session-ID -r /path/to/destination
互动操作Interactive
xfsrestore允许从转储中提取,添加或删除特定文件。使用-i参数,xfsrestore -f /dev/st0 -i
交互式对话将在xfsrestore完成读取指定设备之后开始。在对话框中的可用命令包括cd, ls, add, delete, and extract;使用help查看有关命令的完整列表。
RedHat Enterprise Linux6提供其他xfs功能
xfs_fsr :对已安装的XFS文件系统进行碎片整理。不带参数调用时,xfs_fsr对所有挂载的XFS文件系统的所有常规文件进行碎片整理。该程序允许用户挂起suspend指定时间的碎片整理,并从以后停止的地方resume恢复操作。此外,xfs_fsr仅允许对一个文件进行碎片整理,命令是xfs_fsr /path/to/file。红帽建议定期对整个文件系统进行碎片整理(Red Hat advises against periodically defragmenting an entire file system, as this is normally not warranted)。
xfs_bmap :打印XFS文件系统中文件使用的磁盘块映射。该地图列出了指定文件使用的每个范围以及文件中没有相应块的区域。
xfs_info :打印XFS文件系统信息。
xfs_admin :修改xfs文件系统中未挂载设备的参数。
xfs_ :将整个XFS文件系统的内容并行复制到一个或多个设备中。
下面程序是调试和分析XFS文件系统:
xfs_metamp :只能拷贝未挂载,只读和冻结或挂起的(unmounted, read-only, frozen/suspended)XFS文件系统的metadata到1个文件。否则挂载状态下拷贝会造成生成的转储可能已损坏或不一致。
xfs_mdrestore :将xfs_metamp生成的映像还原到文件系统映像。
Restores an XFS metamp image ( generated using xfs_metamp) to a file system image.
xfs_db :Debugs an XFS file system。
㈥ redhat的RHCS必须配置Fence设备吗
fence是RHCS的HA集群中预防集群出现脑裂之后节点争抢文件系统的一种手段。
红帽的HA集群中没有可用的fence设备(例如hp ilo,ibm ipmi,rsa以及dell drac5/6),那么当集群心跳线断开或者物理机宕机,则服务无法自动切换。使用手动fence的,当节点关机的时候服务是可切换的,但是当节点宕机或者断网,切换就不行了。必须要用fence_ack_manual去人工干预,而且这相当于用欺骗另外一个节点已经被fence掉,而不管对方是否真正被fence。所以从这个角度讲,没有fence,无法构建一个完整的RHCS HA集群。
而且如果使用没有fence设备的服务器或者环境去搭建RHCS HA集群的时候,红帽官方也不会对这种架构提供支持。
因此从上述角度说,fence设备是必须的。
现在常用的fence设备,除了上述提到的不同品牌服务器自带的之外,还有一些电源管理交换机,如WTI或者APC什么的。针对虚拟化场景,如果你的host使用的是RHEL,那么可以使用fence_xen或者fence_virsh(分别针对xen和kvm/xen架构),针对HOST是vmware esx的,可以使用fence_vmware_soap,不过操作系统必须是RHEL 5.8以及RHEL 6.1以上,另外某些环境新安可以使用存储fence,即通过阻塞光纤交换机的接口来起到禁止被fence的机器访问存储的效果,不过不能够做到自动化,阻塞的端口必须得手动打开。
㈦ redhat 怎么挂载20tb以上存储
升级e2fsprogs包到1.42.8以上,就能格式化16T以上的文件系统,挂载没什么特殊的
㈧ 的云存储系统,问下现在有什么比较常用的开源分布式
书生云于宣布将基于SAS架构的新一代开源分布式存储技术——SurFS开源。SurFS是书生云公司自主研发的分布式存储系统,是云平台的核心部件,在性能和成本两方面具有一定实力。书生云将具有自身知识产权的商业软件开源,对软件行业将带来哪些影响? 书生云董事长王东临 众所周知,开源软件技术领域较为知名的除了Android(安卓)、Linux、MySQL、OpenOffice、OpenStack等开源社区外,企业级领域软件开源的并不算多,但也能看到其中一些卓越领导者,比如知名开源软件企业 RedHat, RedHat的年收入甚至超过了20亿美元。 因此,书生云董事长王东临认为:“虽然在视核心技术商业机密的传统思维里,软件企业将自身拥有知识产权的软件的开源显得另类,但随着开源系统在全球的广泛普及,未来开源与商业也会得到完美结合,形成了“先奉献后收益”、“贡献越大收益越大”的格局。” 存储系统是云平台的核心部件,对云平台的整体性能和成本都有极大的影响。SurFS通过对存储网络的颠覆式创新,第一个采用SAS做存储网络构建分布式存储系统,将带宽提升了几十倍延时降低了几十倍,而且从架构体系上完全打破了传统存储体系的桎梏,将存储控制节点与存储介质分离,存储控制节点与计算节点聚合,从而将数据I/O路径压缩到了极致,将扩容成本也压缩到了极致,大幅提升了整个云平台的性能,同时还显着降低了成本,同时实现高性能、低成本、高可靠、高可用和可扩展性。对于正在向私有云迁移的广大企业级用户来说,SurFS的确有着很大的优越性。 笔者小结 书生云基于SAS存储网络构建的新一代开源分布式存储SurFS 开源后将成为OpenStack等主流云平台的存储后端之一,对于广大IT工程师和终端用户来说,更无异是一针强心剂,开源社区在得到完善管理的前提下,对于未来的存储技术及应用会有更加加速的发展。SurFS 开源将为全球企业级用户搭建高性价比的云平台,并为广大IT企业提供一个切磋、改善行业价值链的机遇的开源,基于SurFS技术的云平台有望成为全球云产业的主流部署模式之一。 当然,书生云的SurFS 开源仍然只是国内软件业的起步!无论是业务模式的探索还是开源后社区的维护,还需要时间及智慧来推进。
㈨ redhat6.0的比较
目前最新的版本是RedHat6.1.和以前的那些版本相比,RedHat6.0增加了很多功能。
高效率、可扩展性和可靠性
红帽企业版Linux 6支持更多的插座、内核、线程和内存空间。文件系统任务安排时间表的编排上更注重任务的运行时间、任务的轻重缓急等因素的综合考虑,利用硬件响应和多核拓扑结构优化系统任务的执行和资源分配。
红帽企业版Linux 6的文件系统默认是ext4(第四扩展文件系统),该版本更加健壮、规模可以拓展到16TB,还包含了可升级到100TB的XFS文件系统。其NFSv4 显着改进了NFSv3的不足,并且是向后兼容的。新的文件系统允许运行在用户空间中,并且用户还可以在基于FUSE 的新文件系统(例如云文件系统)上进行测试和开发。
在高可用性上,重新设计了基于Conga的Web接口,增加了额外的功能,使用起来更加容易。集群沟通管理系统Corosync技术也更加成熟、稳定和轻量级。改进后使用的KVM服务器虚拟机可以在物理和出现故障或者关机状态下管理服务。一个简单的集群指令就可以用来管理不同服务器的日志,并通过一致的格式来记录事件,具有更高的可读性。
在电源管理上,红帽企业版Linux 6的内核时钟新的设计技术,可以让系统处于最小系统消耗状态。尽可能的减少了I/O子系统的电源消耗。系统管理员还可以通过控制电流阀值来减少电源的消耗。此外,优化了实时设备的访问也帮助减少文件系统写元数据的能耗开销。
前所未有的资源管理
在系统资源的分配上,红帽企业版Linux 6的Cgroups 可以组织系统任务以便进行跟踪,并让其他系统服务可以控制 cgroup 任务可能消耗的资源(分区)。 两个用户空间工具 cgexec 和 cgclassify 提供 cgroup 的简单配置和管理功能。同时在cgroup上应用了内存资源控制器和网络资源控制器,以达到对内存资源和网络流量的**应用。
在存储上,红帽企业版Linux 6支持基于SAN的大型存储、自动I/O 校准和自我调整以及扩展了 SCSI 和 ATA 标准和 I/O 提示,允许自动调整和 I/O 校准。
红帽企业版Linux 6在联网功能上支持IPv6.多队列联网功能改进了处理并行性,让用户可以从多个处理器和 CPU 内核获得更好的性能。 对数据中心桥接的支持包括数据流量优先级和流量控制,以提高服务质量。此外针对数据流量优先级和流量控制,以提高服务质量。
稳定的应用程序开发与生产平台
在Web基础架构上主要改进了Apache、Squid和Memcached三个方面的改进,红帽企业版Linux 6支持Apache2.2版本,而Squid的主要是在可管理性和IPv6上性能支持。新版红帽支持Memcached 1.4.4,该版是一个高性能、高度可扩展、分布式、基于内存的对象缓存系统,大大提高了动态Web应用程序的速度。
在Java性能的支持上,红帽企业 Linux和OpenJDK的紧密集成包括在SystemTap 中支持Java 探测器,从而可支持更好的Java调试。我们都知道Tomcat6是运行在Java平台的开源和同类最佳应用服务器。通过支持Java Servlets和Java服务器页面 (JSP),Tomcat为开发和部署动态Web应用程序提供稳定可靠的环境。所以在红帽企业Linux也完善了Tomcat 6的支持。
此外,红帽企业Linux还在应用程序、数据库PostgreSQL 8.4.4、MySQL 5.1.47和MySQL 5.1.47上也做了多项的调整,在性能上有了大大的还进。
集成虚拟化
红帽企业 Linux主要是基于内核的虚拟化,将KVM 管理程序完全集成到内核中,因此所有 RHEL 系统的改善均有利于虚拟化环境。而且该应用程序环境对物理系统和虚拟系统都是一致的。这样用户就可以在主机之间轻松移动虚拟机由此带来的部署灵活性使管理 员可以在非高峰阶段将资源整合到更少的机器,或在维护停机时间释放硬件。
利用内核的硬件抽象使应用程序能够独立于底层硬件从物理环境转移到虚拟化环境。提高了CPU 和内存可扩展性使每个服务器可容纳更多虚拟机。虚拟技术采用了先进的办虚拟化接口,包括时钟(由空循环内核支持)、中断控制器、自旋锁子系统和 vmchannel 等非传统设备。
企业可管理性
红帽企业Linux 6的安装选项已重新整理为“工作负载配置文件”,使每个系统安装都能向特定任务提供合适的软件。基于标准的 Linux可管理性规范(SBLIM)使用基于Web的企业管理(WBEM)来管理系统。用Dracut取代了mkinitrd,最大限度地减少底层硬件改变的影响,更易于维护,并使支持第三方驱动程序更容易。
改进了打印技术的支持,使得打印机能及时发现来CUPS和system-config-printer的打印机配置服务。增加基于SNMP 的墨水和碳粉供应水平监控和打印机状态监控简化了监控功能,让用户可以有效地管理墨水和硒鼓库存。
此外,红帽企业Linux的Samba改进了包括支持 Windows 2008 R2信任关系:Windows cross-forest、传递信任和单向域信任。允许应用程序使用OpenChange来访问使用本地协议的Microsoft Exchange Server,允许Evolution等邮件客户端与 Exchange Server更紧密地集成。
㈩ 谁能简单讲讲redhat的发展史
1993年,Bob Young 成立了ACC公司,这是一家邮购公司,主要业务是出售Linux和Unix的软件附件。1994年,Marc Ewing 创建了自己的Linux发行版;
并将其命名为红帽Linux(Ewing在就读卡内基·梅隆大学期间曾经戴着一顶红色的康奈尔大学长曲棍球帽子,这是他的祖父赠送给他的)。Ewing于十月份发布了该软件,其被称为万圣节版本。
Young在1995年收购了Ewing的企业,两者合并成为红帽软件公司,由Young担任首席执行官 (CEO)。1999年8月11日,红帽公司上市,实现了华尔街历史上的第八大首日涨幅。Matthew Szulik 在当年12月接替Bob Young出任CEO。
1999年11月15日,红帽公司收购了CygnusSolutions公司。Cygnus公司的创始人之一MichaelTiemann成为红帽公司的首席技术官,并于2008年出任开源事务副总裁。
后来,红帽公司又收购了WireSpeed公司、C2Net公司以及Hell'sKitchen Systems公司。
2000年2月,InfoWorld 连续第四年将其年度操作系统产品奖”授予红帽Linux 6.1。2001年,红帽公司收购了PlanningTechnologies公司,并于2004年收购了AOL的 iPlanet目录和证书服务器软件。
2002年2月,红帽公司将其总部从Durham迁移至北卡罗来纳州罗利市北卡罗莱纳州立大学的Centennial校区。次月,红帽公司推出了红帽 Linux高级服务器,后来改名为红帽企业版Linux (RHEL)。Dell、IBM、HP以及 Oracle 公司均宣布支持该平台。
2005年12月,《CIO Insight》(CIO洞察)杂志举办了其年度“厂商价值调查。”在该调查中,红帽公司连续第二年位居第一。2005年12月19日,红帽公司的股票进入NASDAQ-100成分股。
2006年6月5日,红帽公司收购了开源中间件供应商JBoss公司,后者成为红帽公司的一个部门。2006年9月18日,红帽公司发布了红帽应用栈(Red Hat Application Stack),其集成了JBoss技术,并通过了其他知名软件厂商的认证 。
2006年12月12日,红帽公司的股票交易从NASDAQ (RHAT) 转移至纽约证券交易所(RHT)。2007年,红帽公司收购了MetaMatrix,并与Exadel达成协议分发其软件。
2007年3月15日,红帽公司发布了红帽企业Linux5,并在六月份收购了Mobicents。2008年3月13日,红帽公司收购了Amentra,这是一家系统集成服务供应商,提供服务导向型架构、业务流程管理、系统开发以及企业数据服务。Amentra作为一家独立公司开展运作。
2009年7月27日,红帽公司取代CIT集团成为标准普尔500指数成分股,该指数是反映美国经济状况的500家领先企业的多元化指数。
2009年12月15日,有报道称红帽公司将支付880万美元和解与其2004年7月以来财务业绩重述相关的一桩集体诉讼案。该诉讼已经在等候美国北卡罗莱纳州地方法院的判决。红帽公司达成了建议的和解协议,并在11月30日结束的季度中入账一次性费用880万美元。
2011年1月10日,红帽公司宣布将分两个阶段扩大其总部,为罗利市的运营部门增加540名员工,并投资超过1.09亿美元。北卡罗莱纳州将提供高达1500万美元的激励。第二个阶段涉及到“进军新的技术领域,例如软件可视化以及技术云计算产品。”
2011年8月25日,红帽公司宣布将其约600名员工从北卡罗来纳州立大学Centennial校区迁移至市中心的Two Progress Plaza(两个进度广场)。2013年6月24日,在重新挂牌的红帽公司总部举行了隆重的剪彩仪式。
在2012年,红帽成为首家收入达到十亿美元的开源公司,该年的年收入达到11.3亿美元。2012年6月27日,红帽公司宣布从应用软件厂商Progress Software那里收购FuseSource。红帽公司此次收购FuseSource是为了“加快向企业用户提供应用集成产品服务的步伐”。
2014年1月7日,红帽公司收购CentOSProject。
2014年4月30日,红帽公司以1.75亿美元的价格将Ceph的企业级产品提供商Inktank收入囊中,已将Inktank的存储产品整合在其基于GlusterFS(红帽在2011年10月份斥资1.36亿美元收购Gluster)的存储产品中。
此次收购后,红帽或将成为最大的开源存储产品提供商,包括对象存储、块存储和文件存储。
2014年6月18日,红帽公司收购开源云计算服务提供商eNovance。eNovance的优势在于系统集成能力和工程人才,加上红帽在OpenStack领域的投入,两者的联合将满足企业对OpenStack咨询、设计及部署的更多需求。
2014年9月18日,红帽公司收购领先的企业移动应用平台提供商FeedHenry。FeedHenry将进一步扩展红帽的应用开发与集成、以及PaaS解决方案产品系列,帮助红帽推进公有和私有环境中的移动应用开发。2018年10月29日早晨,IBM宣布以340亿美元的价格收购Red Hat。
(10)redhat分布式存储扩展阅读:
红帽JBoss中间件通过提供快速构建将人员、流程和信息连接在一起的系统所需的工具,来帮助组织发展其中间件基础架构。红帽JBoss中间件主要产品有红帽JBoss企业应用平台、JBoss Web服务器、JBoss 数据网格、JBoss 开发人员工作室、
JBoss门户、JBoss运营网络,JBoss Fuse (企业服务总线-ESB),JBoss A-MQ(消息中间件)、JBoss数据虚拟化、JBoss Fuse Service Works、JBoss BRMS,JBoss BPM套件等。