容错服务器技术:确保大型网站不会出现故障 (还得容错服务器技术)

随着互联网的不断发展,越来越多的人开始依赖互联网上的各种服务。从在线购物、在线支付到在线教育,各种服务都需要借助网站进行提供。这些网站必须始终保持运行,如果出现故障,将会带来严重的后果。因此,容错服务器技术被越来越多的大型网站采用,以确保网站始终运行顺畅。

容错服务器是什么?

容错服务器技术是一种特殊的技术,可以确保当一个服务器发生故障时,其他服务器可以接管它的工作。这意味着,即使其中一个服务器出现故障,网站也可以始终在线。常见的容错服务器技术包括镜像、负载均衡和冗余服务器。

镜像是指将一个网站的所有数据完全复制到另一个物理位置的服务器上。如果一个服务器出现故障,另一个服务器可以接管它的工作。镜像通常用于存储静态内容,如图片、CSS、JavaScript、音频和视频等。这些内容只需要保持相同,而不需要与其他数据同步。

负载均衡是指将网站的流量分配到多个服务器上,以确保所有服务器都能够平均分摊压力。通过负载均衡,网站可以轻松承受高流量峰值,保持流畅的运行。通常情况下,负载均衡器还会进行健康检查,以确保所有服务器都能够正常工作。

冗余服务器是指备份服务器,通常会将数据复制到多个不同位置的服务器上。如果一个服务器出现故障,备用服务器可以接管它的工作。备用服务器通常保持睡眠状态,但当主服务器出现故障时,它会自动唤醒。

为什么大型网站需要容错服务器

在大型网站中,服务器的负载非常大。许多用户需要同时访问网站,从而导致服务器的压力非常大。如果其中一个服务器出现故障,整个网站将会崩溃。这对于大型网站来说是无法承受的。

如果大型网站采用容错服务器技术,任何一个服务器出现故障时,其他服务器都可以保持运行。这意味着,网站可以减少停机时间,减少损失和用户满意度的下降。容错服务器技术还能确保网站的可靠性和稳定性,增加用户的信任和忠诚度。

如果网站采用容错服务器技术,将能够克服很多其他技术无法克服的问题。例如,如果网站的主服务器无法正常工作,备用服务器可以接管它的工作,确保网站的运行不受影响。如果主服务器再次正常工作,备用服务器也可以重新转入睡眠状态。

容错服务器技术的挑战

虽然容错服务器技术对于大型网站来说非常重要,但它也面临着许多挑战。例如,容错服务器需要更多的资金和资源,这意味着网站需要投入更多的资源来确保其可靠性和稳定性。此外,容错服务器技术需要更多的维护和管理,这意味着网站需要雇佣更多的IT专业人员来操作和管理。

容错服务器技术还需要更多的空间和设施,这意味着网站需要大型的数据中心来存储服务器和设备。此外,容错服务器技术还需要更高的能源消耗,例如,备用服务器需要在睡眠状态下消耗一定的能量。

结论

容错服务器技术是大型网站确保其可靠性和稳定性的关键技术。容错服务器技术可以确保当一个服务器发生故障时,其他服务器可以接管它的工作。尽管容错服务器技术面临着挑战,但在现代互联网时代中,大型网站必须采用容错服务器技术来确保其可靠性和稳定性。

相关问题拓展阅读:

容错系统与冗余系统的区别?(机房综合布线)

容错简单地来说,就是肢罩银发出错误的指令,经过系统自行纠错之后执行正确的指令。

冗余在数据中心内一般指网络冗闷袭余和电力冗余,网络冗余一般采用两家以上的网络服务提供商,保证在一家网络断路时,数据中心还能继续运行。电力冗余一般国内是两路市电,或一路市电历宴加一路柴油发电机组。保证电力的正常供应。

冗余:

定义:指重复配置系统的一些部件,当系统发生故障时,冗余配置的部件介入并承担故障部件的工作,由此减少系统的故障时间。通常指通过多重备份来增加系统的可靠性

常见冗余系统配件有:

 电源:高端服务器产品中普通采用双电源系统,这两个电源是负载均衡的,即在系统工作时它们都为系统提供电力,当一个电源出现故障时,另一个电源就承担所有的负载。有些服务器系统实现了DC的冗余,另一些服务器产品如 Micron公司的NetFRAME 9000实现了AC、DC的全冗余。

 存储子系统:存储子系统是整个服务器系统中最容易发生故障的地方。以下几种方法可以实现该系统的冗余。

  磁盘镜像:将相同的数据分别写入两个磁盘中:

  磁盘双联:为镜像磁盘增加了一个I/O控制器,就形成了磁盘双联,使总线争用情况得到改善;

 RAID:廉价冗余磁盘阵列(Redundant array of inexpensive disks)的缩写。顾名思义,它由几个磁盘组成,通过一个控制器协调运动机制使单个数据流依次写入这几个磁盘中。RAID3系统由5个磁盘构成,其中4 个磁盘存储数据,1个磁盘存储校验信息。如果一个磁盘发生故障,可以在线更换故障盘,并通过另3个磁盘和校验盘重新创建新盘上的数据。RAID5将校验信息分布在5个磁盘上,这样可更换任一磁盘,其余与RAID3相同。

 I/O卡:对服务器来说,主要指网卡和硬盘控制卡的冗余。网卡冗余是在服务器中插上双网卡。冗余网卡技术原为大型机及中型机上的技术,现在也逐渐被PC服务器所拥有。PC服务器如 Micron公司的NetFRAME9200最多实现4个网卡的冗余,这4个网卡各承担25%的网络流量。康柏公司的所有 ProSignia/Proliant服务器都具有容错冗余双网卡。

 PCI总线:代表Micron公司更高技术水平的产品NetFRAME 9200采用三重对等PCI技术,优化PCI总线的带宽,提升硬盘、网卡等高速设备的数据传输速度。

 CPU:系统中主处理器并不会经常出现故障,但对称多处理器(P)能让多个CPU分担工作以提供某种程度的容错。

容错:

容错是用冗余的资源使计算机具有容忍故障的能力,即在产生故障的情况下,仍有能力将指定的算法继续完成。

容错的基本思想首先来自于硬件容错,年,硬件容错在理论和应用上都有重大的发展,目前已成为一种成熟的技术并应用到实际系统中,如双CPU,双电源等,军事上出现了容错计算机;软件容错的基本思想是从硬件容错中引伸过来的,70年代中期开始认识到软件容错的潜在作用;数据容错的策略即数据备份;网络容错将硬件容错和软件容错两方面的技术融合在一起并有新的发展。

容错技术是指在一定程度上容忍故障的技术,也称为故障掩盖技术(fault masking)。采用容错技术的系统称容错系统。

容错主要依靠冗余设计来实现,它以增加资源的办法换取可靠性。由于资源的不同,冗余技术分为硬件冗余、软件冗余、时间冗余和信息冗余。

硬件冗余是通过硬件的重复使用来获得容错能力。

软件冗余的基本思想是用多个不同软件执行同一功能,利用软件设计差异来实现容错。

信息冗余是利用在数据中外加的一部分信息位来检测或纠正信息在运算或传输中的错误而达到容错。在通信和计算机系统中,常用的可靠性编码包括:奇偶校验码、循环冗余码CRC、汉明码等。

时间冗余是通过消耗时间资源来实现容错,其基本思想是重复运算以检测故障。按照重复运算是在指令级还是程序级分为指令复执程序复算。指令复执当指令执行的结果送到目的地址中,如果这时有错误恢复请求信号,则重新执行该指令。程序复算常用程序滚回技术。例如将机器运行的某一时刻称作检查点,此时检查系统运行带蠢的状态是否正确,不论正确与否,都将这一状态存储起来,一旦发现运行故障,就返回到最近一次正确的检查点重新运行。

冗余设巧郑计可以是元器件级的冗余设计,也可以是部件级的、分系统级的、或系统级的冗余设计。冗余要消耗资源,应当在可靠性与资源消耗之间进行权衡和折衷。

容错系统工作过程包括自动侦测、自动切换、自动恢复。

(1)自动侦测(Auto-Detect)

运行中自动地通过专用的冗余侦测线路和软件判断系统运行情况,检测冗余系统各冗余单元是否存在故障(包括硬件单元蠢宽陪或软件单元),发现可能的错误和故障,进行判断与分析。确认主机出错后,启动后备系统。

侦测程序需要检查主机硬件(处理器与外设部件)、主机网络、操作系统、数据库、重要应用程序、外部存储子系统(如磁盘阵列)等。

为了保证侦测的正确性,防止错误判断,系统可以设置安全侦测时间、侦测时间间隔、侦测次数等安全系数,通过冗余通信连线,收集并记录这些数据,作出分析处理。

数据可信是切换的基础。

(2)自动切换(Auto-Switch)

当确认某一主机出错时,正常主机除了保证自身原来的任务继续运行外,将根据各种不同的容错后备模式,接管预先设定的后备作业程序,进行后续程序及服务。

系统的接管工作包括文件系统、数据库、系统环境(操作系统平台)、网络地址和应用程序等。

如果不能确定系统出错,容错监控中心通过与管理者交互,进行有效的处理,决定切换基础、条件、时延、断点。

(3)自动恢复(Auto-Recovery)

故障主机被替换后,进行故障隔离,离线进行故障修复。修复后通过冗余通信线与正常主机连线,继而将原来的工作程序和磁盘上的数据自动切换回修复完成的主机上。这个自动完成的恢复过程用户可以预先设置,也可以设置为半自动或不恢复。

例如网络容错。线作为数据专线的备份,服务器采用双机磁盘镜像、双网卡方式实现双网络备份。应用具有容错功能的网络设备,如3COM的交换机,CISCO的路由器,MOTORLA的调制解调器等都具有容错功能。

什么是系统容错?

双机容错系统方案

一,双机容错系统方案综述

1.1 久强世纪 Storage Solution 双机容错系统

近年来,随着计算机技术的飞速发展,服务器的性能有了大幅度的提升,服务器作为处理关键性事物

的业务主机已随处可见.对于要求有高可用性和高安全性的系统,比如金融,邮电,交通,石油,电力,

保险证券等行业,用户提出了系统容错的要求.久强世纪公司推出基于Cluster集群技术的双机互备援解

决方案,包括用于对双服务器实行监控的HA 容错软件和作为数据存储设备的系列磁盘阵列系统.通过软亮亩咐

硬件两部分的紧密配合,提供给客户一套具有单点故障容错能力,且性价比优越的用户应用系统运行平台.

1.2 Cluster集群技术

Cluster集群技术:一组相互独立的服务器在网络中表现为单一系统,并以单一系统的模式加以管理.

此单一系统为客户工作站提供高可靠性的服务.

Cluster大多数模式下,集群中所有的计算机拥有一个共同的名称,集群内任一系统上运行的服务可

被所有的网络客户所使用.Cluster必须可以协调管理各分离的组件的错误和失败,并可透明的向Cluster

中加入组件.

一个Cluster包含多台(至少二台)拥有共享数据储存空间的服务器.任何一台服务器运行一个应用

时,应用数据被存储在共享的数据空间内.每台服务器的操作系统和应用程序文件存储在其各自的本地储

存空间上.

Cluster内各节点敬纯服务器通过一内部局域网相互通讯.当一台节点服务器发生故障时,这台服务器上

所运行的应耐帆用程序将在另一节点服务器上被自动接管.当一个应用服务发生故障时,应用服务将被重新启

动或被另一台服务器接管.当以上任一故障发生时,客户将能很快连接到新的应用服务上.

1.3久强世纪 Storage Solution 双机容错系统方案

Cluster集群可由N台服务器组成,当Cluster最小值N=2时,即为双机容错集群系统.

久强世纪Cluster双机容错系统结合了磁盘阵列产品的安全可靠性与HA监控软件技术的优点,将二

者的优势相互配合.使用软件与磁盘阵列结合的方案,可以有效提高主机工作效率,减轻服务器和网络设

备压力,保证系统稳定性.

二,系统概述

2.1 功能概述

·如果硬盘发生故障时,磁盘阵列柜会有蜂鸣声告警,同时硬盘架面板上的状态指示灯变成红色(正

常时为绿色),以便提醒用户进行及时有效的维护

·独特的硬盘保护环路设计,可以确保故障硬盘插拔时,即刻隔断与SCSI总线的连接,而不会影响

SCSI总线上的信号

·即时响应: 控制器在硬盘发生故障时即刻识别错误信息

·支持环境监控(当机箱内温度过高时会有蜂鸣告警声)

·冗余电源备份(支持热插拔)

·热插拔风扇

·系统安全密码锁定

·当柜门关闭时,仍可观察到控制器及硬盘工作状态

·支持不同品牌,容量,型号的SCSI硬盘

2.2 阵列柜结构

AccuSTOR S940阵列柜的组成包括RAID控制器,双电源保护装置,支持热插拔的硬盘盒(Mobile Rack)

等,大部分部件具有冗余能力,可以全面保护硬盘和数据的安全.

AccuSTOR S940的RAID控制器使用64-bit RISC处理器,基本缓存(CACHE)为64MB, 控制器提供4个

通道(Channel),其中两个为主机通道(Host Channel),2个为设备通道(Disk Channel),可同时接驳8块

硬盘,更大RAID5容量为7X146GB=1.02TB.

在控制器中,可以方便的给设置0,1,3,5,0+1级的RAID组.控制器带有Monitor接口,用户可

以通过该接口使用终端或终端仿真程序进行设置,可以对控制器的BIOS程序进行升级.

在阵列柜的顶部预留一个插槽,用户可以选装一个备份RAID控制器,以提高系统的可靠性.

AccuSTOR S940或内部与SCSI硬盘的接口是采用SCA-2规格的整体式后背板,可以直接使用80Pin

热插拔硬盘,配备转换口后,也可使用80Pin Ultra2/Ultra160硬盘.每一硬盘插槽配有隔绝保护IC,以

消除硬盘在热插时的电流负效应,避免瞬间电流造成对硬盘或控制器的损害.

AccuSTOR S940阵列柜安装双份热插拔电源,每个电源的功率300W,通过调整电压开关该电源可以在

110/220V电压下工作.

正常情况下,双电源在Share状态工作,各输出150W功率,保证电源的使用寿命.如果其中一只电

源发生故障,另一电源将自动转换到300W 输出功率状态,使阵列继续正常运转.同时系统将通过液晶屏

幕和蜂鸣方式发出警报,用户可以将损坏的电源直接拔除,而不必关闭阵列.

机箱后背板上装有四个热插拔冷却风扇,风扇的启动温度和转速受ENC控制,用户可以通过ENC上的

DIP开关进行设定.所有风扇均采用德国标准的三钢珠结构,使其使用寿命大大延长.

阵列柜中安置有8个硬盘盒,可以接驳80针Ultra2/Ultra160 SCSI硬盘和SCA硬盘,普通硬盘接入

阵列后,即支持热插拔功能.Mobile Rack可自动为硬盘设置ID,前面板上有指示灯,可以显示硬盘的工

作状态.

阵列柜后面板上装有HOST-A,HOST-B接口各两个,用来接驳主机.Monitor口可接至终端或PC机,

用来进行阵列的设置.Modem口可以接驳调制解调器,用于传真和Pager方式的远程报警.UPS口可连接

UPS电源,当断电时UPS系统会送出一PowerFail信号到此UPS接口上,此时磁盘阵列控制器会即刻将缓

存(Cache)的资料完整地写入磁盘中,并关闭缓存,如服务器再有资料传来则会直接写入硬盘内,直到电

源恢复正常.两个设备通道接口配备终结器,用户可以串联机柜或其他SCSI设备.

2.3 双机容错系统软件 HA

久强世纪 Storage Solution双机容错系统解决方案提供专用双机软件:HA.

HA For NT 作为目前市场上最为成熟的双机容错软件,以其友好图形操作界面,方便的配置与管理被

广泛应用于,学校,电信,电力,石油,交通等行业.

通过装在两个服务器中的双机热备份应用软件HA,系统具有在线容错能力,即当处于工作状态的服

务器无法正常工作时,通过双机系统容错软件,使处于守候监护状态的另一台服务器迅速接管不正常服务

器上的业务程序及数据资料,使得网络用户的业务交易正常运行,保证交易数据的完整一致性及交易业务

的高可靠性.

通过架设与两台服务器间的侦测网络,HA for NT软件能够对两台服务器的软硬件运行状态实行监控.

HA For NT具有两种工作模式:

Hot Standby:即双机热备份,两台服务器为生产机–备份机关系.当生产机发生故障时,备份机自

动接管生产机的任务和数据,使拥护业务交易正常运行.使用者可在最短时间内回复作业,使客户的应用

不必中断,减少主机停机所造成的损失.

Daul Active:即双机互备援.两台服务器各运行不同的应用任务,并互相作为备份机.当两部主机

中任一主机当机时,另一部主机可迅速接替故障主机任务.

三,系统整合

久强世纪 Storage solution双机容错系统是由HA容错软件与磁盘阵列有机组合的成熟方案.整个

系统的组合架构工作包括三个方面:

1)硬件系统的连接

2)容错软件的安装和配置

3)与用户应用的整合

3.1 硬件系统的连接

硬件部分的连接主要包括磁盘阵列与主机的连接和侦测网络的连接.

用户可以将支持多主机的磁盘阵列系统分别连接至两台服务器的SCSI接口. 磁盘阵列系统提供两条

标准68Pin外接SCSI电缆,可与任何服务器的Ultra 3 SCSI接口接驳.用户不需要在服务器上增加任何

硬件设备或驱动程序.磁盘阵列连接至主机后,用户可以象增加普通硬盘那样对其进行分区,格式化,安

装文件系统等操作.

HA for NT可使用三种侦测网络.

RS232线路:只需使用软件附带的专用电缆将两台服务器的串口连接即可;

TCP/IP:使用直连网线或通过交换设备(Switch或Hub)连接两台服务器的网卡;

Share Disk:在磁盘阵列柜上设置双主机共享的8MB分区;

以上三种侦测网络可同时使用,互为备份,有利于提高双机系统的可靠性.

3.2 容错软件的安装和配置

HA容错软件的安装简单快捷.整个安装过程中,用户不需要进行繁琐的安装选择,或更改服务器硬

件配备或操作系统设定与容错软件配合.

HA for NT具有友好图形用户界面(GUI),使容错软件的配置管理成为轻松的工作.

3.3 与用户应用的整合

久强世纪 Storage solution双机容错控制系统能够提供具有相当容错能力的应用系统平台.它既可

以同所有大型数据库配合使用,也可监管用户自主开发的应用软件.在与容错系统整合时,只需将数据库

系统分别在两台服务器安装,并将数据文件放置于共享的磁盘阵列即可,而不需要对应用程序进行任何更

改.

云存储怎么更好实现容错

云存储系统具有良好的可扩展性、容错性,以及内部实现对用户透明等特性,这一切都离不开分布式文件系统的支撑。现有的云存储分布式文件系统包括GFS、HDFS、Lustre、FastDFS、PVFS、GPFS、PFS、Ceph和TFS等。它们的许多设计理念类似,同时也各有特色。下面对现有的分布式文件系统进行详细介绍。

1 Google File System (GFS)

GFS是一个可扩展的分布式文件系统,其主要用于处理大的分布式数据密集型应用。GFS的一大特色就是其运行于大量普通的廉价硬件上,通过GFS文件系统提供容错功能,并给大量用户提供可处理海量数据的高性能服务。和传统标准相比,GFS文件规模巨大,其主要用来处理大文件。此外,GFS大多通过直接追加新数据来改变文件,而非覆盖现有数据,一旦数据写入完成,文件就仅支持读操作。

2 Lustre文件系统

Lustre文件系统磨迹旅是一种典型的基于对象存储技术 的分布式文件系统, 目前,该文件系统已经广泛用于国外许多高性能计算机构,如美国能源部、Sandia国家实验室、Pacific Northwest国家实验室等。Top500机器中有多台均采用的是Lustre文件系统。

Lustre文件系统的大文件性能良好 ,其通过基于对象的数据存储格式,将同一数据文件分为若干个对象分别存储于不同的对象存储设备。大文件I/O操作被分配到不同的对象存储设备上并行实施,从而实现很大的聚合带宽。此外,由于Lustre融合了传统分布式文件系统的特色和传统共享存储文件系统的设计理念,因此其具有更加有效的数据管理机制、全局数据共享、基于对象存储、存储智能化,以及可快速部署等一系列优点。尽管如此,由于Lustre采用分布式存储结构将元数据和数据文件分开存储,访问数据之前需要先访问元数据服务器,这一过程增加了网络开销,从而使得Lustre的小文件I/O操作性能较差。

3 FastDFS文件系统

FastDFS是一个轻量级分布式文件系统,其体系架构如图3所示,整个文件系统由客户端(Cli—ent)、跟踪器(Tracker)和存储节点(Storage)三部分组成。系统服务端有Tracker和Storage两个角色,Tracker用来负责作业的调度和负载均衡,Storage则用于存储文件,并负责管理文件。为支持大容量的数据存储,Storage采用分卷或分组的数据组织方式;存储系统可由一个或多个卷组成,一个卷可以由一台或多台存储服务器构建。同一个卷下的多台存储服务器中的数据文件都是相同的,卷与卷之间的文件则相互独立,通过这州迅种数据组织方式,可以很好地实现数据冗余备份以及系统负载均衡的目的。

图 FastDFS文件系统体系结构示意图

4 Parallel Virtual File System (PVFS)

由Clemson大学设计并成功开发的PVFS是一种构建在Linux操作系统之上的开源并行虚拟文件系统。PVFS基于传统的C/S架构进行设计,整个文件系统由管理结点、计算结点和I/0结点三大部分组成,管理结点负责处理文件的元数据,计算节点用来执行各种计算任务,I/0结点则主要负责数据文件的存储和读写,并负责给计算结点提供所需的数据。在整个集群系统范围内,PVFS使用一致的全局命名空间,另外,PVFS应用对象存储的概念,将数据文件条块化为多个对象并分别存储到多个存储结点上。由于在网络通信方面,PVFS只支持TCP网络通信协议,这使得其灵活性不足;此外,由于PVFS应用对象存储的概念进行数据文件的存储,其在处理小文件时性能也不太理想。

5 General Parallel File System (GPFS)

GPFS的前身是Tiger Shark多媒体文件系统,其是IBM专为Linux集群系统设计的并行共享文件系统。在系统结构上,GPFS主要借鉴了IBM Linux集群系统中的虚拟共享磁盘技术,计算节点可以通过使用交换网络来同时并行访问系统中多个磁盘中的数据,并依赖这一访问方式来实现较高的I/O带宽。GPFS的主要特点包括:通过循环的方式将大文件存储在不同的磁盘上瞎凳,同时通过合并操作来处理小文件的读写,使用动态选举的元数据结点来管理元数据;此外,GPFS还具有基于日志的失效节点的自动恢复策略以及集中式的数据锁机制。

6 Parallel File System (PFS)

Sun公司的PFS分布式文件系统可以很好地支持高性能和可扩展的I/O操作,其主要设计思想是将文件分布在多个磁盘和服务器上,并将存放文件的多个设备逻辑上看成一个虚拟磁盘来统一管理。很显然,PFS可以同时跨越多个存储系统,可以将整个PFS中的所有存储设备都看成是这个虚拟磁盘的一部分;当有多个节点同时访问同一文件时,PFS可以并行地为这些节点提供访问服务。PFS分布式文件系统构建于Solaris操作系统之上,主要包括宿主节点、计算节点、I/O从属节点和I/O主机节点。宿主节点是PFS提供给其它系统的人口,只有成功登录到宿主节点的用户才是合法的,才可以访问PFS内部的数据文件。计算节点主要用来管理PFS系统的通信和内存资源。L/O主机节点则主要负责文件系统的目录管理和存储块管理,同时为存储数据文件提供读写服务。I/O从属节点仅用来处理磁盘的读写操作和空白块的分配工作。

7 Ceph云存储文件系统

Ceph是Califomia大学Santa Cruz分校的Sage Weil设计的一种云存储分布式文件系统。Ceph云存储文件系统的主要目标是设计基于POSIX的无节点故障分布式文件系统,并且数据文件具有容错和无缝复制功能。Ceph文件系统具有三大特点,首先,其使用多个元数据服务器来构建系统的命名空间,这显著强化了元数据服务器的并发访问功能;其次,在元数据服务器上,Ceph文件系统采用了动态的子树划分技术,并支持元数据服务器的负载迁移,可以很好地实现元数据的负载均衡;最后,Ceph文件系统提供基于对象存储设备的对象文件系统,并将数据文件作为一个存储对象来对待,这有效地提高了数据文件的读写效率。

8 Taobao File System (TFS)

Taobao file system (TFS)是由淘宝开发的云存储文件系统,其主要面向海量非结构化数据存储问题提供服务。TFS部署在普通的Linux集群上,为淘宝网提供高可靠、高并发的大量小文件数据存储服务。TFS采用扁平化的数据组织结构将文件名映射到文件的物理地址,简化了文件访问流程,一定程度上优化了系统读写性能。

一个TFS集群由两个NameServer节点和多个DataServer节点组成,TFS的服务程序都是作为一个用户级的程序运行在普通Linux机器上。TFS将众多的小文件合并成大文件,并称这个大文件为Block,Block存储在DataServer上,每个Block在TFS系统内均拥有唯一的Id号。NameServer负责维护block与DataServer之间的映射关系。NameServer采用HA结构,即双机互为热备份,来实现容灾功能,两台NameServer同时运行,其中一台为主节点,另外一台作为备用节点。当主NameServer节点出现故障后,迅速将备份NameServer切换为主节点并对外提供服务。

还得容错服务器技术的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于还得容错服务器技术,容错服务器技术:确保大型网站不会出现故障,容错系统与冗余系统的区别?(机房综合布线),什么是系统容错?,云存储怎么更好实现容错的信息别忘了在本站进行查找喔。


数据运维技术 » 容错服务器技术:确保大型网站不会出现故障 (还得容错服务器技术)