fastdfs介绍与工作原理

来源:互联网 发布:烟袋斜街10号 网络剧9 编辑:程序博客网 时间:2024/06/14 13:04
FastDFS是一个开源的轻量级分布式文件系统,由
跟踪服务器(tracker server)
存储服务器(storage server)
客户端(client)

三个部分组成,主要解决了海量数据存储问题,特别适合以中小文件(建议范围:4KB < file_size <500MB)为载体的在线服务。

如下图所示是fastdfs的一个结群架构图:

特点:

1 轻量级

2 分布式,高可用

3 完全对等的

====================================================================================================================================

Storage server

Storageserver(后简称storage)以组(卷,groupvolume)为单位组织,

一个group内包含多台storage机器,数据互为备份,存储空间以group内容量最小的storage为准,

建议group内的多个storage尽量配置相同,以免造成存储空间的浪费。


group为单位组织存储能方便的进行应用隔离、负载均衡、副本数定制(groupstorageserver数量即为该group的副本数),

将不同应用数据存到不同的group就能隔离应用数据,同时还可根据应用的访问特性来将应用分配到不同group来做负载均衡;

缺点是group的容量受单机存储容量的限制,同时当group内有机器坏掉时,数据恢复只能依赖group内地其他机器,使得恢复时间会很长。

group内每个storage的存储依赖于本地文件系统,storage可配置多个数据存储目录,比如有10块磁盘,分别挂载在/data/disk1-/data/disk10,则可将这10个目录都配置为storage的数据存储目录。

storage接受到写文件请求时,会根据配置好的规则(后面会介绍),选择其中一个存储目录来存储文件。为了避免单个目录下的文件数太多,在 storage第一次启动时,会在每个数据存储目录里创建2级子目录,每级256个,总共65536个文件,新写的文件会以hash的方式被路由到其中某个子目录下,然后将文件数据直接作为一个本地文件存储到该目录中。

====================================================================================================================================

Tracker server

TrackerFastDFS的协调者,负责管理所有的storage servergroup,每个storage在启动后会连接Tracker,告知自己所属的group等信息,

并保持周期性的心跳,tracker根据storage的心跳信息,建立group==>[storage server list]的映射表。


Tracker需要管理的元信息很少,会全部存储在内存中;另外tracker上的元信息都是由storage汇报的信息生成的,本身不需要持久化任何数据,

这样使得tracker非常容易扩展,直接增加tracker机器即可扩展为tracker cluster来服务,

cluster里每个tracker之间是完全对等的,所有的tracker都接受stroage的心跳信息,生成元数据信息来提供读写服务

====================================================================================================================================

Upload file

FastDFS向使用者提供基本文件访问接口,比如uploaddownloadappenddelete等,以客户端库的方式提供给用户使用。


选择tracker server,当集群中不止一个tracker server时,由于tracker之间是完全对等的关系,客户端在upload文件时可以任意选择一个trakcer


选择存储的group, 当tracker接收到upload file的请求时,会为该文件分配一个可以存储该文件的group,支持如下选择group的规则:

1.Round robin,所有的group间轮询

2.Specified group,指定某一个确定的group

3.Load balance,剩余存储空间多多group优先


选择storage server 当选定group后,tracker会在group内选择一个storage server给客户端,支持如下选择storage的规则:

1.Round robin,在group内的所有storage间轮询

2.First server orderedby ip,按ip排序

3.First server orderedby priority,按优先级排序(优先级在storage上配置)


选择storage path,当分配好storage server后,客户端将向storage发送写文件请求,storage将会为文件分配一个数据存储目录,支持如下规则:

1.Round robin,多个存储目录间轮询

2.Load balance 剩余存储空间最多的优先


生成 Fileid 选定存储目录之后,storage会为文件生一个Fileid,由storage server ip、文件创建时间、文件大小、文件crc32和一个随机数拼接而成,然后将这个二进制串进行base64编码,转换为可打印的字符串。


选择两级目录,当选定存储目录之后,storage会为文件分配一个fileid,每个存储目录下有两级256*256的子目录,storage会按文件fileid进行两次hash(猜测),路由到其中一个子目录,然后将文件以fileid为文件名存储到该子目录下。


生成文件名,当文件存储到某个子目录后,即认为该文件存储成功,接下来会为该文件生成一个文件名,文件名由group、存储目录、两级子目录、fileid、文件后缀名(由客户端指定,主要用于区分文件类型)拼接而成。


==================================================================================================================================

文件同步:

写文件时,客户端将文件写至group内一个storage server即认为写文件成功,storage server写完文件后,

会由后台线程将文件同步至同group内其他的storage server


每个storage写文件后,同时会写一份binlogbinlog里不包含文件数据,只包含文件名等元信息,

这份binlog用于后台同步,storage会记录向group内其他storage同步的进度,以便重启后能接上次的进度继续同步;

进度以时间戳的方式进行记录,所以最好能保证集群内所有server的时钟保持同步


storage的同步进度会作为元数据的一部分汇报到tracker上,tracke在选择读storage的时候会以同步进度作为参考。

比如一个group内有ABC三个storageserverAC同步到进度为T1 (T1以前写的文件都已经同步到B上了),

BC同步到时间戳为T2T2> T1)tracker接收到这些同步进度信息时,就会进行整理,

将最小的那个做为C的同步时间戳,本例中T1即为C的同步时间戳为T1(即所有T1以前写的数据都已经同步到C上了);

同理,根据上述规则,tracker会为AB生成一个同步时间戳。

===================================================================================================================================

Download file

客户端uploadfile成功后,会拿到一个storage生成的文件名,接下来客户端根据这个文件名即可访问到该文件。


uploadfile一样,在download file时客户端可以选择任意tracker server

tracker发送download请求给某个tracker,必须带上文件名信息,tracke从文件名中解析出文件的group、大小、创建时间等信息,

然后为该请求选择一个storage用来服务读请求。由于group内的文件同步时在后台异步进行的,所以有可能出现在读到时候,

文件还没有同步到某storage server上,为了尽量避免访问到这样的storagetracker按照如下规则选择group内可读的storage

1.该文件上传到的源头storage -源头storage只要存活着,肯定包含这个文件,源头的地址被编码在文件名中。

2.文件创建时间戳==storage被同步到的时间戳且(当前时间-文件创建时间戳)>文件同步最大时间(如5分钟)-文件创建后,认为经过最大同步时间后,肯定已经同步到其他storage了。

3.文件创建时间戳<storage被同步到的时间戳。-同步时间戳之前的文件确定已经同步了

4.(当前时间-文件创建时间戳)>同步延迟阀值(如一天)。-经过同步延迟阈值时间,认为文件肯定已经同步了。

====================================================================================================================================

小文件合并存储

小文件合并存储主要解决如下几个问题:

1.本地文件系统inode数量有限,从而存储的小文件数量也就受到限制。2.多级目录+目录里很多文件,导致访问文件的开销很大(可能导致很多次IO3.按小文件存储,备份与恢复的效率低

FastDFSV3.0版本里引入小文件合并存储的机制,可将多个小文件存储到一个大的文件(trunk file),为了支持这个机制,FastDFS生成的文件fileid需要额外增加16个字节

1. trunk file id2.文件在trunk file内部的offset3.文件占用的存储空间大小(字节对齐及删除空间复用,文件占用存储空间>=文件大小)

每个trunkfile由一个id唯一标识,trunkfilegroup内的trunkserver负责创建(trunk servertracker选出来的),并同步到group内其他的storage,文件存储合并存储到trunk file后,根据其offset就能从trunk file读取到文件。

文件在trunkfile内的offset编码到文件名,决定了其在trunkfile内的位置是不能更改的,也就不能通过compact的方式回收trunkfile内删除文件的空间。但当trunk file内有文件删除时,其删除的空间是可以被复用的,比如一个100KB的文件被删除,接下来存储一个99KB的文件就可以直接复用这片删除的存储空间。

============================================================================================================================

HTTP访问支持

FastDFStrackerstorage都内置了http协议的支持,客户端可以通过http协议来下载文件,tracker在接收到请求时,通httpredirect机制将请求重定向至文件所在的storage上;除了内置的http协议外,FastDFS还提供了通过apachenginx扩展模块下载文件的支持。


====================================================================================================================================

fastdfs-nginx-module 作用说明

FastDFS 通过 Tracker 服务器,将文件放在 Storage 服务器存储,但是同组存储服务器之间需要进入

文件复制,有同步延迟的问题。

假设Tracker 服务器将文件上传到了192.168.4.125,上传成功后文件 ID,已经返回给客户端。

此时FastDFS 存储集群机制会将这个文件同步到同组存储 192.168.4.126,在文件还没有复制完成的情况下,客户端如果用这个文件 ID 在 192.168.4.126 上取文件,就会出现文件无法访问的

错误。而fastdfs-nginx-module 可以重定向文件连接到源服务器取文件,避免客户端由于复制延迟导致的