分布式文件存储方案之FastDFS的安装部署

一、FastDFS介绍

1.1、基本简介

FastDFS是一个C语言实现的实现的开源的、高性能轻量级的、分布式文件系统(DFS),作者余庆(happyfish100),支持 Linux、FreeBSD、AID等Unix系统和Windows系统,主要功能包括:文件存储、文件同步、文件访问(上传、下载)、以及高容量和负载平衡等。主要解决了大容量存储和读写负载均衡等问题,特别适合以中小文件(建议范围:4KB < file_size <500MB)为载体的在线服务,如图片网站、短视频网站、文档、app下载站等;UC、京东、支付宝、迅雷、酷狗等都有使用,其中 UC基于FastDFS向用户提供网盘、广告和应用下载的业务的存储服务。FastDFS与 MogileF、HDFS、TFS 等都不是系统级的分布式文件系统,而是应用级的分布式文件存储服务。

FastDFS 系统有三个角色:跟踪服务器(Tracker Server)、存储服务器(Storage Server)和客户端(Client)。

Ø Tracker Server

跟踪服务器,主要做调度工作,起到均衡的作用;负责管理所有的storage server和 group,每个storage在启动 后会连接Tracker,告知自己所属groupg等信息,并保持周期性心跳, Tracker根据storage心跳信息,建立group--------->[storage server list]的映射表 ;tracker管理的元数据很少,会直接存放在内存 ;tracker上的元信息都是由 storage汇报的 信息生成汇报的,本身不需要持久化任何数据 ,tracker之间是对等关系,因此扩展tracker服务非常容易,之间增加tracker服务器即可,所有 tracker都接受 stroage心跳信息,生成元数据来提供读写服务(与其他 Master-Slave架构的优势是没有单点,tracker也不会成为瓶颈,最终数据是和一个可用的Storage Server进行传输的)。

Ø Storage Server

存储服务器,主要提供容量和备份服务;以group为单位,每个group内可以包多台storage server,数据互为备份,存储容量空间以group内容量最小的storage为准;建议group内的storage server配置相同;以group为单位组织存储能够方便的进行应用隔离、负载均衡和副本数定制;缺点是group的容量受单机存储限制,同时group内机器坏掉,数据恢复只能依赖group内其他机器重新同步(坏盘 替换,重新挂载启fdfs_storaged即可)。

多个group之间的存储方式有3种策略:round robin(轮询 )、load balance(选择最大剩余空间的组上传文件)、specify group(指定group上传)。

group中storage存储依赖本地文件系统,storage可配置多个数据存储目录,磁盘不做raid,直接分别挂载到多个目录,将这些目录配置为storage的数据目录即可。

storage接受写请求时,会根据配置好的规则,选择其中一个存储目录来存储文件;为避免单个目录下的文件过多,storage第一次启时,会在每个数据存储目录里创建2级子目录,每级256个,总共65536个,新写的文件会以hash的方式被路由到其中某个子目录下,然后将文件数据直接作为一个本地文件存储到该目录中。

Ø Client:客户端,上传下载数据的服务器,也就是我们自己的项目所部署在的服务器。

总结:1. 高可靠性、无单点故障 2.高吞吐性:只要Group足够多,数据流量是分散的。

FastDFS为互联网量身定制,充分考虑了冗余备份、负载均衡、线性扩容等机制,并注重高可用、高性能等指标,使用FastDFS很容易搭建一套高性能的文件服务器集群提供文件上传、下载等服务。

图-1:FastDFS架构图

1.2、FastDFS的存储策略

为了支持大容量,存储节点(服务器)采用了分卷(或分组)的组织方式。存储系统由一个或多个卷组成,卷与卷之间的文件是相互独立的,所有卷的文件容量累加就是整个存储系统中的文件容量。一个卷可以由一台或多台存储服务器组成,一个卷下的存储服务器中的文件都是相同的,卷中的多台存储服务器起到了冗余备份和负载均衡的作用。

在卷中增加服务器时,同步已有的文件由系统自动完成,同步完成后,系统自动将新增服务器切换到线上提供服务。当存储空间不足或即将耗尽时,可以动态添加卷。只需要增加一台或多台服务器,并将它们配置为一个新的卷,这样就扩大了存储系统的容量。

1.3、FastDFS的上传过程

FastDFS向使用者提供基本文件访问接口,比如upload、download、append、delete等,以客户端库的方式提供给用户使用。

Storage Server会定期的向Tracker Server发送自己的存储信息。当Tracker Server Cluster中的Tracker Server不止一个时,各个Tracker之间的关系是对等的,所以客户端上传时可以选择任意一个Tracker。

当Tracker收到客户端上传文件的请求时,会为该文件分配一个可以存储文件的group,当选定了group后就要决定给客户端分配group中的哪一个storage server。当分配好storage server后,客户端向storage发送写文件请求,storage将会为文件分配一个数据存储目录。然后为文件分配一个fileid,最后根据以上的信息生成文件名存储文件。

图-2:FastDFS的上传过程图

FastDFS提供基本的文件访问接口,如upload、download、append、delete等。

1.4、FastDFS的文件同步

写文件时,客户端将文件写至group内一个storage server即认为写文件成功,storage server写完文件后,会由后台线程将文件同步至同group内其他的storage server。

每个storage写文件后,同时会写一份binlog,binlog里不包含文件数据,只包含文件名等元信息,这份binlog用于后台同步,storage会记录向group内其他storage同步的进度,以便重启后能接上次的进度继续同步;进度以时间戳的方式进行记录,所以最好能保证集群内所有server的时钟保持同步。

storage的同步进度会作为元数据的一部分汇报到tracker上,tracke在选择读storage的时候会以同步进度作为参考。

1.5、FastDFS的下载过程

客户端uploadfile成功后,会拿到一个storage生成的文件名,接下来客户端根据这个文件名即可访问到该文件。

跟upload file一样,在downloadfile时客户端可以选择任意tracker server。tracker发送download请求给某个tracker,必须带上文件名信息,tracke从文件名中解析出文件的group、大小、创建时间等信息,然后为该请求选择一个storage用来服务读请求。

图-3:FastDFS下载文件过程图

client发送下载请求给某个tracker,必须带上文件名信息,tracker从文件名中解析出文件的group、大小、创建时间等信息,然后为该请求选择一个storage用于读请求;由于group内的文件同步在后台是异步进行的,可能出现文件没有同到其他storage server上或者延迟的问题,后面我们在使用nginx_fastdfs_module模块可以很好地解决这一问题

图-4:client请求及响应流程图

FastDFS提供合并存储功能,默认创建的大文件为64MB,然后在该大文件中存储很多小文件;大文件中容纳一个小文件的空间称作一个Slot,规定Slotlotlot最小值为256字节,最大为16MB,即小于256字节的文件也要占用256字节,超过16MB的文件独立存储。

为了支持文件合并机制,FastDFS生成的文件file_id需要额外增加16个字节;每个trunk file由一个id 唯一标识,trunk file由group内的trunk server负责创建(trunk server是tracker选出来的),并同步到group内其他的storage,文件存储合并存储到trunk file后,根据其文件偏移量就能从trunk file中读取文件。

二、安装FastDFS环境

2.1、安装前准备

操作环境:CentOS 7.4 x64,以下所有操作都是在单机环境完成的。

A、所有的安装包都下载到/opt/tools/fastdfs目录下了,并解压到当前目录。

B、先做一件事,修改hosts,将文件服务器的ip与域名映射(单机TrackerServer环境),因为后面很多配置里面都需要去配置服务器地址,ip变了,就只需要修改hosts即可。

C、安装环境依赖包

# yum -y install gcc zlib pcre pcre-devel zlib-devel

2.2、安装libfastcommon

libfastcommon是从 FastDFS 和 FastDHT 中提取出来的公共 C 函数库,基础环境,安装即可 。这里已经将libfastcommon下载并上传至/opt/tools/fastdfs目录。

下载地址:https://github.com/happyfish100/libfastcommon/archive/V1.0.7.tar.gz

A、开始安装:

# cd /opt/tools/fastdfs

# unzip libfastcommon.zip

# cd libfastcommon

# ./make.sh && ./make.sh install

2.3、安装FastDFS

下载地址:https://github.com/happyfish100/fastdfs/archive/V5.05.tar.gz

开始安装FastDFS

# cd /opt/tools/fastdfs

# unzip fastdfs.zip

# cd fastdfs

#./make.sh && ./make.sh install

# cp -rf ./conf/* /etc/fdfs/

默认安装方式安装后的相应文件与目录
  A、服务脚本:

/etc/init.d/fdfs_storaged

/etc/init.d/fdfs_trackerd

B、配置文件(这三个是作者给的样例配置文件) :

/etc/fdfs/client.conf.sample

/etc/fdfs/storage.conf.sample

/etc/fdfs/tracker.conf.sample

C、命令工具在 /usr/bin/ 目录下:

2.4、配置FastDFS跟踪器(Tracker)

A、编辑tracker.conf ,标红的需要修改下,其它的默认即可。

# vim /etc/fdfs/tracker.conf

# 配置文件是否不生效,false 为生效
disabled=false

# 提供服务的端口
port=22122

# Tracker 数据和日志目录地址(根目录必须存在,子目录会自动创建)
base_path=/home/yuqing/fastdfs

# HTTP 服务端口
http.server_port=80

B、查看修改后内容

# grep -v "^#" /etc/fdfs/tracker.conf |grep -v "^#34;

C、创建tracker基础数据目录,即base_path对应的目录

# mkdir -p /home/yuqing/fastdfs

D、防火墙中打开跟踪端口(默认的22122)

# vim /etc/sysconfig/iptables

添加如下端口行:
-A INPUT -m state --state NEW -m tcp -p tcp --dport 22122 -j ACCEPT

重启防火墙:
# service iptables restart

E、启动Tracker服务

初次成功启动,会在/home/yuqing/fastdfs(配置的base_path)下创建 data、logs 两个目录。

可以用这种方式启动
# /etc/init.d/fdfs_trackerd start

也可以用这种方式启动,前提是上面创建了软链接,后面都用这种方式
# service fdfs_trackerd start

查看 FastDFS Tracker 是否已成功启动 ,22122端口正在被监听,则算是Tracker服务安装并启动成功。

# netstat -unltp|grep fdfs

# ps -ef |grep track |grep -v 'grep'

关闭Tracker服务

# service fdfs_trackerd stop

F、设置Tracker开机启动

# chkconfig fdfs_trackerd on

或者:
# vim /etc/rc.d/rc.local
加入配置:
/etc/init.d/fdfs_trackerd start 

G、Tracker Server 目录及文件结构

Tracker服务启动成功后,会在base_path下创建data、logs两个目录。目录结构如下:

${base_path}
  |__data
  |   |__storage_groups.dat:存储分组信息
  |   |__storage_servers.dat:存储服务器列表
  |__logs
  |   |__trackerd.log: tracker server 日志文件 

H、启动、重启、停止、状态查看

#启动:/usr/bin/fdfs_trackerd /etc/fdfs/tracker.conf start
#重启:/usr/bin/fdfs_trackerd /etc/fdfs/tracker.conf restart
#停止:/usr/bin/fdfs_trackerd /etc/fdfs/tracker.conf stop
#或者
#启动:service fdfs_trackerd start
#重启:service fdfs_trackerd restart
#停止:service fdfs_trackerd stop
#状态:service fdfs_trackerd status

2.5、配置FastDFS存储 (Storage)

A、在实际的生产环境中Storage节点和Tracker节点一般是不同的服务器,所以是仍须安装libfastcommon、FastDFS的,具体安装步骤请参考步骤2.2和2.3进行安装;由于本文档的安装部署是在一台服务器上进行的安装,所以这里的Storage就不再进行安装了。

B、编辑storage.conf,标红的需要修改,其它的默认即可。

# vim /etc/fdfs/storage.conf

#启用配置文件
disabled=false

#指定此 storage server 所在 组(卷)
group_name=group1

#设置storage server的端口号
port=23000

#设置Storage数据和日志目录地址(根目录必须存在,子目录会自动生成)
base_path=/home/fastdfs

#存放文件时 storage server 支持多个路径。这里配置存放文件的基路径数目,通常只配一个目录,需要和store_path个数匹配
store_path_count=1

#逐一配置 store_path_count 个路径,索引号基于 0
#如果不配置 store_path0,那它就和 base_path 对应的路径一样
#文件存储路径
store_path0=/home/fastdfs/image-data0

#tracker服务器的IP地址和端口号列表
#有多个 tracker server 时,每个 tracker server 写一行
tracker_server=dahai.wang:22122

#设置http访问端口号
http.server_port=80

# 心跳间隔时间,单位为秒 (这里是指主动向 tracker server 发送心跳)
heart_beat_interval=30

# FastDFS 存储文件时,采用了两级目录。这里配置存放文件的目录个数。 
# 如果本参数只为 N(如: 256),那么 storage server 在初次运行时,会在 store_path 下自动创建 N * N 个存放文件的子目录。
subdir_count_per_path=256

# 允许系统同步的时间段 (默认是全天) 。一般用于避免高峰同步产生一些问题而设定。
sync_start_time=00:00
sync_end_time=23:59

C、创建Storage基础数据目录,对应base_path目录

# 这是配置的base_path路径
# mkdir -p /home/fastdfs

# 这是配置的store_path0路径
# mkdir -p /home/fastdfs/image-data0

D、防火墙中打开存储器端口(默认的 23000)

# vim /etc/sysconfig/iptables

添加如下端口行:
-A INPUT -m state --state NEW -m tcp -p tcp --dport 23000 -j ACCEPT

重启防火墙:
# service iptables restart

E、启动 Storage

启动Storage前确保Tracker是启动的。初次启动成功,会在 /ljzsg/fastdfs/storage 目录下创建 data、 logs 两个目录。

可以用这种方式启动
# /etc/init.d/fdfs_storaged start

也可以用这种方式,后面都用这种
# service fdfs_storaged start

查看 Storage 是否成功启动,23000 端口正在被监听,就算 Storage 启动成功。

# netstat -unltp|grep fdfs_storaged

关闭Storage命令:

# service fdfs_storaged stop

查看Storage和Tracker是否在通信:

/usr/bin/fdfs_monitor /etc/fdfs/storage.conf

F、设置 Storage 开机启动

# chkconfig fdfs_storaged on

或者:
# vim /etc/rc.d/rc.local
加入配置:
/etc/init.d/fdfs_storaged start

G、Storage 目录

同 Tracker,Storage 启动成功后,在base_path 下创建了data、logs目录,记录着 Storage Server 的信息。在 store_path0 目录下,创建了N*N个子目录:

H、启动、重启、停止、状态查看

#启动:/usr/bin/fdfs_storaged /etc/fdfs/tracker.conf start
#重启:/usr/bin/fdfs_storaged /etc/fdfs/tracker.conf restart
#停止:/usr/bin/fdfs_storaged /etc/fdfs/tracker.conf stop
#或者
#启动:service fdfs_storaged start
#重启:service fdfs_storaged restart
#停止:service fdfs_storaged stop
#状态:service fdfs_storaged status

I、特别说明

如果是安装了多个Storage服务的情况,需要在每个服务器上全部安装storage并确认运行正常。相关配置参照步骤2.5进行修改,注意配置文件中group名参数需要根据实际情况调整,且每个group中所有storage的端口号必须一致。

2.6、文件上传测试

A、修改 Tracker 服务器中的客户端配置文件;修改如下配置即可,其它默认。

# vim /etc/fdfs/client.conf

# Client 的数据和日志目录
base_path=/home/yuqing/fastdfs

# Tracker端口
tracker_server=dahai.wang:22122

#tracker服务器的http端口号
http.tracker_server_port=80

B、上传测试

ü 通过fdfs_test上传

# /usr/bin/fdfs_test /etc/fdfs/client.conf upload test00.png

ü 通过fdfs_upload_file上传

# /usr/bin/fdfs_upload_file /etc/fdfs/client.conf test00.png

返回的文件ID由group、存储目录、两级子目录、fileid、文件后缀名(由客户端指定,主要用于区分文件类型)拼接而成。

3、配置fastdfs-nginx-module模块

FastDFS 通过 Tracker 服务器,将文件存放在 Storage 服务器存储, 但是同组存储服务器之间需要进行文件复制, 有同步延迟的问题。

假设 Tracker 服务器将文件上传到了 192.168.56.88,上传成功后文件 ID已经返回给客户端。此时 FastDFS 存储集群机制会将这个文件同步到同组存储 192.168.56.89,在文件还没有复制完成的情况下,客户端如果用这个文件 ID 在 192.168.56.89 上取文件,就会出现文件无法访问的错误。而 fastdfs-nginx-module 可以重定向文件链接到源服务器取文件,避免客户端由于复制延迟导致的文件无法访问错误。

3.1、模块配置

A、配置fastdfs-nginx-module插件

# cd /opt/tools/fastdfs

# 解压fastdfs-nginx-module插件
# unzip fastdfs-nginx-module.zip

# 将FastDFS的nginx插件模块的配置文件copy到FastDFS配置文件目录
# cp -rf fastdfs-nginx-module/src/mod_fastdfs.conf /etc/fdfs/

B、编辑mod_fastdfs.conf

# vim /etc/fdfs/mod_fastdfs.conf

#保存日志目录
base_path=/home/fastdfs

#tracker服务器的IP地址以及端口号
tracker_server=dahai.wang:22122

#storage服务器的端口号
storage_server_port=23000

#当前服务器的group名
group_name=group1 

#文件url中是否有group名
url_have_group_name=true 

#存储路径个数,需要和store_path个数匹配
store_path_count=1 

#文件存储路径
store_path0=/home/fastdfs/image-data0

#从文件扩展名查找文件类型(nginx时为true)
http.need_find_content_type=true

#设置组的个数
group_count=1
 
#在文件末尾增加1个组的具体信息:
[group1]
group_name=group1
storage_server_port=23000
store_path_count=1
store_path0=/home/fastdfs/image-data0

C、建立M00的链接

# 建立M00至存储目录的符号连接:
# ln -s /home/fastdfs/data /home/fastdfs/data/M00

4、安装Nginx并配置

经过以上步骤,已经将文件上传成功了,但我们还无法下载。因此安装Nginx作为服务器以支持Http方式访问文件。同时,后面安装FastDFS的Nginx模块也需要Nginx环境。

Nginx只需要安装到Storage Server所在的服务器即可,用于访问文件。我这里由于是单机,Tracker Server和Storage Server在一台服务器上。

4.1、安装nginx所需环境

A、安装所需依赖包

# yum -y install gcc-c++ \
pcre pcre-devel \
zlib zlib-devel \
openssl openssl-devel

4.2、安装并配置Nginx

下载地址:https://nginx.org/download/nginx-1.23.1.tar.gz

A、解压、配置、安装编译nginx

# cd /opt/tools/fastdfs

# tar -zxf nginx-1.8.0.tar.gz 
# cd nginx-1.8.0
# ./configure --prefix=/usr/local/nginx \
--add-module=../fastdfs-nginx-module/src
# make && make install

B、查看Nginx的模块

# /usr/local/nginx/sbin/nginx -V

有下面这个就说明添加模块成功

C、配置nginx

# 注意这一行,我特别加上了使用 root 用户去执行,不然有些目录没有权限访问
user  root;
worker_processes  1;

events {
    worker_connections  1024;
}

http {
    include       mime.types;
    default_type  application/octet-stream;
    #设置缓存参数
    server_names_hash_bucket_size 128;
    client_header_buffer_size 32k;
    large_client_header_buffers 4 32k;
    client_max_body_size 300m;
    sendfile       on;
    tcp_nopush     on;
    proxy_redirect off;
    proxy_set_header Host $http_host;
    proxy_set_header X-Real-IP $remote_addr;
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
    proxy_connect_timeout 90;
    proxy_send_timeout 90;
    proxy_read_timeout 90;
    proxy_buffer_size 16k;
    proxy_buffers 4 64k;
    proxy_busy_buffers_size 128k;
    proxy_temp_file_write_size 128k;
    #设置缓存存储路径、存储方式、分配内存大小、磁盘最大空间、缓存期限
    proxy_cache_path /var/cache/nginx/proxy_cache levels=1:2 keys_zone=http-cache:500m max_size=10g inactive=30d;
    proxy_temp_path /var/cache/nginx/proxy_cache/tmp;

    keepalive_timeout  65;

    server {
        listen       80;
        # 访问本机
        server_name  dahai.wang;

        # 拦截包含 /group1/M00 请求,使用 fastdfs 这个 Nginx 模块进行转发
        location ~/group[0-9]  {
            ngx_fastdfs_module;
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root html;
        }
    }
}

注意:

listen 80 端口值是要与 /etc/fdfs/storage.conf 中的 http.server_port=80 (前面改成80了)相对应。如果改成其它端口,则需要统一,同时在防火墙中打开该端口。

  location 的配置,如果有多个group则配置location ~/group([0-9])/M00 ,没有则不用配group。

D、启动nginx

# /usr/local/nginx/sbin/nginx

其它命令
# /usr/local/nginx/sbin/nginx -s stop
# /usr/local/nginx/sbin/nginx -s quit
# /usr/local/nginx/sbin/nginx -s reload

E、设置开机启动

# vim /etc/rc.local

添加一行:
/usr/local/nginx/sbin/nginx

# 设置执行权限
# chmod 755 rc.local

F、查看nginx的版本及模块

/usr/local/nginx/sbin/nginx -V

G、防火墙中打开nginx端口(默认的 80),添加后就能在本机使用80端口访问了。

# vim /etc/sysconfig/iptables

添加如下端口行:
-A INPUT -m state --state NEW -m tcp -p tcp --dport 80 -j ACCEPT

重启防火墙:
# service iptables restart

H、在浏览器访问之前上传的图片、成功。注意和第三点中直接使用nginx路由访问不同的是,这里配置 fastdfs-nginx-module 模块,可以重定向文件链接到源服务器取文件。

http://dahai.wang/group1/M00/00/00/wKg4WFvA9AuATik9ABHrL3S6K74300.png

I、最终部署结构图:可以按照下面的结构搭建环境。

以上就是整个搭建FastDFS分布式文件系统并实现上传下载的全部过程。欢迎评论区留言讨论。

====================【分享结束】====================

发表评论
留言与评论(共有 0 条评论) “”
   
验证码:

相关文章

推荐文章