本篇博客从Web集群中亟需解决的大容量存储问题引入,分析了几类常用的共享存储架构,重点解析了分布式存储系统的原理及配置实现;

===================================================================

1 共享存储的架构演变

2 分布式存储系统

    2.1 基础知识

    2.2 分类

    2.3 CAP理论

    2.4 协议

3 MogileFS

    3.1 特性

    3.2 架构

    3.3 组成

    3.4 服务安装及启动

    3.5 配置部署

    3.6 配置前端代理Nginx

    3.7 访问验证

    3.8 后续扩展

===================================================================

1 共享存储的架构演变

  • rsync+inotify:本地各保留一份完整数据,但通过rsync实时同步修改文件,双主模型哦

  • NFS:多节点挂载后性能下降严重;存在单点故障,且多个客户端并发修改同一个文件时可能出现不一致的情况;

  • SAN:存储区域网络,不适用于海量高并发的存储场景,且代价昂贵;可通过软件实现iSCSI存储网络;涉及GFS2/CLVM(LVM2)

  • MooseFS:分布式文件系统,适用于海量小文件存储;支持FUSE,可被挂载使用;

  • MogileFS:分布式存储系统,适用于海量小文件存储;不支持FUSE,只能通过API调用;

2 分布式存储系统

2.1 基础知识

定义:分布式存储系统是大量普通PC服务器通过Internet互联,对外作为一个整体提供存储服务

特性

  • 可扩展:分布式存储系统可以扩展到几百台至几千台的集群规模,且随着集群规模的增长,系统整体性能表现为线性增长;

  • 低成本:分布式存储系统的自动容错、自动负载均衡机制使其可以构建在普通PC机之上;另外,线性扩展能力也使得增加、减少机器非常方便,可以实现自动运维;

  • 高性能:无论是针对整个集群还是单台服务器,都要求分布式系统具备高性能;

  • 易用:分布式存储系统需要能够提供易用的对外接口;另外,也要求具备完善的监控、运维工具,并能方便的与其他系统集成,如从Hadoop云计算系统导入数据;

挑战:在于数据、状态信息的持久化,要求在自动迁移、自动容错、并发读写的过程中保证数据的一致性;

2.2 分类

数据类型大致可分为非结构化数据(如文本、图片、视频等),结构化数据(一般存储在关系型数据库中),半结构化数据(如HTML文档);根据处理不同类型数据的需求,分布式存储系统可分为如下4类:

  • 分布式文件系统:用于存储Blob对象,如图片、视频等,这类数据以对象的形式组织,对象之间没有关联;如GFS,MogileFS等;

  • 分布式键值系统:用于存储关系简单的半结构化数据,它只提供基于主键的CRUD(Create/Read/Update/Delete)功能;如Memcache,Redis等;

  • 分布式表格系统:用于存储关系较为复杂的半结构化数据,不仅支持简单的CRUD操作,还支持扫描某个主键范围;如Google Bigtable、Megastore;

  • 分布式数据库:用于存储结构化数据,利用二维表格组织数据;如MySQL Sharding集群,Google Spanner等;

2.3 CAP理论

来自Berkerly的Eric Brewer教授提出了一个著名的CAP理论:一致性(Consistency),可用性(Availability)和分区容忍性(Tolerance of network Partition)三者不能同时满足:

  • C:读操作总是能读取到之前完成的写操作结果,满足这个条件的系统成为强一致系统,这里的“之前”一般对同一个客户端而言;

  • A:读写操作在单台机器发生故障的情况下依然能够正常执行,而不需要等待发生故障的机器重启或者其上的服务迁移到其他机器;

  • P:机器故障、网络故障、机房停电等异常情况下仍然能够满足一致性和可用性;

分布式存储系统要求能够自动容错,即分区可容忍性总是需要满足的,因此,一致性和写操作的可用性就不能同时满足了,需要在这二者间权衡,是选择不允许丢失数据,保持强一致,还是允许少量数据丢失以获得更好的可用性;

2.4 协议

分布式协议涉及的协议很多,例如租约,复制协议,一致性协议,其中以两阶段提交协议和Paxos协议最具有代表性;

两阶段提交协议(Two-phase Commit,2PC)用以保证跨多个节点操作的原子性,即跨多个节点的操作要么在所有节点上全部执行成功,要么全部失败;

两个阶段的执行过程如下:

  • 阶段一:请求阶段(Prepare phase),在请求阶段,协调者通知事务参与者准备提交或者取消事务,然后进入表决过程;

  • 阶段二:提交阶段(Commit phase);

Paxos协议用于确保多个节点对某个投票(例如哪个节点为主节点)达成一致;

3 MogileFS

3.1 特性

  • 工作于应用层:无需特殊的核心组件;

  • 无单点:三大组件(tracker,mogstore,database)皆可实现高可用;

  • 自动文件复制:复制的最小单位不是文件,而是class;基于不同的class,文件可以被自动的复制到多个有足够存储空间的存储节点上;

  • 传输中立,无特殊协议:可以通过NFS或HTTP协议进行通信;

  • 简单的命名空间:文件通过一个给定的key来确定,是一个全局的命名空间;没有目录,基于域实现文件隔离;

  • 不共享数据:无需通过昂贵的SAN来共享磁盘,每个存储节点只需维护自己所属的存储设备(device)即可;

3.2 架构

Tracker:MogileFS的核心,是一个调度器;服务进程为mogilefsd;可以做负载均衡调度;

  • 主要职责有:

  • 数据删除;

  • 数据复制;

  • 监控:故障后生成新的数据副本;

  • 查询;

Database:Tracker访问Database,返回用户可用的Storage Node及文件的存放位置;

mogstored:数据存储的位置,通常是一个HTTP(WebDAV)服务器,用于数据的创建、删除、获取等;不可做负载均衡调度;

3.3 组成

MogileFS由3个部分组成:

server:主要包括mogilefsd和mogstored两个应用程序。

  • mogilefsd实现的是tracker,它通过数据库来保存元数据信息,包括站点domain、class、host等;

  • mogstored是存储节点(store node),它其实是个WebDAV服务,默认监听在7500端口,接受客户端的文件存储请求。

Utils(工具集):主要是MogileFS的一些管理工具,例如mogadm等;

  • 在MogileFS安装完后,要运行mogadm工具将所有的store node注册到mogilefsd的数据库里,mogilefsd会对这些节点进行管理和监控;

客户端API:MogileFS的客户端API很多,例如Perl、PHP、Java、Python等,用这个模块可以编写客户端程序,实现文件的备份管理功能等;

3.4 服务安装及启动

基本架构(在LNMT架构的基础上改进)

服务器规划

服务安装及启动

数据库授权

MariaDB [(none)]> grant all on *.* to 'root'@'192.168.%.%' identified by 'magedu';Query OK, 0 rows affected (0.01 sec)MariaDB [(none)]> grant all on mogdb.* to 'moguser'@'192.168.%.%' identified by 'mogpass';Query OK, 0 rows affected (0.02 sec)MariaDB [(none)]> flush privileges;Query OK, 0 rows affected (0.00 sec)MariaDB [(none)]>grant all on *.* to 'root'@'192.168.%.%' identified by 'magedu';grant all on mogdb.* to 'moguser'@'192.168.%.%' identified by 'mogpass';flush privileges;

主机192.168.0.45(mogilefs+mogilestored)

# 所需程序包[root@mysql mogilefs]# lsMogileFS-Server-2.46-2.el6.noarch.rpm            perl-MogileFS-Client-1.14-1.el6.noarch.rpmMogileFS-Server-mogilefsd-2.46-2.el6.noarch.rpm  perl-Net-Netmask-1.9015-8.el6.noarch.rpmMogileFS-Server-mogstored-2.46-2.el6.noarch.rpm  perl-Perlbal-1.78-1.el6.noarch.rpmMogileFS-Utils-2.19-1.el6.noarch.rpm[root@mysql mogilefs]# yum install -y *.rpm perl-IO-AIO# 修改配置文件[root@mysql mogdata]# vi /etc/mogilefs/mogilefsd.conf # 调度器tracker的配置文件    # Enable daemon mode to work in background and use syslog      daemonize = 1    # Where to store the pid of the daemon (must be the same in the init script)    pidfile = /var/run/mogilefsd/mogilefsd.pid    # Database connection information    db_dsn = DBI:mysql:mogdb:host=192.168.0.45:3406    # 存储元数据的数据库信息,包括数据库mogdb及连接地址192.168.0.45:3406    db_user = moguser     # 数据库用户名    db_pass = mogpass     # 数据库登录密码    # IP:PORT to listen on for mogilefs client requests    listen = 192.168.0.45:7001[root@mysql mogdata]# vi /etc/mogilefs/mogstored.conf # 存储节点mogstored的配置文件    maxconns = 10000     # 最大连接数    httplisten = 0.0.0.0:7500 # http请求监听的地址和端口    mgmtlisten = 0.0.0.0:7501    docroot = /var/mogdata # 存储设备挂载目录,可修改# 准备存储设备[root@mysql mogdata]# fdisk /dev/sda # 新建分区sda4,大小10G(实际生产环境中,此为整块磁盘,而非分区)[root@mysql mogdata]# kpartx -af /dev/sda[root@mysql mogdata]# partx -a /dev/sda[root@mysql mogdata]# cat /proc/partitions # 验证分区已创建成功[root@mysql mogdata]# mke2fs -t ext4 /dev/sda4 # 初始化分区[root@mysql mogdata]# mkdir /var/mogdata[root@mysql mogdata]# mount -t ext4 /dev/sda4 /var/mogdata/ # 挂载分区[root@mysql mogdata]# mkdir /var/mogdata/dev1 # 创建存储设备dev1(注:在192.168.0.46上,此为dev2)[root@mysql mogdata]# chown -R mogilefs.mogilefs /var/mogdata/# 初始化数据库[root@mysql mogdata]# mogdbsetup --dbhost=192.168.0.45 --dbport=3406 --dbrootuser=root --dbrootpass=magedu --dbuser=moguser --dbpass=mogpass --dbname=mogdb --yes# 初始化数据库执行一次即可,故在主机192.168.0.46上无需执行此步骤# 启动服务[root@mysql mogilefs]# service mogilefsd startStarting mogilefsd                                         [  OK  ][root@mysql mogilefs]# service mogstored startStarting mogstored                                         [  OK  ]

主机192.168.0.46(mogilefs+mogilestored)

同上,直至mogilefsd和mogstored服务都正常启动

3.5 配置部署(任意一个tracker节点上配置即可,如192.168.0.45)

添加节点

[root@mysql mogdata]# echo "trackers = 192.168.0.45:7001" > /etc/mogilefs/mogilefs.conf # 管理程序mogadm的配置文件[root@mysql mogdata]# mogadm host add 192.168.0.45 --ip=192.168.0.45 --status=alive # 添加节点1[root@mysql mogdata]# mogadm host add 192.168.0.46 --ip=192.168.0.46 --status=alive # 添加节点2[root@mysql mogilefs]# mogadm host list # 查看已添加节点192.168.0.45 [1]: alive  IP:       192.168.0.45:7500192.168.0.46 [2]: alive  IP:       192.168.0.46:7500

添加设备

[root@mysql mogdata]# mogadm device add 192.168.0.45 1 # 添加存储设备1,设备编号需与/var/mogdata目录下的dev1目录保持一致[root@mysql mogdata]# mogadm device add 192.168.0.46 2 # 添加存储设备2,设备编号需与/var/mogdata目录下的dev2目录保持一致[root@mysql mogdata]# mogadm device list # 查看已添加设备192.168.0.45 [1]: alive                    used(G)    free(G)   total(G)  weight(%)   dev1:   alive      0.146      9.200      9.347        100192.168.0.46 [2]: alive                    used(G)    free(G)   total(G)  weight(%)   dev2:   alive      0.146      9.199      9.346        100

添加domain(域)

[root@mysql mogdata]# mogadm domain add p_w_picpaths[root@mysql mogdata]# mogadm domain add text[root@mysql mogdata]# mogadm domain list domain               class                mindevcount   replpolicy   hashtype-------------------- -------------------- ------------- ------------ ------- p_w_picpaths               default                   2        MultipleHosts() NONE text                 default                   2        MultipleHosts() NONE

添加class(文件类别)

[root@mysql mogdata]# mogadm class add p_w_picpaths class1 --mindevcount=2 # 在域p_w_picpaths中添加类别class1和class2,最小文件复制份数为2[root@mysql mogdata]# mogadm class add p_w_picpaths class2 --mindevcount=2[root@mysql mogdata]# mogadm class add text class1 --mindevcount=2 # 在域text中添加类别class1和class2,最小文件复制份数为2[root@mysql mogdata]# mogadm class add text class2 --mindevcount=2[root@mysql mogdata]# mogadm class list domain               class                mindevcount   replpolicy   hashtype-------------------- -------------------- ------------- ------------ ------- p_w_picpaths               class1                    2        MultipleHosts() NONE p_w_picpaths               class2                    2        MultipleHosts() NONE p_w_picpaths               default                   2        MultipleHosts() NONE text                 class1                    2        MultipleHosts() NONE text                 class2                    2        MultipleHosts() NONE text                 default                   2        MultipleHosts() NONE

3.6 配置前端代理Nginx

重新编译安装nginx,添加nginx-mogilefs-module-master模块

[root@nginx1 tar]# cd /home/software/src/nginx-1.4.7/[root@nginx1 nginx-1.4.7]# ./configure \>   --prefix=/usr \>   --sbin-path=/usr/sbin/nginx \>   --conf-path=/etc/nginx/nginx.conf \>   --error-log-path=/var/log/nginx/error.log \>   --http-log-path=/var/log/nginx/access.log \>   --pid-path=/var/run/nginx/nginx.pid  \>   --lock-path=/var/lock/nginx.lock \>   --user=nginx \>   --group=nginx \>   --with-http_ssl_module \>   --with-http_flv_module \>   --with-http_stub_status_module \>   --with-http_gzip_static_module \>   --http-client-body-temp-path=/var/tmp/nginx/client/ \>   --http-proxy-temp-path=/var/tmp/nginx/proxy/ \>   --http-fastcgi-temp-path=/var/tmp/nginx/fcgi/ \>   --http-uwsgi-temp-path=/var/tmp/nginx/uwsgi \>   --http-scgi-temp-path=/var/tmp/nginx/scgi \>   --with-pcre \>   --with-debug \>   --add-module=/home/software/tar/nginx-mogilefs-module-master[root@nginx1 nginx-1.4.7]# make && make install

配置Nginx,将静态文件和图片的访问都转发至后端MogileFS即可

[root@nginx1 nginx]# cat /etc/nginx/nginx.confworker_processes  2;error_log  /var/log/nginx/nginx.error.log;pid        /var/run/nginx.pid;events {    worker_connections  1024;}http {    include       mime.types;    default_type  application/octet-stream;    log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '                      '$status $body_bytes_sent "$http_referer" '                      '"$http_user_agent" "$http_x_forwarded_for"';    sendfile        on;    keepalive_timeout  65;    fastcgi_cache_path /www/cache levels=1:2 keys_zone=fcgicache:10m inactive=5m;    upstream mogfs_cluster { # 定义后端mogilefs集群        server 192.168.0.45:7001;        server 192.168.0.46:7001;    }    server {        listen       4040;        server_name  xxrenzhe.lnmmp.com;        access_log  /var/log/nginx/nginx-img.access.log  main;        root /www/lnmmp.com;        valid_referers none blocked xxrenzhe.lnmmp.com *.lnmmp.com;        if ($invalid_referer) {            rewrite ^/ http://xxrenzhe.lnmmp.com/404.html        }        location ~* ^(/p_w_picpaths/.*)$ {    # 图片访问直接转发至后端mogilefs集群            mogilefs_tracker mogfs_cluster;            mogilefs_domain p_w_picpaths;    # 指定p_w_picpaths域            mogilefs_noverify on;            mogilefs_pass $1 {    # 传输访问的全路径(/p_w_picpaths/.*)                proxy_pass $mogilefs_path;                proxy_hide_header Content=Type;                proxy_buffering off;            }        }    }    server {        listen       80;        server_name  xxrenzhe.lnmmp.com;        access_log  /var/log/nginx/nginx-static.access.log  main;        location / {            root   /www/lnmmp.com;            index  index.php index.html index.htm;        }        location ~* ^(/text/.*)$ {    # 文本访问直接转发至后端mogilefs集群            mogilefs_tracker mogfs_cluster;            mogilefs_domain text;    # 指定text域            mogilefs_noverify on;            mogilefs_pass $1 {    # 传输访问的全路径(/text/.*)               proxy_pass $mogilefs_path;               proxy_hide_header Content=Type;               proxy_buffering off;            }        }        gzip on;        gzip_comp_level 6;        gzip_buffers 16 8k;        gzip_http_version 1.1;        gzip_types text/plain text/css application/x-javascript text/xml application/xml;        gzip_disable msie6;    }    server {        listen       8080;        server_name  xxrenzhe.lnmmp.com;        access_log  /var/log/nginx/nginx-php.access.log  main;        location / {            root   /www/lnmmp.com;            index  index.php index.html index.htm;        }        error_page  404              /404.html;        error_page  500 502 503 504  /50x.html;        location = /50x.html {            root   /www/lnmmp.com;        }        location ~ \.php$ {            root           /www/lnmmp.com;            fastcgi_pass   127.0.0.1:9000;          fastcgi_cache  fcgicache;          fastcgi_cache_valid 200 302 1h;          fastcgi_cache_valid 301 1d;          fastcgi_cache_valid any 1m;          fastcgi_cache_min_uses 1;          fastcgi_cache_key $request_method://$host$request_uri;          fastcgi_cache_use_stale error timeout invalid_header http_500;            fastcgi_index  index.php;            fastcgi_param  SCRIPT_FILENAME  $document_root$fastcgi_script_name;            include        fastcgi_params;        }    }}

启动nginx服务

[root@nginx1 nginx]# service nginx startStarting nginx:                                            [  OK  ]

3.7 访问验证

上传文件测试分布式文件系统MogileFS的功能

[root@mysql mogdata]# mogupload --domain=p_w_picpaths --key='/p_w_picpaths/fish.jpg' --file="/p_w_picpaths/fish.jpg" # 上传图片文件,选择p_w_picpaths域[root@mysql mogdata]# mogupload --domain=text --key='/text/index.html' --file="/text/index.html" # 上传文本文件,选择text域[root@mysql mogdata]# moglistkeys --domain=p_w_picpaths # 列出已添加的key/p_w_picpaths/fish.jpg[root@mysql mogdata]# moglistkeys --domain=text/text/index.html[root@mysql mogdata]# mogfileinfo --domain=p_w_picpaths --key='/p_w_picpaths/fish.jpg' # 查看已添加文件的具体信息,包括实际可访问地址- file: /p_w_picpaths/fish.jpg     class:              default  devcount:                    2    domain:               p_w_picpaths       fid:                    9       key:     /p_w_picpaths/fish.jpg    length:                 3225 - http://192.168.0.45:7500/dev1/0/000/000/0000000009.fid - http://192.168.0.46:7500/dev2/0/000/000/0000000009.fid[root@mysql mogdata]# mogfileinfo --domain=text --key='/text/index.html'- file: /text/index.html     class:              default  devcount:                    2    domain:                 text       fid:                    8       key:     /text/index.html    length:                   15 - http://192.168.0.46:7500/dev2/0/000/000/0000000008.fid - http://192.168.0.45:7500/dev1/0/000/000/0000000008.fid

说明:直接访问mogilefs提供的文件存储路径,访问正常;

结合Nginx,从前端访问测试

说明:通过前端Nginx访问图片和文本文件一切正常,实现了对前端访问的透明性;

3.8 后续扩展

结合LNMT的架构,再通过Haproxy进行前端调度,就可以使用MogileFS这个分布式存储系统完全替代NFS,实现对图片文件和文本文件的存储和读写;

鉴于MogileFS的无目录性,无法直接挂载使用,故向mogilefs集群中添加文件则需要程序通过API调用上传(upload)文件,虽然对于运维人员有点不方便,但也保证了一定的高效性;

如果想体验直接挂载使用分布式文件系统的乐趣,则可以尝试使用MooseFS,在此就不多说了!