1 准备工作

1.1 为什么需要分片

存储容量需求超出单机磁盘容量。活跃的数据集超出单机内存容量,导致很多请求都要从磁盘读取数据,影响性能。写IOPS超出单个mongoDB节点的写服务能力。mongoDB支持自动分片以及手动分片,分片的基本单位是集合。

1.2 准备三台机器

shnode1: 192.168.1.111 shnode2: 192.168.1.112 shnode3: 192.168.1.113

1.3 分片集群规划

服务器说明:

**mongos,**数据库集群请求的入口,所有的请求都通过mongos进行协调,不需要在应用程序添加一个路由选择器,mongos自己就是一个请求分发中心,它负责把对应的数据请求请求转发到对应的shard服务器上。在生产环境通常有多mongos作为请求的入口,防止其中一个挂掉所有的mongodb请求都没有办法操作。 config server,顾名思义为配置服务器,存储所有数据库元信息(路由、分片)的配置。mongos本身没有物理存储分片服务器和数据路由信息,只是缓存在内存里,配置服务器则实际存储这些数据。mongos第一次启动或者关掉重启就会从 config server 加载配置信息,以后如果配置服务器信息变化会通知到所有的 mongos 更新自己的状态,这样 mongos 就能继续准确路由。在生产环境通常有多个 config server 配置服务器,因为它存储了分片路由的元数据,防止数据丢失! shard,分片(sharding)是指将数据库拆分,将其分散在不同的机器上的过程。将数据分散到不同的机器上,不需要功能强大的服务器就可以存储更多的数据和处理更大的负载。基本思想就是将集合切成小块,这些块分散到若干片里,每个片只负责总数据的一部分,最后通过一个均衡器来对各个分片进行均衡(数据迁移)。

​ replica set,副本集,其实就是shard的备份,防止shard挂掉之后数据丢失。复制提供了数据的冗余备份,并在多个服务器上存储数据副本,提高了数据的可用性, 并可以保证数据的安全性。

仲裁者(Arbiter),是复制集中的一个MongoDB实例,它并不保存数据。仲裁节点使用最小的资源并且不要求硬件设备,不能将Arbiter部署在同一个数据集节点中,可以部署在其他应用服务器或者监视服务器中,也可部署在单独的虚拟机中。为了确保复制集中有奇数的投票成员(包括primary),需要添加仲裁节点做为投票,否则primary不能运行时不会自动切换primary。

1.4 服务器端口分配

1.5 创建用于文件存储目录

以shnode1为例进行目录创建,其他结点操作相同。

创建主目录: /usr/local/shardcluster mkdir -p /usr/lcoal/shardcluster

下载mongodb,并解压到shardcluster目录下(跟单机配置一样,略) 创建配置文件目录 mkdir -p /usr/local/shardcluster/configserver/configfile #存储配置服务器的配置文件

mkdir -p /usr/lcoal/shardcluster/configserver/data #存储配置服务器的数据文件

mkdir -p /usr/lcoal/shardcluster/configserver/logs #存储配置服务器的日志文件

创建分片存储的目录 mkdir -p /usr/local/shardcluster/shard/configfile #存储分片服务器的配置文件

mkdir -p /usr/lcoal/shardcluster/shard/shard1_data #存储分片服务器shnode1的数据文件

mkdir -p /usr/lcoal/shardcluster/shard/shard2_data #存储分片服务器shnode2的数据文件

mkdir -p /usr/lcoal/shardcluster/shard/shard2_data #存储分片服务器shnode3的数据文件

mkdir -p /usr/lcoal/shardcluster/shard/logs #存储分片服务器的日志文件

创建路由文件目录 mkdir -p /usr/local/shardcluster/mongos/configfile #存储路由服务器的配置文件

mkdir -p /usr/lcoal/shardcluster/mongos/logs #存储路由服务器的日志文件

ps: 路由服务器不需要存储数据 ,因此不需要配置数据文件夹 创建用于存储各服务器的日志文件 touch /usr/lcoal/shardcluster/configserver/logs/config_server.log #配置服务器的日志文件

touch /usr/lcoal/shardcluster/shard/logs/shard1.log #分片服务器1的日志文件

touch /usr/lcoal/shardcluster/shard/logs/shard2.log #分片服务器2的日志文件

touch /usr/lcoal/shardcluster/shard/logs/shard3.log #分片服务器3的日志文件

touch /usr/lcoal/shardcluster/mongos/logs/mongos.log #路由服务器的日志文件

集群服务器文件目录结构:

2. 部署mongodb

跟单机一样操作,略

3. 部署配置服务器

3.1 创建并编辑配置文件

创建文件

touch /usr/lcoal/shardcluster/configserver/configfile/mongodb_config.conf

编辑该文件

vi /usr/local/shardcluster/configserver/configfile/mongodb_config.conf

3. mongodb_config.conf文件内容

3.2 同步文件到集群中的服务器

使用scp同步文件

scp /usr/local/shardcluster/configserver/configfile/mongodb_config.conf 192.168.1.112:/usr/local/shardcluster/configserver/configfile/mongodb_config.conf

scp /usr/local/shardcluster/configserver/configfile/mongodb_config.conf 192.168.1.113:/usr/local/shardcluster/configserver/configfile/mongodb_config.conf

分别在shnode2和shnode3服务器中修改配置文件,将ip修改成对应的ip地址

shnode2中mongodb_config.conf文件内容 shnode3中mongodb_config.conf文件内容

3.3 启动配置服务器

分别在shnode1, shnode2, shnode3三台机器上启动配置服务器 进入到mongodb/bin目录

./mongod -f /usr/local/shardcluster/configserver/configfile/mongodb_config.conf

提示successfully, 启动成功。三台机器都如此。

3.4 配置配置服务器的副本集

选择任一台服务器进行登录 。 ./mongo --host 192.168.1.111 --port 27022

初始化副本集rs.initiate()

rs.add('192.168.1.112:27022')

rs.add('192.168.1.113:27022')

查看副本集状态

rs.status()

到此配置服务器副本集配置完成。

4. 部署分片服务器

4.1 创建和编辑配置文件

创建配置文件

在shnode1服务器下分配创建用于三个分片配置文件,分别为mongodb_shard1.conf, mongodb_shard2.conf, mongodb_shard3.conf,

通过三个配置文件启动副本集模式。

touch /usr/lcoal/shardcluster/shard/configfile/mongodb_shard1.conf

touch /usr/lcoal/shardcluster/shard/configfile/mongodb_shard2.conf

touch /usr/lcoal/shardcluster/shard/configfile/mongodb_shard3.conf

分别编辑三个配置文件

​ mongodb_shard1.conf文件内容如下 : ​ mongodb_shard2.conf文件内容如下 : ​ mongodb_shard3.conf文件内容如下 : 3. 在shnode2中配置三个分片配置文件

mongodb_shard1.conf文件内容如下 : mongodb_shard2.conf文件内容如下 : mongodb_shard3.conf文件内容如下 : 4. 在shnode3中配置三个分片配置文件

mongodb_shard1.conf文件内容如下 : mongodb_shard2.conf文件内容如下 : mongodb_shard3.conf文件内容如下 :

4.2 带配置文件启动分片集群

分别在三台服务器中启动三个分片服务,这里以shnode1为例

./mongod --config /usr/local/shardcluster/shard/configfile/mongodb_shard1.conf

./mongod --config /usr/local/shardcluster/shard/configfile/mongodb_shard2.conf

./mongod --config /usr/local/shardcluster/shard/configfile/mongodb_shard3.conf

登录服务并配置副本集 在shnode1中登录服务./mongo --host 192.168.1.111 --port 27018

配置副本集 在shnode2中登录服务

./mongo --host 192.168.1.112 --port 27018

在shnode3中登录服务

./mongo --host 192.168.1.113 --port 27018

到此分片副本集配置完成。

5. 部署路由服务器

5.1 创建和编辑配置文件

在shnode1中创建配置文件mongodb_mongos.conf touch /usr/local/shardcluster/mongos/configfile/mongodb_mongos.conf

编辑mongodb_mongos.conf vi /usr/local/shardcluster/mongos/configfile/mongodb_mongos.conf

文件内容如下: 将该文件同步到shnode2服务器中 scp mongodb_mongos.conf 192.168.1.112:/usr/local/shardcluster/mongos/configfile/mongodb_mongos.conf

编辑并修改绑定的ip

5.2 启动mongos服务

分别在shnode1,和shnode2中启动mongos服务./mongos -f /usr/local/shardcluster/mongos/configfile/mongodb_mongos.conf

启动成功,说明路由配置服务成功。 到此,分片集群搭建成功。

6. 启动分片功能

6.1 登录mongos的客户端

在服务器shnode1中登录mongos的客户端

./mongo --host 192.168.1.111 --port 27021

6.2 向集群中添加分片

向集群中添加分片shard1,shard2和shard3

6.3 查看分片集群状态

sh.status()

或在config数据库中查看shards集合数据

7. 分片的基本操作

7.1 登录mongodb服务

分片集群中的对数据进行操作时,都会通过路由服务器进行分配,因而登录的服务器应该为路由服务器。

./mongo --host 192.168.1.111 27021

7.2 设置分片

指定分片生效

use admin

db.runCommand({enablesharding:"dbname"})

指定数据库需要的分片的集合和片键

db.runCommand({shardcollection:"dbname.collectionname",key:{fieldname:1}})

#要求先要在fieldname字段上建立索引

或者

sh.enableSharding("dbname")

sh.shardCollection("dbname.collectionname",{fieldname:1})

7.3 指定分片的片键

1. 片键的两种模式

hash模式,range模式

2. 使用hash模式分片

记录在各片上的分布比较平均

mongos> sh.shardCollection( "dbname.collectionname", { "fieldname": "hashed" } )

3. 使用range模式分片

mongos> sh.shardCollection( "dbname.collectionname", { "fieldname": 1 } )

要分片的库原来有数据的情况下,先建index,然后再指定片键

mongos> sh.enableSharding("dbname")

mongos> use dbname

mongos> db.collectionname.createIndex( { "fieldname": 1 } )

mongos> sh.shardCollection( "dbname.collectionname", { "fieldname": 1 } )

语法:

sh.shardCollection(namespace, key, unique, options)

设置唯一性主键

mongos> sh.shardCollection( "dbname.collectionname", { "fieldname": 1 } ,{unique:true})

例:设置允许数据库books分片

mongos> sh.enableSharding("books")

mongos> use books

mongos> db.users.createIndex({name:"hashed"})

mongos> use admin

mongos> db.runCommand({"shardcollection":"books.users","key":{"name":"hashed"}})

7.4 生成测试数据集

mongos> use books

mongos> for (var i= 1;i<=100;i++){db.users.insert({"name":"test"+i,"price":i});}

mongos> db.users.count()

mongos> db.users.stats() #查看当前集合下的分片数据

7.5 查看集合是否分片

use dbname

db.collection_name.stats().sharded #返回true表示已分片,false表示未分片

或 查看分片数据分布

db.collection_name.getShardDistribution() #可以查看数据分布

或 在config库中查询分片信息

db.collections.find({'dropped':{$ne:true},"_id":"dbname.collectionsname"})

7.6 查看分片状态

use dbname

sh.status()

sh.status({"verbose":1})

查看集群状态

mongos>sh.status()

7.6 设置chunk

设置分片chunk块的大小。需要在config数据库中设置

use config

db.settings.save({"_id":"chunksize","value":64})

7.7 开户自动分片

sh.enableAutoSplit() #自动分片

sh.disableAutoSplit()

sh.settings.save({_id:"autosplit","enable":true})

7.8 开户均衡器

sh.startBalancer()

sh.stopBalancer()

sh.isBalancerRunning()

7.9 分片后的数据访问

同单机 访问, 只是所有的访问操作都是通过mongos完成。

8 分片集群维护

8.1 集群的启停

停止集群服务 (1)关闭mongos服务 (2)关闭Shard服务 在另外两台机器上重复执行上述操作。 (3)关闭config server服务 三台机器依次关闭config server服务 启动集群服务

写在最后

mongodb分片的实质是将数据分散到不同的物理机器,以分散IO,提供并发与吞吐量。 mongodb分片依赖于片键,即任意一个需要开启的集合都需要创建索引。 开启分片的集合需要首先在DB级别启用库级分片。 mongodb的分片有分片服务器,配置服务器、路由服务器组成。 基于分片可以结合副本集(replicate set)来实现高可用。

推荐文章

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: