前言

GPDB 数据迁移可以通过全量恢复的方式,如果原来有3个机器,每个机器上面有2个Primary, 2个Mirror,那么可以通过扩展3部机器,变成每部机器上一个Primary,1个Mirror,在迁移的过程中,需要保证:

原有的机器利用Primary+Mirror可以组成一个完成的原有集群DB,可以正常启动,这样才能全量恢复,将数据恢复到扩展的机器上。

如下图,将原有机器的P1/P2/P3/M0/M2/M3 迁移到新机器,原有机器依然保留P0/P2/P4/M1/M2/M3能够启动整个数据库

一、新机器准备工作:

1.1、开始设置新机器的一些参数,这些和之前安装GPDB是一样的,包括新建gpadmin组,gpadmin用户,关闭新机器防火墙

[root@gpsegment2 ~]# systemctl stop firewalld.service [root@gpsegment2 ~]# systemctl disable firewalld.service

1.2、修改所有机器的hosts文件,同时建立ssh互信免密码登陆

[gpadmin@gpsegment2 ~]$ vim /etc/hosts #修改hosts文件 192.168.56.103 gpmaster 192.168.56.101 gpsegment3 192.168.56.104 gpsegment1 192.168.56.105 gpsegment2 192.168.56.102 gpsegment4 192.168.56.106 gpsegment5 192.168.56.107 gpsegment6

[gpadmin@gpmaster conf]$ gpssh-exkeys -f hostlist #将新机器域名加入到hostlist文件,运行即可建立ssh互信

1.3、在所有新机器建立GPDB安装目录 /opt/greenplum (这个目录需要跟其他旧机器保持一致,同时将文件夹所有权赋予gpadmin用户)

1.4、和之前安装GPDB一样,压缩并拷贝master机器上的 /opt/greenplum/greenplum-db-4.3.17.0安装包到新机器上,并解压,解压后建立软连接

[gpadmin@localhost greenplum]$ ln -s greenplum-db-4.3.17.0/ greenplum-db

二、开始迁移数据

迁移设置的目的是,让原有的机器通过组合一半Primary+Mirror暂时先设置为Primary,并且设置为不同步数据;然后将另外一半需要迁移的Primary+Mirror的状态都设置为宕机了,同时都设置为Mirror,并且设置为同步数据中;这样先将数据库启动起来,数据库检查发现有一半Mirror节点宕机了,就忽略了,然后利用其他的先启动,此时,数据库依然可以使用,我们通过GPDB自带的恢复工具,让他自动将宕机的Mirror都全量恢复,如此即可完成数据迁移

2.1、仅主机模式启动GPDB

[gpadmin@gpmaster ~]$ gpstart -m [gpadmin@gpmaster ~]$ PGOPTIOnS='-c gp_session_role=utility' psql #utility模式进入交互 testdb=# set allow_system_table_mods='dml' #设置为允许修改系统配置表

2.2、修改gp_segment_configuration 将要迁移的DB hostname/address 修改到对应的目标机器上,同时将status设置为d状态,role角色设置为m

2.3、修改gp_segment_configuration 将不需要迁移的DB role角色设置为p,mode设置为c,status设置为u

2.4、关闭数据库,gpstop,重启数据gpstart -a

有6台机器无法启动,被忽略了,但是正常启动了6台,所以可以使用 [gpadmin@gpmaster ~]$ gpstart -a

2.5、通过gpstate -m可以查看Mirror状态

3个Mirror是Fail,另外3个被当成主机启动了

2.6、执行全量恢复数据库

[gpadmin@gpmaster ~]$ gprecoverseg -F 可以查看到数据库已经启动恢复 开启另外一个窗口,运行gpstate -m可以查看恢复进度 需要等到所有的节点都恢复成Synchronized状态 等所有新机器都全量同步完毕之后,因为新机器都设置为Mirror,旧机器的Mirror有一部分被用于Primary,所以需要在运行gprecoverseg -r 让Mirror和Primary恢复正常 [gpadmin@gpmaster ~]$ gprecoverseg -r

2.8、最后,运行一下,检查是否所有的机器节点都正常了