5

数据迁移方案 - 四季青年

 9 months ago
source link: https://www.cnblogs.com/liucysun/p/17616746.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

数据迁移方案

1.1 背景和目的

在项目的高速发展期,项目需要不断的进行优化迭代用来满足用户所需,在此过程中,项目数据的安全迁移和共建共享将会变得频繁起来,怎么实现数据的合理化运用是项目快速发展期我们不可逃避的一个重要问题?为达成多项目之间数据共享及单项目数据量过大的优化迭代的目的,数据的迁移工作就是一个必不可少的重要环节。然而数据迁移工作是一件繁琐而庞杂的工程,凡事预则立,不预则废,没有一个合理的规划,工作只会拖沓混乱,最后拖了整个项目的后腿。因此,在项目数据迁移的前期准备工作期间,必须完成两件事,迁移目的必须明确,迁移计划必不可少。

1.2 数据迁移实施过程介绍

数据迁移是将数据从一个存储系统或环境迁移到另一个存储系统或环境的过程,在数据迁移前期,我们需要制定明确的迁移目标和实施流程,根据迁移的数据分类和业务的影响范围选择合适的迁移方式及制定合理的阶段性里程碑,明确迁移时间节点,制定详细的迁移排期计划,完成数据迁移前期的准备工作。

数据迁移实施过程中,我们需要按照合理的迁移规范,严格把控数据迁移的过程,根据业务需求,细化数据治理、数据映射和转换、数据迁移策略、数据验证和测试、数据迁移后处理、数据安全和权限管理、回滚和备份策略、文档总结等8个步骤,每一个环节都不可或缺,保障迁移后的数据能够满足新的业务需求,提高质量,降低迁移风险。

数据迁移完成后,需要对迁移数据进行管理配置,根据不同的角色及权限建立新业务的访问路径,在运行过程中需要建立监控机制,跟踪数据流向及数据展示效果,在一段时间内,搜集用户反馈建议,时刻优化数据源,提高数据质量。

1.3 数据迁移总体流

1757447-20230809142802134-1992120294.png

2. 需求分析

2.1 为什么要先确认需求

需求分析可以帮助实施者明确数据迁移的目标和需要达成的目的,让数据在迁移过程中更好的平稳过渡、弹性伸缩,同时为制定规范化的迁移方案提供有力依据。

需求分析可以帮助实施者定义数据迁移的业务范围和表字段,让数据迁移过程中更准确的治理数据、映射数据、转换数据及绑定数据。

需求分析可以帮助实施者制定数据质量标准,根据不同的业务需求对数据分阶层、画范围的进行管控,保障迁移数据的完整性、一致性、准确性、可用性和安全性。

2.2 需求分析实施流程

1757447-20230809141540146-71857041.png

2.3 需求分析涵盖内容

搜集迁移系统信息

收集源系统和目标系统的相关信息,包括操作系统、数据库类别、数据结构、数据类型、数据量、数据质量要求等。这将有助于评估迁移的复杂性和确定合适的迁移方法和工具

梳理迁移数据和字段信息

确定需要迁移的数据和字段,排除不必要的数据和字段,以避免数据冗余和迁移过程中的不必要复杂性

明确迁移时间,具体内容请查看章节《10.2 迁移的时间和计划

根据业务需求和目标,确定迁移的时间要求和限制,确保迁移可以在规定的时间内完成,并最小化对业务的影响。这包括迁移的时间窗口、业务运作的影响、迁移的优先级等

制定数据质量标准

评估源系统中的数据质量,提高数据的可用性、准确性、完整性和一致性。

制定数据清洗要求

根据业务需求和目标确定数据清理和修复的需求,明确哪些数据需要清洗和修复,并根据数据质量标准,衡量数据最终是否达标。

3. 数据清理和准备

3.1 分析现有数据的质量

3.1.1 完整性

完整性指的是数据信息是否存在缺失,数据缺失可能是整个数据记录缺失,也可能是数据中某个字段信息的记录缺失。不完整的数据所能借鉴的价值就会大大降低,也是数据质量更为基础的一项评估标准。

数据质量的完整性比较容易去评估,一般我们可以通过数据统计中的记录值和值进行评估。例如,网站日志日访问量就是一个记录值,平时的日访问量在 1000 左右,突然某一天降到100了,需要检查一下数据是否存在缺失了。再例如,网站统计地域分布情况的每一个地区名就是一个值,我国包括了32个省和直辖 市,如果统计得到的值小于32,则可以判断数据有可能存在缺失。

3.1.2 一致性

一致性是指数据是否遵循了统一的规范,数据集合是否保持了统一的格式。数据质量的一致性主要体现在数据记录的规范和数据是否符合逻辑。规范指的是,一项数据存在特定的格式,例如手机号码一定是13位的数字,IP地址一定 是由 4个0到255间的数字加上”.”组成的。逻辑指的是,多项数据间存在着固定的逻辑关系,例如PV一定是大于等于UV的,跳出率一定是在0到1之间的。

一般的数据都有着标准的编码规则,对于数据记录的一致性检验是较为简单的,只要符合标准编码规则即可,例如地区类的标准编码格式为“北京”而不是“北京市”,我们只需将相应的值映射到标准的值上就可以了。

3.1.3 准确性

准确性是指数据记录的信息是否存在异常或错误。和一致性不一样,存在准确性问题的数据不仅仅只是规则上的不一致。更为常见的数据准确性错误就如乱码。其次,异常的大或者小的数据也是不符合条件的数据。

数据质量的准确性可能存在于个别记录,也可能存在于整个数据集,例如数量级记录错误。这类错误则可以使用较大值和最小值的统计量去审核。

一般数据都符合正态分布的规律,如果一些占比少的数据存在问题,则可以通过比较其他数量少的数据比例,来做出判断。

当然如果统计的数据异常并不显著,但依然存在着错误,这类值的检查是更为困难的,需要通过复杂的统计分析对比找到蛛丝马迹,这里可以借助一些数据分析工具,那么具体的数据修正方法就不在这里介绍了。

3.1.4 可用性

可用性指的是数据在需要时能够及时、可靠地被访问和使用的能力,数据应该在适当的时间和地点上可用,以支持业务决策和操作,数据可用性可以通过数据备份、冗余部署和故障恢复计划等措施来实现。

3.2清理和修复数据中的错误和缺失

3.2.1 清洗和修复流程

1757447-20230809141611670-301253934.png

3.2.2 查找缺失值

查找缺失值是指在数据中定位并标识出缺失值的位置。

常见的缺失值表示方式包括NaN(Not a Number)、NULL、NA等。在PHP中,可以使用isset()、!(非)empty()等方式进行判断,在Python中,可以使用pandas库的isnull()函数来查找缺失值,该函数返回一个布尔类型的DataFrame,标识出每个元素是否为缺失值。

3.2.3 过滤缺失值

过滤缺失值是指将包含缺失值的行或列从数据集中删除。

这是一种处理缺失值的方法,适用于缺失值较多或对缺失值的影响较小的情况。

3.2.4 填充缺失值

填充缺失值是指用一定的方法或策略将缺失值替换为其他的非缺失值。

这是一种处理缺失值的方法,适用于缺失值较少或对缺失值的影响较大的情况。常见的填充方法包括使用均值、中位数、众数、前值、后值等。

3.3 需要迁移的数据

3.3.1 主数据

主数据是指组织中的核心业务实体、对象或概念,通常是与业务流程密切相关的数据。主数据包括客户、供应商、产品、员工等与业务操作直接相关的数据。主数据通常具有唯一性和长期性,并且在整个组织中被广泛共享和使用。

3.3.2 元数据

元数据是描述数据的数据,即数据的定义和属性信息。它提供了关于数据的背景、含义、结构和关系等信息。元数据可以包括数据的名称、数据类型、长度、格式、取值范围、关联关系等。元数据对于数据管理和数据分析非常重要,可以帮助用户理解和使用数据。

3.3.3 基础数据

基础数据是指组织中进行日常业务操作所产生的实际数据,它记录了组织的业务活动和交易。基础数据包括订单、销售记录、采购记录、交易记录等。基础数据通常是临时性的,用于支持组织的运营和决策,并且在一定时间后可能会被归档或删除。

3.3.4 结构化数据

结构化数据是指按照预定义的数据模型和格式进行组织和存储的数据。它通常以表格形式存在,具有明确定义的字段和数据类型。结构化数据可以通过关系型数据库管理系统(RDBMS)进行存储和查询,常见的结构化数据包括订单数据、客户信息、销售记录等。结构化数据易于处理和分析,可以进行复杂的数据查询和聚合分析。

3.3.5 非结构化数据

非结构化数据是指没有明确定义的数据模型和格式,以自由文本、图像、音频、视频等形式存在的数据。非结构化数据通常不适合直接存储在传统的关系型数据库中,而是存储在文件系统、文档数据库或对象存储中。常见的非结构化数据包括电子邮件、社交媒体帖子、图像和视频文件等。非结构化数据的特点是信息量大、复杂多样,需要使用自然语言处理、图像分析、音频处理等技术进行数据提取和分析。

3.4 数据表和字段

3.4.1 数据表结构

包括表名、列名、数据类型、约束等。需要确保目标数据库中存在相应的表结构。

3.4.2 数据表数据

需要迁移的具体数据行。可以通过导出源数据库的数据,然后导入到目标数据库中。

3.4.3 索引

如果源数据库中定义了索引,需要确保在目标数据库中也创建相应的索引。

3.4.4 触发器和存储过程

如果源数据库中有触发器和存储过程,需要将其迁移到目标数据库中。

3.4.5 视图

如果源数据库中有视图,需要将其迁移到目标数据库中。

3.4.6 默认值和自增字段

如果源数据库中的列有默认值或自增字段,需要确保目标数据库中的列也有相应的设置。

3.4.7 外键关系

如果源数据库中有外键关系,需要确保目标数据库中相应的表和列也存在,并且外键关系正确设置。

3.4.8 数据库配置

需要确保目标数据库的配置与源数据库的配置相匹配,例如字符集、排序规则等。

4. 数据映射和转换

4.1 分析现有数据和目标系统的数据结构差异

分析现有数据和目标系统的数据结构差异是数据迁移过程中的重要一步,它可以帮助您确定需要进行的数据转换和映射工作。以下是一些可以用于分析数据结构差异的方法和工具:

数据字典:查看现有数据和目标系统的数据字典,比较字段名称、数据类型、长度、约束等方面的差异。

数据模型比较工具:使用数据模型比较工具,比如ER/Studio、PowerDesigner等,可以将现有数据和目标系统的数据模型进行比较,找出差异。

数据抽取和样本分析:从现有数据和目标系统中抽取一部分样本数据进行分析,比较字段值、数据格式、数据精度等方面的差异。

数据转换规则:根据现有数据和目标系统的数据结构差异,制定数据转换规则,例如字段映射、数据格式转换、数据清洗等。

数据映射表:创建一个数据映射表,将现有数据和目标系统的字段进行对应,记录字段之间的映射关系,以便在数据迁移过程中进行数据转换。

数据质量评估:评估现有数据和目标系统数据的质量差异,比如数据完整性、准确性、一致性等方面的差异。

4.2 制定数据映射和转换规则

4.2.1 字段映射

将现有数据中的字段映射到目标系统中相应的字段。

将现有数据中的"姓名"字段映射到目标系统中的"First Name"和"Last Name"字段。

4.2.2 数据格式转换

将现有数据中的数据格式转换为目标系统所需的数据格式。

将现有数据中的日期字段转换为目标系统所需的日期格式。

4.2.3 数据清洗

清洗现有数据中的错误、缺失或不一致的数据。

去除现有数据中的重复记录、修复格式错误的数据、填充缺失的数据等。

4.2.4 数据合并和拆分

将现有数据中的多个字段合并为一个字段,或将一个字段拆分为多个字段。

将现有数据中的"地址"字段拆分为"省份"、"城市"和"街道"字段。

4.2.6 数据计算和推导

根据现有数据中的某些字段进行计算或推导,生成目标系统所需的数据。

根据现有数据中的"数量"和"单价"字段计算出"总价"字段。

4.2.7 数据值映射

将现有数据中的特定值映射为目标系统所需的值。

将现有数据中的"男"和"女"映射为目标系统中的"Male"和"Female"。

4.2.8 数据校验和修正

根据目标系统的规则和要求,对现有数据进行校验和修正。

检查现有数据中的电话号码是否符合目标系统的格式要求,并对不符合要求的电话号码进行修正。

4.2.9 数据标准化

将现有数据中的单位、名称等进行标准化,以符合目标系统的标准。

例如:将现有数据中的货币单位统一为目标系统所用的货币单位。

4.3 不同语言之间的数据类型映射关系

Java数据类型

Python数据类型

PHP数据类型

MySQL数据类型

double

float

float

FLOAT

String

string

VARCHAR

boolean

TINYINT

string

TINYINT

short

SMALLINT

BIGINT

float

float

float

FLOAT

BigDecimal

Decimal

DECIMAL

datetime

DateTime

DATETIME

LocalDate

LocalTime

LocalDateTime

datetime

DATETIME

Duration

timedelta

array

array

array

tuple

array

Object

object

object

complex

resource

function

callable

5. 数据迁移策略

5.1 数据迁移的方法

5.1.1 全量迁移

将源系统中的所有数据一次性迁移到目标系统中。适用于数据量较小或源系统不再使用的情况。

5.1.2 增量迁移

将源系统中的新增或更新数据定期迁移到目标系统中。适用于源系统仍在使用且需要保持数据同步的情况。

可以根据时间区分、自增ID区分的方式进行合理规范化的编写程序,增量迁移编写执行脚本的时候需要计算同步时间,同步期选择用户量较小的时候进行,比如凌晨1点到5点期间进行同步。

5.1.3 分批迁移

将源系统中的数据分批次迁移到目标系统中。适用于数据量庞大或迁移过程需要分阶段进行的情况。

5.1.4 并行迁移

同时在源系统和目标系统中进行数据迁移,以加快迁移速度。适用于迁移时间有限或需要快速完成迁移的情况。

5.1.5 压缩迁移

通过压缩数据或使用数据压缩算法来减少迁移过程中的数据量和传输时间。适用于网络带宽有限或数据量较大的情况。

5.1.6 实时迁移

实时迁移是指将数据实时或准实时地从源系统同步到目标系统。这种方法适用于对数据实时性要求较高的场景,例如数据仓库的增量加载或实时分析。

5.1.7 集中式迁移

集中式迁移是将数据从多个源系统集中迁移到一个目标系统。这种方法适用于数据整合、数据中心合并或系统统一的情况,可以实现数据的集中管理和统一访问。

5.1.8 分布式迁移

分布式迁移是将数据从一个源系统分布式地迁移到多个目标系统。这种方法适用于数据分片、负载均衡或数据复制的场景,可以提高迁移效率和系统可扩展性。

5.1.9 云迁移

1757447-20230809141734265-1360678965.png

云迁移是将数据从本地环境迁移到云平台或从一个云平台迁移到另一个云平台的过程。这种方法适用于云计算、混合云或多云环境下的数据迁移,可以利用云服务提供的工具和功能进行迁移。

5.2 数据迁移的工具

在选择数据迁移工具时,需要考虑以下因素:数据的复杂性、迁移的规模、迁移的时间计划、迁移的成本等。不同的工具有不同的特点和适用场景,需要根据具体需求和情况选择合适的工具。此外,还需要注意工具的稳定性、易用性和支持性,以确保迁移过程的顺利进行和数据的准确性。根据不同的迁移场景常用的工具如下:

ETL工具

ETL(Extract, Transform, Load)工具是一种常见的数据迁移工具,它可以从源系统中提取数据,对数据进行转换和清洗,然后将数据加载到目标系统中。常见的ETL工具包括Informatica PowerCenter、IBM DataStage、Microsoft SQL Server Integration Services(SSIS)等

数据库迁移工具

数据库迁移工具专门用于将数据从一个数据库平台迁移到另一个数据库平台。这些工具可以处理数据结构的转换、数据类型的映射、数据表的迁移等。常见的数据库迁移工具包括Oracle Data Pump、MySQL Workbench、Microsoft SQL Server Migration Assistant(SSMA)等

文件传输工具

文件传输工具可以帮助将数据文件从源系统传输到目标系统。这些工具可以处理大文件的传输、数据压缩和加密等。常见的文件传输工具包括FTP(File Transfer Protocol)、SFTP(Secure File Transfer Protocol)、SCP(Secure Copy)等

第三方数据迁移工具

还有许多第三方的数据迁移工具可供选择,这些工具提供了各种功能和特性,可以根据具体需求来选择。常见的第三方数据迁移工具包括AWS Database Migration Service、Azure Data Factory、Talend等

云备份工具

如果接入的是七牛云、百度云、阿里云等与备份服务,可以根据云手册提供的工具进行文件的迁移和备份,如果是相同的备份只需更改地址即可。

6. 数据验证和测试

6.1 迁移数据验证方法

6.1.1 数据对比验证法

数据对比验证法是最常用的数据迁移验证方法之一。它通过将源数据和目标数据进行对比,检查数据是否完全一致。常用的对比方式有逐行对比、逐列对比和逐表对比。逐行对比是将源数据和目标数据的每一行进行对比,逐列对比是将每一 列进行对比,逐表对比是将整个表进行对比。

将源系统和目标系统的数据进行对比,检查数据的一致性和完整性。可以使用比对工具、脚本或SQL查询来进行数据对比,比较数据行数、字段值等。通过对比,可以检测出数据迁移过程中可能存在的问题,如数据丢失、数据错误等。

6.1.2 数据抽样验证法

数据抽样验证法是通过抽取源数据和目标数据的一小部分数据进行对比,来验证整体数据的准确性。抽样验证可以节省时间和资源,并且能够发现大部分可能存在的问题。抽样时应该选择具有代表性的数据,并且要保证抽取的数据能够覆盖源数据和目标数据的各个方面。

从源系统和目标系统中随机选取一部分数据进行抽样检查。抽样数据应该代表整体数据的特征和分布,通过比较抽样数据的准确性来评估整体数据的质量。如果抽样数据的对比结果正常,那么可以认为整体数据的迁移是正确的。

6.1.3 数据一致性验证法

数据一致性验证法是通过验证源数据和目标数据在迁移过程中的一致性来验证数据迁移的正确性。在数据迁移过程中,可能会涉及到多个环节,如数据提取、数据转换、数据加载等。

数据一致性验证法要求在每个环节都进行验证,确保数据在整个迁移过程中保持一致。常用的验证方式有数据校验和数据重复检测。数据校验可以验证数据的完整性和准确性,数据重复检测可以检测数据是否存在重复记录。

6.1.4 数据回滚验证法

数据回滚验证法是为了确保在数据迁移出现问题时能够及时恢复到迁移前的状态。在进行数据迁移之前,应该先备份源数据,以便在出现问题时可以进行数据回滚。在数据迁移过程中,可以定期进行数据回滚测试,验证数据回滚的可行性和正确性。

数据回滚测试要包括恢复数据的时间, 恢复数据的完整性等方面的验证。

6.1.5 业务逻辑验证法

业务逻辑验证法是一种验证数据质量的方法,它通过检查数据是否符合预定义的业务逻辑规则来评估数据的准确性和完整性。这种方法可以帮助发现数据中的错误、异常和不一致之处。

根据业务需求和逻辑规则,验证迁移后数据的业务逻辑是否正确。可以通过编写脚本、执行业务流程或进行业务规则检查来验证数据的准确性。

6.2 进行数据对比和一致性检查

6.2.1 数据校验规则

定义数据校验规则和约束条件,对迁移后的数据进行验证。校验规则可以包括数据类型、范围、格式、关联关系等,通过执行校验规则来检查数据的准确性和一致性。

6.2.2 数据可视化

使用数据可视化工具或报表来展示迁移后的数据,并进行人工审核和比较。可视化可以帮助发现数据异常、重复或缺失等问题,并进行修复和调整。

6.3 迁移数据测试

6.3.1 数据回归测试

在迁移后的系统上执行回归测试,验证迁移后数据的准确性和功能性。回归测试应该覆盖关键业务流程和功能,以确保迁移后数据的正常运行和正确性。

6.3.2 用户验收测试

邀请用户参与迁移后数据的验收测试,验证数据的准确性和满足用户需求。用户验收测试应该根据用户需求和使用场景,进行全面的功能测试和数据验证。

1757447-20230809141823411-1685909877.png

6.3.3 数据执行性能测试

执行性能测试一般分为:

负载测试、压力测试、基准测试、稳定性测试、扩展性测试。

常见的性能测试指标:

响应时间、TPS/QPS、并发用户、PV/UV、点击率、吞吐量、资源开销。

性能测试流程:

1757447-20230809141858577-1698829889.png

7. 数据迁移后处理

7.1 不同类型数据库更新索引和关联数据方式

数据库

更新索引

更新关联数据

MySQL

使用ALTER TABLE语句添加、删除或修改索引

使用UPDATE语句更新关联数据

PostgreSQL

使用CREATE INDEX、DROP INDEX或ALTER TABLE语句添加、删除或修改索引

使用UPDATE语句更新关联数据

Oracle

使用CREATE INDEX、DROP INDEX或ALTER TABLE语句添加、删除或修改索引

使用UPDATE语句更新关联数据

SQL Server

使用CREATE INDEX、DROP INDEX或ALTER TABLE语句添加、删除或修改索引

使用UPDATE语句更新关联数据

MongoDB

使用createIndex()、dropIndex()或reIndex()方法添加、删除或修改索引

使用update()方法更新关联数据

Redis

使用ZADD、ZREM或ZINCRBY命令添加、删除或修改有序集合的索引

使用HSET、HDEL或HINCRBY命令更新关联数据

7.2 执行数据校验及修复流程

1757447-20230809141930501-1322029975.png

数据备份:在执行任何数据校验和修复操作之前,务必先对数据库进行备份,以防止意外数据丢失。

数据校验:使用数据库提供的工具或查询语句进行数据校验,以发现可能存在的问题。常见的校验方法包括:

l 校验表结构:检查表的字段、约束、索引等是否符合预期。

l 校验数据完整性:检查外键关联是否正确、数据类型是否正确、必填字段是否为空等。

l 校验数据一致性:检查数据之间的逻辑关系是否一致,如日期范围、数值范围等。

数据修复:根据校验结果,对发现的问题进行修复。修复方法可能包括:

l 更新数据:使用UPDATE语句或相应的数据库工具,对数据进行修正或更新。

l 删除数据:使用DELETE语句或相应的数据库工具,删除无效、重复或不一致的数据。

l 插入数据:根据需要,插入缺失的数据或修复关联关系。

重新校验:在执行修复操作后,再次进行数据校验,确保问题已经得到解决。

数据恢复:如果在修复过程中发生了错误或数据丢失,可以使用之前备份的数据进行恢复。

7.3 数据迁移完成并通知相关人员

以工作邮件的形式通知到相关的负责人,并在TAPD的任务清单填写备注及附件,留好备份,以便后期查看。

8. 安全和权限管理

8.1 迁移过程中如何保障数据安全

1757447-20230809142016364-451045809.png

8.1.1 数据加密

在进行数据迁移之前,对敏感数据进行加密处理,确保数据在传输和存储过程中的安全性。可以使用加密算法和安全协议来保护数据的机密性和完整性。

8.1.2 访问控制

在数据迁移过程中,设置严格的访问控制措施,限制只有授权的人员才能进行数据迁移操作。可以使用身份验证、权限管理和访问日志等方式来确保数据只能被授权人员访问和操作。

8.1.3 网络安全

在数据迁移过程中,确保网络连接的安全性,采用安全的网络传输协议(如HTTPS),防止数据在传输过程中被窃取或篡改。同时,可以使用防火墙和入侵检测系统等网络安全设备来保护数据的安全。

8.1.4 监控和日志记录

在数据迁移过程中,设置监控和日志记录机制,实时监测数据迁移的状态和异常情况。可以记录操作日志、网络日志和异常日志等,及时发现和处理潜在的安全问题。

8.1.5 数据备份和恢复

在进行数据迁移之前,进行数据备份,确保在迁移过程中出现问题时能够快速恢复数据。同时,定期进行数据备份,以防止数据丢失或损坏。

8.1.6 安全审计

在数据迁移完成后,进行安全审计,对迁移过程中的安全性进行评估和验证。可以通过安全扫描、漏洞评估和安全审计工具等方式来检测和修复潜在的安全漏洞。

8.2 配置权限和访问控制

8.2.1 配置数据库访问权限

在数据库中创建用户账户,为每个用户分配唯一的用户名和密码。确保每个用户都有独立的身份和访问权限。

在数据库中进行细粒度的权限控制,即根据具体的表、列和操作,设置相应的权限级别。可以设置表级别权限、列级别权限和行级别权限,确保用户只能访问和操作其所需的数据。

限制数据库的访问方式,只允许通过安全的连接方式进行访问,如SSL连接或SSH隧道。禁止直接通过网络访问数据库,减少被攻击的风险。

设置主从数据库的读写分离,修改数据库配置文件,增加数据库并发反问控制。

开启数据库的审计日志功能,记录用户的操作和系统的访问情况。可以记录用户登录信息、SQL语句执行记录、异常事件等,以便后续的安全审计和问题追溯。

8.2.2 配置系统文件访问权限

在文件系统中,每个文件和目录都有一组权限,包括读取(r)、写入(w)和执行(x)权限。使用chmod命令来设置文件权限,确保只有授权的用户或组才能访问和修改文件。

在系统中创建不同的用户和用户组,并将文件分配给相应的用户和用户组。通过用户和用户组的管理,可以实现对文件的访问控制和权限分配。为每个用户和用户组分配最小的权限。即只给予用户和用户组所需的权限,避免权限过大导致的潜在风险;为每个文件和目录指定所有者和所属组。通过chown命令来修改文件的所有者和所属组,确保只有所有者和所属组的成员才能访问和修改文件。

某些操作系统支持文件系统ACL,可以为每个文件和目录设置更细粒度的权限控制。通过设置ACL规则,可以控制特定用户或用户组对文件的访问权限。

8.2.3 配置业务流程中用户角色和操作权限

在目标系统中设置用户和角色管理功能,对用户进行分类和分组,并分配相应的权限。可以根据用户的职责和工作需要,设置不同的角色,并为每个角色分配对应的权限。

根据具体的操作和功能,设置相应的权限级别。可以设置读写权限、操作权限、数据访问权限等,确保用户只能访问和操作其所需的数据和功能。

8.2.4 配置云服务对象存储访问权限

在云服务提供商的控制台中创建访问密钥,包括Access Key和Secret Key,设置访问控制列表,控制存储的访问权限,设置对象存储的访问地址,不同环境使用不同的对象存储空间,设置公有访问或私有访问,根据需求设置合适的权限,如果需要从不同的域名或来源访问存储桶中的对象,可以配置CORS规则,定义允许的来源和请求方法。

8.3 审计数据迁移操作和访问记录

审计数据迁移操作和访问记录是一种监控和记录数据迁移过程和访问行为的方法,旨在确保数据迁移的安全性、合规性和可追溯性。通过审计数据迁移操作和访问记录,可以帮助发现潜在的安全风险、违规行为和数据质量问题。

审计流程

审计内容

审计详细

定义审计要求

确定需要审计的数据迁移操作和访问行为

包括数据迁移的起始和结束时间、迁移的源和目标系统、迁移的数据量和频率,以及对数据的访问权限和操作权限等

部署审计工具和技术

选择适当的审计工具和技术来记录和监控数据迁移操作和访问行为

包括日志记录、审计跟踪工具、安全信息和事件管理系统(SIEM)等

记录数据迁移操作

对数据迁移操作进行详细记录,包括迁移的时间、迁移的数据量、迁移的源和目标系统,以及执行迁移操作的用户信息等

记录应该包括成功的迁移操作和失败的迁移操作,以及失败的原因和处理方法

监控数据访问行为

监控对数据的访问行为,包括读取、写入、修改和删除等操作

记录访问的时间、访问的数据对象、访问的用户信息和访问的目的等。监控可以通过访问日志、审计跟踪和安全监控等方式进行

分析和报告审计结果

对记录的数据迁移操作和访问行为进行分析,识别潜在的安全风险、违规行为和数据质量问题

生成审计报告,包括发现的问题、问题的原因和建议的解决方法等

定期审查和持续改进

定期审查审计结果,并根据发现的问题和建议进行改进

持续改进审计策略、工具和技术,以提高数据迁移操作和访问记录的效果和可靠性

9. 回滚和备份策略

9.1 数据物理备份方式

9.1.1 冷备份

冷备份是在系统停机状态下进行的备份操作。在进行冷备份时,系统和应用程序都会被关闭,然后备份数据到存储介质中。冷备份可以提供数据的完整性和一致性,因为备份时数据不会发生变化。冷备份的缺点是备份过程需要停机,可能会导致系统的不可用性和业务中断。因此,冷备份通常适用于对系统可用性要求不高的场景,如非关键业务系统或备份大量数据的情况。

9.1.2 热备份

热备份是在系统正常运行状态下进行的备份操作。在进行热备份时,系统和应用程序都保持运行状态,备份程序通过读取正在使用的数据来进行备份。热备份可以提供连续的数据保护,不会中断业务运行。然而,由于备份时数据可能正在被修改,热备份可能会导致数据一致性问题。因此,在进行热备份时,通常需要使用一些技术手段,如事务日志或快照来确保备份数据的一致性。热备份适用于对系统可用性要求较高的场景,如关键业务系统或需要实时备份的情况。

9.1.3 温备份

温备份介于冷备份和热备份之间,既不需要完全停机,也不需要实时备份。在进行温备份时,可以选择在系统的低峰期或非关键时间段进行备份操作。温备份可以在一定程度上减少对系统的影响,同时提供较高的数据一致性。温备份适用于对系统可用性要求一般的场景,如中小型业务系统或备份较少数据的情况。

9.2 数据备份策略

9.3.1 定期备份

根据数据的重要性和变化频率,制定定期备份计划。可以选择每天、每周或每月进行备份。

9.3.2 完全备份

进行完全备份,将所有数据都备份到存储介质中。这种备份方式可以提供最全面的数据恢复能力,但备份时间和存储空间需求较大。

9.3.3 增量备份

只备份自上次备份以来发生变化的数据。这种备份方式可以减少备份时间和存储空间的需求,但恢复时需要依赖完整备份和增量备份的组合。

9.3.4 差异备份

备份自上次完全备份以来发生变化的数据。与增量备份相比,差异备份只备份变化的部分,恢复时只需要依赖完整备份和最近一次差异备份。

9.3 备份存储方式

9.3.1 本地备份存储

选择适合的存储介质来存储备份数据,如磁带、硬盘、云存储等。可以根据备份的容量、速度和成本等因素进行选择。本地备份可以提供快速的数据恢复速度,但可能存在风险,如硬件故障、自然灾害等。

1757447-20230809142111972-2066771557.png

9.3.2 异地备份存储

将备份数据存储在不同的地理位置,以提高数据的可靠性和灾难恢复能力。可以选择本地备份和远程备份的组合,确保数据的安全性和可恢复性。

1757447-20230809142136265-770967834.png

 

9.4 制定数据迁移的回滚策略

9.4.1 数据备份恢复

在数据迁移之前,首先对原始数据进行备份。如果在迁移过程中出现问题,可以使用备份数据进行恢复,将数据回滚到原始状态。

9.4.2 事务回滚

对于支持事务的数据库系统,可以使用事务回滚机制进行数据回滚。在迁移过程中,将所有的操作包裹在一个事务中,如果出现问题,可以回滚事务,将数据恢复到事务开始之前的状态。

9.4.3 数据同步回滚

如果在数据迁移过程中只是部分数据已经迁移,可以通过数据同步回滚来恢复数据。即将已经迁移的数据删除或者覆盖,重新进行迁移。

9.4.4 版本控制回滚

在数据迁移过程中,可以使用数据版本控制工具,如Git,记录和管理每个迁移步骤的数据变更。如果出现问题,可以回滚到之前的数据版本。

9.4.5 数据转储回滚

在数据迁移过程中,将原始数据转储到一个临时存储区域。如果出现问题,可以将转储的数据重新加载到源数据库中,实现数据回滚。

9.4.6 数据镜像回滚

在数据迁移过程中,可以使用数据镜像技术,将源数据库的数据实时镜像到目标数据库。如果出现问题,可以停止数据镜像,并将目标数据库恢复到镜像开始之前的状态。

9.4.7 文件系统快照回滚

对于存储在文件系统中的非结构化数据,可以使用文件系统的快照功能来进行回滚。在进行数据迁移之前,可以创建一个文件系统快照,如果迁移过程中出现问题,可以将文件系统回滚到快照创建时的状态。

10. 文档编写和总结

10.1 文档产出

《迁移计划方案》

《迁移排期计划表》

《迁移时间表》

《数据清单》

《验证和测试文档》

《用户反馈表》

《监控和日志文档》

《数据回滚策略文档》

《迁移后数据操作文档》

《数据迁移脚本说明文档》

《数据存储及恢复说明》

10.2 迁移的时间和计划

10.2.1 迁移时间表

以下是一个简单的数据迁移时间表模板,您可以根据实际情况进行调整和填充:

数据需求分析

目标系统准备

数据清洗和转换

数据迁移策略

数据验证和测试

数据迁移后处理

数据回滚和备份

迁移总计和报告编写

在填写时间表时,需要考虑以下几点:

1) 任务名称:明确每个任务的名称和描述,以便清晰地了解迁移过程中的每个步骤。

2) 前置工作:明确每个任务开始的必要因素,让每个任务都能层层相扣、一目了然。

3) 开始日期和完成日期:根据实际情况确定每个任务的开始和完成日期。可以根据任务的复杂性和工作量来合理安排时间。

4)负责人:指定每个任务的负责人,确保任务的责任和可追溯性。

在填写时间表时,要考虑到数据迁移的复杂性和可能出现的问题。建议预留一些缓冲时间来处理潜在的延迟或困难,以确保整个迁移过程的顺利进行。

请注意,这只是一个简单的模板,实际的数据迁移时间表可能会更加复杂和详细。根据具体情况进行调整和定制,以满足您的需求。

10.2.2 迁移排期计划表

数据迁移计划表,可以根据实际情况选择,比如使用excel或者甘特图工具都可以进行设计,迁移计划表,必须详细梳理每一个细节任务,每个任务的最小单位以小时为主,如无特殊情况,不建议单个任务超过一天的任务(以8小时/天为单位计),详细计划表必须包含:序号、任务名称、任务详细、任务等级、任务时长、开始时间、结束时间、实际完成时间、前置任务、实施进度、完成情况、责任人、备注及工作进度一览表。

实际完成时间

10.3 收集用户的反馈表

序号

问题描述

环境信息

步骤重现

实际结果

问题严重程度

测试人员信息

处理状态

用户满意度评价

问题描述:描述在测试过程中遇到的问题。

环境信息:描述测试所使用的环境信息,如测试环境、浏览器/设备等。

步骤重现:描述如何重现问题的详细步骤。

实际结果:记录实际观察到的功能行为或结果。

问题严重程度:对问题的严重程度进行评级,如高中低等。

测试人员信息:记录测试人员的姓名和联系方式。

处理状态:记录问题的当前处理状态。

用户满意度评价:记录用户对问题解决方案的满意度评级。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK