云服务器内容精选

  • 设置开机自动挂载磁盘分区 您可以通过配置fstab文件,设置弹性云服务器系统启动时自动挂载磁盘分区。已有数据的弹性云服务器也可以进行设置,该操作不会影响现有数据。 本文介绍如何在fstab文件中使用UUID来设置自动挂载磁盘分区。不建议采用在“/etc/fstab”直接指定设备名(比如/dev/vdb1)的方法,因为云中设备的顺序编码在关闭或者开启弹性云服务器过程中可能发生改变,例如/dev/vdb1可能会变成/dev/vdb2,可能会导致弹性云服务器重启后不能正常运行。 UUID(universally unique identifier)是Linux系统为磁盘分区提供的唯一的标识字符串。 执行如下命令,查询磁盘分区的UUID。 blkid 磁盘分区 以查询磁盘分区“/dev/vdb1”的UUID为例: blkid /dev/vdb1 回显类似如下信息: [root@ecs-test-0001 ~]# blkid /dev/vdb1 /dev/vdb1: UUID="0b3040e2-1367-4abb-841d-ddb0b92693df" TYPE="ext4" 记录下回显中磁盘分区“/dev/vdb1”的UUID,方便后续步骤使用。 执行以下命令,使用VI编辑器打开“fstab”文件。 vi /etc/fstab 按“i”,进入编辑模式。 将光标移至文件末尾,按“Enter”,添加如下内容。 UUID=0b3040e2-1367-4abb-841d-ddb0b92693df /mnt/sdc ext4 defaults 0 2 以上内容仅为示例,具体请以实际情况为准,参数说明如下: 第一列为UUID,此处填写1中查询到的磁盘分区的UUID。 第二列为磁盘分区的挂载目录,可以通过df -TH命令查询。 第三列为磁盘分区的文件系统格式, 可以通过df -TH命令查询。 第四列为磁盘分区的挂载选项,此处通常设置为defaults即可。 第五列为Linux dump备份选项。 0表示不使用Linux dump备份。现在通常不使用dump备份,此处设置为0即可。 1表示使用Linux dump备份。 第六列为fsck选项,即开机时是否使用fsck检查磁盘。 0表示不检验。 挂载点为(/)根目录的分区,此处必须填写1。 根分区设置为1,其他分区只能从2开始,系统会按照数字从小到大依次检查下去。 按“ESC”后,输入“:wq”,按“Enter”。 保存设置并退出编辑器。 执行以下步骤,验证自动挂载功能。 执行如下命令,卸载已挂载的分区。 umount 磁盘分区 命令示例: umount /dev/vdb1 执行如下命令,将“/etc/fstab”文件所有内容重新加载。 mount -a 执行如下命令,查询文件系统挂载信息。 mount | grep 挂载目录 命令示例: mount | grep /mnt/sdc 回显类似如下信息,说明自动挂载功能生效: root@ecs-test-0001 ~]# mount | grep /mnt/sdc /dev/vdb1 on /mnt/sdc type ext4 (rw,relatime,data=ordered)
  • 操作场景 通过云服务管理控制台扩容成功后,仅扩大了云硬盘的存储容量,因此需要参考本章节操作扩展分区和文件系统。 对于Linux操作系统而言,需要将扩容部分的容量划分至已有分区内,或者为扩容部分的云硬盘分配新的分区。 本文以“CentOS 7.4 64位”操作系统为例,提供针对SCSI数据盘的MBR分区的操作指导。不同操作系统的操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应操作系统的产品文档。 新增MBR分区 扩大已有MBR分区 扩容时请谨慎操作,误操作可能会导致数据丢失或者异常,建议扩容前对数据进行备份,可以使用CBR或者快照功能,CBR请参见管理备份云硬盘,快照功能请参见创建快照(公测)。 当操作系统内核低于3.6.0时,扩大已有MBR分区需要reboot重启,扩展分区和文件系统才会生效,会中断业务。reboot重启后,新增容量会自动扩展至系统盘末尾分区内。 如果您不希望重启弹性云服务器来扩展分区和文件系统,您可以先将该数据盘中的业务数据迁移至弹性云服务器中的其他磁盘,然后卸载该数据盘,并将其挂载至其他内核大于3.6.0的弹性云服务器上来扩展磁盘分区和文件系统,扩展完成后再将其挂载回原始弹性云服务器,最后再将业务数据迁移回该磁盘。迁移数据有风险,请提前做好备份。扩容内核大于3.6.0的弹性云服务器上的分区和文件系统请参见扩展磁盘分区和文件系统(Linux)。
  • 操作步骤 使用root用户登录云服务器。 执行以下命令,查看RAID阵列的UUID等信息。 mdadm --detail --scan 回显类似如下信息: [root@ecs-raid10 ~]# mdadm --detail --scan ARRAY /dev/md0 metadata=1.2 name=ecs-raid10.novalocal:0 UUID=f400dbf9:60d211d9:e006e07b:98f8758c 执行以下步骤,在mdadm文件中添加新建RAID阵列的信息。 执行以下命令,打开“mdadm.conf”文件。 vi /etc/mdadm.conf 按“i”进入编辑模式。 参考以下示例,在文件最后添加如下配置: DEVICE /dev/vdb /dev/vdc /dev/vdd /dev/vde ARRAY /dev/md0 metadata=1.2 name=ecs-raid10.novalocal:0 UUID=f400dbf9:60d211d9:e006e07b:98f8758c 说明如下: DEVICE行:为组建RAID阵列的磁盘设备名,多个磁盘设备名以空格隔开。 ARRAY行:此处填写2中查到的RAID阵列信息。 此处仅为本示例的信息,请根据RAID阵列的实际信息添加。 按“Esc”,输入“:wq!”,并按“Enter”。 保存设置并退出vi编辑器。 执行以下命令,查看“mdadm.conf”文件是否修改成功。 more /etc/mdadm.conf 回显类似如下信息: [root@ecs-raid10 ~]# more /etc/mdadm.conf DEVICE /dev/vdb /dev/vdc /dev/vdd /dev/vde ARRAY /dev/md0 metadata=1.2 name=ecs-raid10.novalocal:0 UUID=f400dbf9:60d211d9:e006e07b:98f8758c 可以看到3中添加的信息,表示修改成功。
  • 操作步骤 使用root用户登录云服务器。 执行以下命令,查看磁盘并记录设备名称。 fdisk -l | grep /dev/vd | grep -v vda 回显类似如下信息: [root@ecs-raid10 ~]# fdisk -l | grep /dev/vd | grep -v vda Disk /dev/vdb: 10.7 GB, 10737418240 bytes, 20971520 sectors Disk /dev/vdc: 10.7 GB, 10737418240 bytes, 20971520 sectors Disk /dev/vdd: 10.7 GB, 10737418240 bytes, 20971520 sectors Disk /dev/vde: 10.7 GB, 10737418240 bytes, 20971520 sectors 可以看到云服务器上挂载的4块磁盘,设备名称分别为“/dev/vdb”、“/dev/vdc”、“/dev/vdd”和“/dev/vde”。 执行以下命令,安装mdadm工具。 yum install mdadm -y mdadm是Linux下的RAID管理工具,务必确保安装mdadm工具的云服务器已开通弹性公网IP。 回显类似如下信息: [root@ecs-raid10 ~]# yum install mdadm -y ...... Installed: mdadm.x86_64 0:4.0-13.el7 Dependency Installed: libreport-filesystem.x86_64 0:2.1.11-40.el7.centos Complete! 执行以下命令,使用2中查到的4块磁盘创建RAID阵列。 mdadm -Cv RAID阵列设备名 -a yes -n 磁盘数量 -l RAID级别 磁盘1设备名 磁盘2设备名 磁盘3设备名 磁盘4设备名... 参数说明如下: RAID阵列设备名:可自定义,此处以/dev/md0为例。 磁盘数量:根据实际情况填写,此处RAID10至少为4块。 不同的RAID阵列要求的最小磁盘数量不同,具体说明请参见方案概述。 RAID级别:根据实际情况填写,此处以RAID10为例。 磁盘设备名:此处需要填写待组建RAID阵列的所有磁盘设备名,中间以空格隔开。 命令示例: mdadm -Cv /dev/md0 -a yes -n 4 -l 10 /dev/vdb /dev/vdc /dev/vdd /dev/vde 回显类似如下信息: [root@ecs-raid10 ~]# mdadm -Cv /dev/md0 -a yes -n 4 -l 10 /dev/vdb /dev/vdc /dev/vdd /dev/vde mdadm: layout defaults to n2 mdadm: layout defaults to n2 mdadm: chunk size defaults to 512K mdadm: size set to 10476544K mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md0 started. 执行以下命令,格式化新建的RAID阵列。 mkfs.文件格式 RAID阵列设备名 命令示例: mkfs.ext4 /dev/md0 回显类似如下信息: [root@ecs-raid10 ~]# mkfs.ext4 /dev/md0 mke2fs 1.42.9 (28-Dec-2013) Filesystem label= OS type: Linux Block size=4096 (log=2) Fragment size=4096 (log=2) Stride=128 blocks, Stripe width=256 blocks 1310720 inodes, 5238272 blocks 261913 blocks (5.00%) reserved for the super user First data block=0 Maximum filesystem blocks=2153775104 160 block groups 32768 blocks per group, 32768 fragments per group 8192 inodes per group Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 4096000 Allocating group tables: done Writing inode tables: done Creating journal (32768 blocks): done Writing superblocks and filesystem accounting information: done 执行以下命令,创建挂载目录。 mkdir 挂载目录 命令示例: mkdir /RAID10 执行以下命令,挂载RAID阵列设备名。 mount RAID阵列设备名 挂载目录 命令示例: mount /dev/md0 /RAID10 执行以下命令,查看RAID阵列的挂载结果。 df -h 回显类似如下信息: [root@ecs-raid10 ~]# df -h Filesystem Size Used Avail Use% Mounted on /dev/vda2 39G 1.5G 35G 5% / devtmpfs 911M 0 911M 0% /dev tmpfs 920M 0 920M 0% /dev/shm tmpfs 920M 8.6M 911M 1% /run tmpfs 920M 0 920M 0% /sys/fs/cgroup /dev/vda1 976M 146M 764M 17% /boot tmpfs 184M 0 184M 0% /run/user/0 /dev/md0 20G 45M 19G 1% /RAID10 执行以下步骤,设置云服务器系统启动时自动挂载RAID阵列。 执行以下命令,打开“/etc/fstab”文件。 vi /etc/fstab 按“i”进入编辑模式。 回显类似如下信息: [root@ecs-raid10 ~]# vi /etc/fstab # # /etc/fstab # Created by anaconda on Tue Nov 7 14:28:26 2017 # # Accessible filesystems, by reference, are maintained under '/dev/disk' # See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info # UUID=27f9be47-838b-4155-b20b-e4c5e013cdf3 / ext4 defaults 1 1 UUID=2b2000b1-f926-4b6b-ade8-695ee244a901 /boot ext4 defaults 1 2 参考以下示例,在文件的最后一行添加如下配置: /dev/md0 /RAID10 ext4 defaults 0 0 按“Esc”,输入“:wq!”,并按“Enter”。 保存设置并退出vi编辑器。 执行以下命令,查看磁盘RAID阵列的信息。 mdadm -D RAID阵列设备名 命令示例: mdadm -D /dev/md0 回显类似如下信息: [root@ecs-raid10 ~]# mdadm -D /dev/md0 /dev/md0: Version : 1.2 Creation Time : Thu Nov 8 15:49:02 2018 Raid Level : raid10 Array Size : 20953088 (19.98 GiB 21.46 GB) Used Dev Size : 10476544 (9.99 GiB 10.73 GB) Raid Devices : 4 Total Devices : 4 Persistence : Superblock is persistent Update Time : Thu Nov 8 16:15:11 2018 State : clean Active Devices : 4 Working Devices : 4 Failed Devices : 0 Spare Devices : 0 Layout : near=2 Chunk Size : 512K Consistency Policy : resync Name : ecs-raid10.novalocal:0 (local to host ecs-raid10.novalocal) UUID : f400dbf9:60d211d9:e006e07b:98f8758c Events : 19 Number Major Minor RaidDevice State 0 253 16 0 active sync set-A /dev/vdb 1 253 32 1 active sync set-B /dev/vdc 2 253 48 2 active sync set-A /dev/vdd 3 253 64 3 active sync set-B /dev/vde
  • 出现错误或失败的云硬盘该如何处理 目前云硬盘有以下异常状态,当处于这些状态时,请参考下面处理建议。 表1 云硬盘异常状态处理建议 异常状态 建议 错误 您可以删除错误状态的云硬盘后再重新创建。 如果是创建按需付费的云硬盘时出现错误,不会产生费用。 如果是创建包年包月的云硬盘时出现错误,客服会主动帮您解决此问题。如果您对客服响应速度有要求,请主动联系。 删除失败 请联系客服解决。 扩容失败 客服会主动帮您解决此问题,在此之前建议不要对该云硬盘做其他操作。如果您对客服响应速度有要求,请主动联系。 恢复数据失败 客服会主动帮您解决此问题,在此之前建议不要对该云硬盘做其他操作。如果您对客服响应速度有要求,请主动联系。 回滚数据失败 您可以再次将快照数据回滚到云硬盘。 父主题: 云硬盘通用问题
  • 重装/切换操作系统/变更规格对磁盘数据有影响吗? 表1 重装/切换操作系统/变更规格对磁盘数据的影响 操作类型 重装操作系统 切换操作系统 变更规格 功能简介 还原服务器的初始化状态。 重装前后操作系统不发生改变。 将现有的操作系统切换为不同镜像类型的操作系统。 中国大陆外区域(包括中国港澳台及其他国家、地区)不支持Windows镜像和Linux镜像之间的切换。 更多约束限制请参考切换操作系统。 云服务器规格无法满足业务需要时,通过变更规格,升级vCPU、内存。 是否收费 重装动作不收费。 重装前后操作系统不变,计费项不发生改变。 切换动作不收费。 切换后,系统将根据您选择的产品重新计费。 具体收费请参见产品价格详情。 变更规格动作不收费。 但变更规格会引起费用的变化。 具体费用说明请参见变更资源费用说明。 IP是否发生改变 私有IP、弹性公网IP、MAC地址均不发生改变。 私有IP、弹性公网IP、MAC地址均不发生改变。 私有IP、弹性公网IP、MAC地址均不发生改变。 对系统盘数据的影响 重装操作系统会清除系统盘数据,包括系统盘上的系统分区和所有其它分区,请做好数据备份。 切换操作系统清除系统盘数据,包括系统盘上的系统分区和所有其它分区,请做好数据备份。 不影响系统盘数据。 对数据盘数据的影响 不影响数据盘数据。 不影响数据盘数据。 不影响数据盘数据。 是否需要做备份 重装会清除系统盘数据,建议制作系统盘备份。 切换操作系统会清除系统盘数据,建议制作系统盘备份。 为防止变更规格后系统盘数据丢失,建议制作系统盘快照。 父主题: 云硬盘通用问题
  • 方法二:使用parted命令查看分区形式和文件系统 执行以下命令,查看弹性云服务器挂载的所有磁盘情况。 lsblk 回显类似如下信息: [root@ecs-test-0001 ~]# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT vda 253:0 0 40G 0 disk └─vda1 253:1 0 40G 0 part / vdb 253:16 0 150G 0 disk └─vdb1 253:17 0 100G 0 part /mnt/sdc 本示例中数据盘“/dev/vdb”扩容前已有分区“/dev/vdb1”,将数据盘扩容50GiB后,新增的容量还未划分磁盘分区,因此“/dev/vdb”显示150GiB,“/dev/vdb1”显示100GiB。 如果执行了lsblk,发现磁盘“/dev/vdb”没有分区,针对这种没有分区的磁盘,扩容后的容量可能无法正常使用,解决方法请参见Linux系统扩容数据盘时,如何扩展未分区磁盘文件系统。 执行以下命令,指定一块磁盘,然后输入“p”,查看磁盘的分区形式。 parted 磁盘 以查看“/dev/vdb”的分区形式为例: parted /dev/vdb 回显类似如下信息: [root@ecs-test-0001 ~]# parted /dev/vdb GNU Parted 3.1 Using /dev/vdb Welcome to GNU Parted! Type 'help' to view a list of commands. (parted) p Error: The backup GPT table is not at the end of the disk, as it should be. This might mean that another operating system believes the disk is smaller. Fix, by moving the backup to the end (and removing the old backup)? Fix/Ignore/Cancel? Fix Warning: Not all of the space available to /dev/vdb appears to be used, you can fix the GPT to use all of the space (an extra 104857600 blocks) or continue with the current setting? Fix/Ignore? Fix Model: Virtio Block Device (virtblk) Disk /dev/vdb: 161GiB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 107GiB 107GiB ext4 test (parted) “Partition Table”表示当前磁盘的分区形式,“Partition Table:msdos”表示磁盘分区形式为MBR,“Partition Table:gpt”表示磁盘分区形式为GPT,“Partition Table:loop”表示磁盘分区形式为整盘分区。 如果系统出现以下Error,请输入“Fix”。 Error: The backup GPT table is not at the end of the disk, as it should be. This might mean that another operating system believes the disk is smaller. Fix, by moving the backup to the end (and removing the old backup)? GPT分区表信息存储在磁盘开头,为了减少分区表损坏的风险,同时在磁盘末尾会备份一份。当磁盘容量扩大后,末尾位置也会随之变化,因此需要根据系统提示输入“Fix”,将分区表信息的备份文件挪到新的磁盘末尾位置。 如果系统出现以下Warning,请输入“Fix”。 Warning: Not all of the space available to /dev/vdb appears to be used, you can fix the GPT to use all of the space (an extra 104857600 blocks) or continue with the current setting? Fix/Ignore? Fix 根据系统提示输入“Fix”,系统会自动将磁盘扩容部分的容量设置为GPT。 查看完成后,输入“q”,退出parted模式。
  • 方法一:使用fdisk命令查看分区形式和文件系统 执行以下命令,查看弹性云服务器挂载的所有磁盘情况。 lsblk 回显类似如下信息: [root@ecs-test-0001 ~]# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT vda 253:0 0 40G 0 disk └─vda1 253:1 0 40G 0 part / vdb 253:16 0 150G 0 disk └─vdb1 253:17 0 100G 0 part /mnt/sdc 本示例中数据盘“/dev/vdb”扩容前已有分区“/dev/vdb1”,将数据盘扩容50GiB后,新增的容量还未划分磁盘分区,因此“/dev/vdb”显示150GiB,“/dev/vdb1”显示100GiB。 如果执行了lsblk,发现磁盘“/dev/vdb”没有分区,针对这种没有分区的磁盘,扩容后的容量可能无法正常使用,解决方法请参见Linux系统扩容数据盘时,如何扩展未分区磁盘文件系统。 执行以下命令,查看当前磁盘分区的分区形式。 fdisk -l 回显类似如下信息: [root@ecs-test-0001 ~]# fdisk -l Disk /dev/vda: 42.9 GiB, 42949672960 bytes, 83886080 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk label type: dos Disk identifier: 0x000bcb4e Device Boot Start End Blocks Id System /dev/vda1 * 2048 83886079 41942016 83 Linux Disk /dev/vdb: 161.1 GiB, 161061273600 bytes, 314572800 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk label type: dos Disk identifier: 0x38717fc1 Device Boot Start End Blocks Id System /dev/vdb1 2048 209715199 104856576 83 Linux “system”为“Linux”表示分区形式为MBR。“system”为“GPT”表示分区形式为GPT。 如果回显中没有列出所有的磁盘分区,和1中的信息不符合。可能原因是:磁盘已有分区为GPT,并且扩容后存在未分配分区的空间,此时使用fdisk -l无法查看所有分区的信息,请参考方法二:使用parted命令查看分区形式和文件系统重新确认磁盘分区形式和文件系统。 如果回显中列出了所有的磁盘分区,和1中的信息符合,则继续执行以下操作。 执行以下命令,查看磁盘分区的文件系统格式。 blkid 磁盘分区 命令示例: blkid /dev/vdb1 [root@ecs-test-0001 ~]# blkid /dev/vdb1 /dev/vdb1: UUID="0b3040e2-1367-4abb-841d-ddb0b92693df" TYPE="ext4" “TYPE”为“ext4”:表示为/dev/vdb1的文件系统是ext4。 执行以下命令,确认文件系统的状态。 ext*:e2fsck -n 磁盘分区 xfs:xfs_repair -n 磁盘分区 以“ext4”为例: e2fsck -n /dev/vdb1 回显类似如下信息: [root@ecs-test-0001 ~]# e2fsck -n /dev/vdb1 e2fsck 1.42.9 (28-Dec-2013) Warning! /dev/vdb1 is mounted. Warning: skipping journal recovery because doing a read-only filesystem check. /dev/vdb1: clean, 11/6553600 files, 459544/26214144 blocks 文件系统状态为clean表示状态正常,如果不是clean,请先修复问题后执行扩容操作。
  • 云硬盘扩容问题 云硬盘支持缩容或临时扩容吗 扩容云硬盘和创建新的云硬盘有什么区别 云硬盘扩容后数据是否会丢失 扩容后的云硬盘能否使用扩容前的备份或快照回滚数据 云硬盘扩容后是否需要重启云服务器 云硬盘扩容时需要先卸载吗 扩容后的云硬盘容量大于2TiB该如何处理 怎样为云硬盘的新增容量创建新分区(新增/dev/vdb2分区或E盘) 怎样将云硬盘新增容量添加到原有分区内(扩大/dev/vdb1分区或者D盘容量) 为什么扩容后云服务器内云硬盘容量没有变化 云硬盘不支持扩容怎么办? Linux系统扩容数据盘时,如何扩展未分区磁盘文件系统 如何扩展快速发放裸金属服务器的根分区大小
  • 云硬盘挂载问题 为什么登录到云服务器后看不到已挂载的数据盘 云硬盘不支持挂载至云服务器怎么办 一块云硬盘可以挂载到多台云服务器上吗 云硬盘可以挂载至不同可用区的云服务器吗 怎样为云服务器增加数据盘(例如D盘或者dev/vdb1) 包年/包月云硬盘可以挂载给其他云服务器吗 不同类型的磁盘可以挂载在同一个云服务器上吗 系统盘和数据盘之间可以随意转换吗 Linux系统的云硬盘挂载至Windows系统后需如何处理 随包周期弹性云服务器购买的云硬盘,可以挂载至其它包周期弹性云服务器吗
  • MBR和GPT分区形式有何区别 常用的磁盘分区形式如表1所示,并且针对Linux操作系统,不同的磁盘分区形式需要选择不同的分区工具。 表1 磁盘分区形式 磁盘分区形式 支持最大磁盘容量 支持分区数量 Linux分区工具 主启动记录分区(MBR) 2 TiB 4个主分区 3个主分区和1个扩展分区 MBR分区包含主分区和扩展分区,其中扩展分区里面可以包含若干个逻辑分区。扩展分区不可以直接使用,需要划分成若干个逻辑分区才可以使用。以创建6个分区为例,以下两种分区情况供参考: 3个主分区,1个扩展分区,其中扩展分区中包含3个逻辑分区。 1个主分区,1个扩展分区,其中扩展分区中包含5个逻辑分区。 以下两种工具均可以使用: fdisk工具 parted工具 全局分区表 (GPT, Guid Partition Table) 18 EiB 1 EiB = 1048576 TiB 不限制分区数量 GPT格式下没有主分区、扩展分区以及逻辑分区之分。 parted工具 MBR支持的磁盘最大容量为2 TiB,GPT最大支持的磁盘容量为18 EiB,当前数据盘支持的最大容量为32 TiB,如果您需要使用大于2 TiB的磁盘容量,分区形式请采用GPT。 当磁盘已经投入使用后,此时切换磁盘分区形式时,磁盘上的原有数据将会清除,因此请在磁盘初始化时谨慎选择磁盘分区形式。 父主题: 云硬盘通用问题
  • 如何迁移云硬盘数据 分为以下三种场景: 跨可用区迁移:可以通过云备份服务创建云硬盘备份,再使用备份创建新的云硬盘,在配置云硬盘信息时,选择目标可用区即可。具体操作请参见创建云硬盘备份和使用备份创建新云硬盘。 跨区域迁移:将A区域的数据盘制作成数据盘镜像,跨区域复制到B区域,然后在B区域使用数据盘镜像创建新的数据盘。具体操作请参见通过云服务器的数据盘创建数据盘镜像。 跨账号迁移:将账号1的数据盘制作成数据盘镜像,共享给账号2,然后账号2使用数据盘镜像创建新的数据盘。具体操作请参见通过云服务器的数据盘创建数据盘镜像。 父主题: 云硬盘通用问题
  • 系统盘和数据盘有什么区别 系统盘:弹性云服务器中安装操作系统的云硬盘,类似于电脑中的C盘。 系统盘在购买弹性云服务器时自动购买并挂载,无法单独新购买。系统盘的最大容量为1024 GiB。 数据盘:弹性云服务器中用来存储数据的云硬盘,用来存放除操作系统之外的其他数据,类似于电脑中的D盘、E盘、F盘等。 数据盘可以在购买弹性云服务器的时候购买,由系统自动挂载给弹性云服务器。也可以在购买了弹性云服务器之后,单独新购买云硬盘并挂载给弹性云服务器。数据盘的最大容量为32768 GiB。 当您的业务数据量较小时,购买弹性云服务器时自动购买的系统盘如果能满足要求,仅购买系统盘即可。当您的业务数据量较大时,建议您根据需求购买数据盘。 如果业务系统前期已经做好规划,业务系统中磁盘的读写路径已不支持修改或修改较为麻烦,建议您根据业务系统需求购买数据盘。 父主题: 云硬盘通用问题
  • 云硬盘类型、云硬盘模式、共享盘等支持变更吗 云硬盘类型、云硬盘模式、共享盘、加密属性的变更情况如表所示。 表1 云硬盘 变更项 是否支持变更 变更项说明 云硬盘类型变更 支持(公测中) 云硬盘类型只能从低规格变更为高规格,详情参见变更磁盘类型(公测) 共享盘变更 不支持 共享盘不支持转非共享盘 非共享盘不支持转共享盘 云硬盘模式变更 不支持 SCSI云硬盘不支持转VBD云硬盘 VBD云硬盘不支持转SCSI云硬盘 加密属性变更 不支持 非加密云硬盘不支持转加密云硬盘 加密云硬盘不支持转非加密云硬盘 那么是否有其他方法实现变更?建议如下: 通过云硬盘创建备份。 图1 创建备份 再从备份创建新的云硬盘,创建过程中可以为云硬盘重新选择“云硬盘类型”和“高级配置”,包括共享盘。 图2 从备份创建云硬盘 父主题: 云硬盘通用问题
  • 为什么磁盘的I/O使用率已接近100%,但磁盘的读IOPS没有达到IOPS上限 问题现象: 单块500GiB的超高IO磁盘,磁盘I/O使用率为99.94%时,磁盘的读IOPS只有12000,没有达到磁盘的IOPS上限。 原因说明: 磁盘I/O使用率达到100%,不能代表磁盘的IOPS也达到上限。 磁盘I/O使用率,用于统计测量对象在测量周期内提交读取或写入操作的占比,不能代表磁盘的I/O性能数据,仅代表磁盘的繁忙程度。 由于云硬盘具有可以并行处理多个I/O请求的能力,因此当磁盘的I/O使用率达到100%时,也不表示达到了磁盘的瓶颈。例如:某个云硬盘处理单个I/O请求需要0.1秒,且可以同时处理10个I/O请求,那么当10个I/O请求依次按顺序(串行)提交时,需要1秒才可以全部完成,则在1秒的采样周期中,磁盘的I/O使用率达到了100%;而如果10个I/O请求一次性全部(并行)提交时,需要0.1秒就可以全部完成,则在1秒的采样周期中,磁盘的I/O使用率仅达到10%。由此可见,即使磁盘的I/O使用率达到100%,磁盘仍然有余力可以处理更多的I/O请求,即没有达到饱和状态。 磁盘的读IOPS没有达到IOPS上限的原因 对于500GiB的超高IO磁盘,其IOPS性能上限=min (单个云硬盘最大IOPS, 单个云硬盘最小IOPS + 每GiB云硬盘的IOPS × 云硬盘容量 ) = min (50000, 1800 + 50 × 500 ) = 26800 磁盘的读IOPS,用于统计每秒从测量对象读取数据的请求次数。IOPS实际是由时延控制的,目前在数据块大小为4KiB的情况下,超高IO磁盘的单队列访问时延为1ms,那么在单队列场景下,1秒可以处理的IOPS为1000,即当IOPS为12000时,队列深度大约为12,如果要达到IOPS上限26800,则队列深度大约需要达到26。 父主题: 云硬盘性能问题