云服务器内容精选

  • 如何确认Linux云服务器上的文件系统处于可用状态? SFS容量型文件系统:以root用户登录云服务器,执行“showmount -e 文件系统域名或IP”命令,将会回显指定域名或IP下所有可用的SFS容量型文件系统。 通用文件系统:当前不支持使用。 SFS Turbo文件系统:以root用户登录云服务器,执行“showmount -e 文件系统域名或IP”命令,回显如下内容,则代表命令中“文件系统域名或IP”对应的SFS Turbo文件系统处于可用状态。 Export list for 文件系统域名或IP / * 或 Export list for 文件系统域名或IP / 所有可接入该SFS Turbo文件系统的客户端IP 父主题: 其他类
  • SFS Turbo 表2 SFS Turbo文件系统 参数 20MB/s/TiB 40MB/s/TiB 125MB/s/TiB 250MB/s/TiB 500MB/s/TiB 1000MB/s/TiB 最大带宽 8GB/s 如需提高吞吐能力,请提交工单申请,最高可达20 GBps 8GB/s 如需提高吞吐能力,请提交工单申请,最高可达20 GBps 20GB/s 如需提高吞吐能力,请提交工单申请,最高可达100 GBps 20GB/s 如需提高吞吐能力,请提交工单申请,最高可达100 GBps 80GB/s 如需提高吞吐能力,请提交工单申请,最高可达200 GBps 80GB/s 如需提高吞吐能力,请提交工单申请,最高可达200 GBps 最高IOPS 250K 250K 百万级IOPS 百万级IOPS 百万级IOPS 百万级IOPS 平均单路4K延迟 2~5ms 2~5ms 1~3ms 1~3ms 1~3ms 1~3ms 容量 3.6TB~1PB 1.2TB~1PB 1.2TB~1PB 1.2TB~1PB 1.2TB~1PB 1.2TB~1PB 优势 大容量、低成本 大容量、低成本 低时延、高性价比 低时延、高性价比 高IOPS、性能高密 高IOPS、性能高密 典型应用场景 日志存储、文件共享、内容管理、网站 日志存储、文件共享、内容管理、网站 AI训练、自动驾驶、EDA仿真、渲染、企业NAS应用、高性能web应用 AI训练、自动驾驶、EDA仿真、渲染、企业NAS应用、高性能web应用 大规模AI训练、AI大模型、AIGC 大规模AI训练、AI大模型、AIGC 表3 SFS Turbo上一代文件系统 参数 标准型 标准型-增强版 性能型 性能型-增强版 HPC缓存型 最大带宽 150MB/s 1GB/s 350MB/s 2GB/s 48GB/s 最高IOPS 5K 15K 20K 100K 2000k 平均单路4K延迟 2~5ms 2~5ms 1~3ms 1~3ms 1~3ms 读时延:亚毫秒级 容量 500GB~32TB 10TB~320TB 500GB~32TB 10TB~320TB 起步容量(GB)=带宽大小*2 最大容量1PB 优势 大容量、低成本 低时延、高IOPS 大带宽、高IOPS 典型应用场景 代码存储、日志存储、文件共享、企业办公 高性能网站、文件共享、内容管理、图片渲染、AI训练、企业办公 超大规模渲染 最高IOPS、最大带宽两个参数的值均为读写总和。比如最高IOPS=IOPS读+IOPS写。 扩容时,SFS Turbo标准型、标准型-增强版、性能型、性能型-增强版扩容步长为100GB,规格为20MB/s/TiB、40MB/s/TiB、125MB/s/TiB、250MB/s/TiB、500MB/s/TiB、1000MB/s/TiB的文件系统扩容步长为1.2TB。
  • SFS容量型 表1 SFS容量型文件系统 参数 SFS容量型 通用文件系统 最大带宽 2GB/s 1.25TB/s 最高IOPS 2K 百万 时延 3~20ms 10ms 最大容量 4PB EB 优势 大容量、高带宽、低成本 大容量、高带宽、低成本 应用场景 大容量扩展以及成本敏感型业务,如媒体处理、文件共享、高性能计算、数据备份等。SFS容量型文件系统不适合海量小文件业务,推荐使用SFS Turbo文件系统。 大容量扩展以及成本敏感型业务,如媒体处理、文件共享、高性能计算、数据备份等。通用文件系统不适合海量小文件业务,推荐使用SFS Turbo文件系统。 时延是指低负载情况下的最低延迟,非稳定时延。 10MB以上为大文件,1MB以上为大IO。 SFS容量型文件系统目前已售罄,请使用通用文件系统,涉及数据迁移的客户可提交工单解决。
  • 功能描述 规格丰富 支持标准型、性能型、125MB/s/TiB、250MB/s/TiB等,满足不同应用场景性能诉求。 弹性扩展 容量按需扩容,性能线性增长。 安全可靠 三副本冗余:存储数据持久度高达99.9999999%。 数据加密:存储池支持数据加密,保护数据安全。 VPC隔离:安全可靠,租户间100%隔离。 物理独享:存储池物理隔离,资源独享。 备份恢复 专属文件存储服务支持CBR备份,基于备份可以恢复文件存储系统。 监控文件系统 对接云监控,支持带宽、IOPS、容量等多种监控指标。 审计文件系统 支持通过云审计服务对资源的操作进行记录,以便用户可以查询、审计和回溯。
  • 性能规格 表1 性能规格 实例名称 依赖底层资源 性能规格 SFS Turbo标准型专属 DCC:C7/C7n/C6/C6s/C3实例 DSS:高IO资源池 带宽=min{1GB/s,DSS存储池可用带宽} IOPS=min{15k, DSS存储池可用IOPS} SFS Turbo性能型专属 DCC:C7/C7n/C6/C6s/C3实例 DSS:超高IO资源池 带宽=min{2GB/s,DSS存储池可用带宽} IOPS=min{20k,DSS存储池可用IOPS} 125MB/s/TiB专属 DCC:C6/C7/C7n实例 DSS:超高IO资源池 带宽=min{125MB/s/TiB*存储容量(TiB),20GB/s,DSS存储池可用带宽} IOPS=min{6000*存储容量(TiB), DSS存储池可用IOPS} 250MB/s/TiB专属 DCC:C6/C7/C7n实例 DSS:超高IO资源池 带宽=min{250MB/s/TiB*存储容量(TiB),20GB/s,存储池最大带宽} IOPS=min{12500*存储容量(TiB), DSS存储池可用IOPS} 存储池可用带宽和IOPS,与存储容量成正比例关系。在购买专属弹性文件服务,规划DSS专属存储资源时,需要为专属弹性文件服务预留对应的容量和性能,避免出现容量或性能不足,影响专属文件存储服务。 在“性能规格”中,带宽值和IOPS值为“{}”中的最小值。
  • SFS Turbo文件系统限制 表3 SFS Turbo文件系统限制 限制项 标准型、标准型-增强版、性能型、性能型-增强版 20MB/s/TiB、40MB/s/TiB、125MB/s/TiB、250MB/s/TiB、500MB/s/TiB、1000MB/s/TiB HPC缓存型 支持访问方式 VPN/专线/云连接 VPN/专线/云连接 VPN/专线/云连接 最大带宽 标准型:150MB/s 标准型-增强版:1GB/s 性能型:350MB/s 性能型-增强版:2GB/s 20MB/s/TiB、40MB/s/TiB:8GB/s(如需提高吞吐能力,请提交工单申请,最高可达20 GBps) 125MB/s/TiB、250MB/s/TiB:20GB/s(如需提高吞吐能力,请提交工单申请,最高可达100 GBps) 500MB/s/TiB、1000MB/s/TiB:80GB/s(如需提高吞吐能力,请提交工单申请,最高可达200 GBps) 48GB/s 最大IOPS 标准型:5K 标准型-增强版:15K 性能型:20K 性能型-增强版:100K 20MB/s/TiB、40MB/s/TiB:250K 125MB/s/TiB、250MB/s/TiB、500MB/s/TiB、1000MB/s/TiB:百万级IOPS 2000K 最低时延 1~2ms 1~2ms 亚毫秒 单文件系统最大容量 320TB 1PB 1PB 支持协议 仅支持NFSv3 仅支持NFSv3 仅支持NFSv3 单文件系统最大挂载客户端数量 500 3000 3000 单文件系统可添加VPC数量 20 20 20 单文件大小 最大16TB 最大320TB 最大320TB 单文件系统最大文件或子目录数 10亿 20亿 20亿 单目录下最大文件或子目录数 2000万 说明: 如果用户需要对整个目录进行ls、du、cp、chmod、chown等操作,建议单层目录下不要放置超过50万的文件或子目录,否则可能由于NFS协议需要向服务端发送大量遍历请求而产生排队,导致请求耗时非常长。 2000万 说明: 如果用户需要对整个目录进行ls、du、cp、chmod、chown等操作,建议单层目录下不要放置超过50万的文件或子目录,否则可能由于NFS协议需要向服务端发送大量遍历请求而产生排队,导致请求耗时非常长。 2000万 说明: 如果用户需要对整个目录进行ls、du、cp、chmod、chown等操作,建议单层目录下不要放置超过50万的文件或子目录,否则可能由于NFS协议需要向服务端发送大量遍历请求而产生排队,导致请求耗时非常长。 目录最大深度(单位:层) 100 100 100 最大路径长度(单位:Byte) 1024 4096 4096 最大软链接长度(单位:Byte) 1024 1024 1024 最大硬链接长度(单位:Byte) 255 255 255 文件系统数量配额 默认32个,可提交工单申请扩大配额 默认32个,可提交工单申请扩大配额 默认32个,可提交工单申请扩大配额 备份 支持 支持 不支持 备份原地恢复 不支持 说明: SFS Turbo为单AZ部署,目前还不具备AZ级以上故障恢复能力。 不支持 不支持 文件语义锁Flock 不支持 不支持 不支持 跨区域域名挂载 不支持 说明: 使用域名(DNS)挂载文件系统时,不支持跨区域(Region)挂载。若需要跨区域挂载,可以通过指定IP的方式挂载。 通过域名(DNS)随机将该文件系统挂载到云服务器时,在未达到云服务器满载性能前,可能出现挂载不均匀的现象。可通过增加挂载点的数量的方式,最大限度利用所有可用云服务器的资源。 不支持 不支持 缓存加速 不支持 支持(仅保证最终一致性,如需关闭,请提交工单反馈) 说明: 最终一致性意味着当通过多客户端访问共享文件系统时,因为一个客户端的访问请求可能路由到不同的分布式后端,当命中到分布式后端的本地cache时,可能无法实时获取到其他客户端的更新操作,cache的失效时间通常为3~30s之间。 支持(仅保证最终一致性,如需关闭,请提交工单反馈) 说明: 最终一致性意味着当通过多客户端访问共享文件系统时,因为一个客户端的访问请求可能路由到不同的分布式后端,当命中到分布式后端的本地cache时,可能无法实时获取到其他客户端的更新操作,cache的失效时间通常为3~30s之间。 标签限制 单个文件系统最多允许添加10个标签。 当一个文件系统添加了多个标签,标签键不允许重复。
  • 通用文件系统限制 表2 通用文件系统限制 限制项 说明 访问方式 仅限内网访问,不支持公网访问。 协议限制 仅支持NFS协议(不支持NFSv4,仅支持NFSv3)。 单文件系统最大挂载客户端数量 10,000 文件系统加密 不支持 单目录下最大文件或子目录数 3000万 文件系统名称限制 需全局唯一,不能与已有的通用文件系统名称重复,包括其他用户创建的通用文件。文件系统创建成功后,不支持修改名称。 删除文件系统限制 删除通用文件系统后,需要等待30分钟才能创建同名通用文件系统。 挂载的操作系统限制 不支持挂载至32位的Linux系统云服务器。 不支持挂载至Windows系统的云服务器。 修改文件系统内根目录权限 不支持 CCE/CCI容器场景下使用限制 使用通用文件系统作为后端存储时,对于pvc/pv关联的非空文件系统,不支持直接删除pvc/pv。需要清空文件系统内容才能删除pvc/pv。在未清理文件系统的情况下直接删除pvc/pv,请到通用文件系统侧查看文件系统是否已删除。 使用通用文件系统作为后端存储时,删除pvc/pv过程存在时延,删除过程会进行计费,请以通用文件系统侧删除时间为准。 生命周期管理策略限制 单个文件系统下最多可配置20条生命周期管理规则。 文件语义锁Flock 不支持
  • SFS容量型文件系统限制 表1 SFS容量型文件系统限制 限制项 说明 访问方式 仅限内网访问,不支持公网访问;只能在云上使用,不支持云下使用。 协议限制 支持NFS协议(不支持NFSv4,仅支持NFSv3)和CIFS协议(不支持SMB1.0版本,支持SMB2.0/2.1/3.0版本)。 NFSv3协议下默认的导出选项是rw,no_root_squash,no_all_squash,sync。CIFS协议下默认的导出选项是rw,sync。 CIFS的加密文件系统不支持copychunk复制。 CIFS类型的文件系统不支持使用Linux操作系统的云服务器进行挂载。 同一文件系统不能同时支持NFS协议和CIFS协议。 SMB文件系统只对文件系统级别、而不对文件/目录级别提供权限控制。 单文件系统最大挂载客户端数量 10,000 单文件系统最大容量 4PB 单文件大小 240TB VPC限制 支持多VPC,一个文件系统最多可以添加20个可用的VPC,对于添加的VPC所创建的ACL规则总和不能超过400个。 企业项目限制 不能超过20个,否则可能导致创建SFS容量型文件系统失败。建议使用SFS Turbo文件系统或通用文件系统。 复制功能 不支持 跨区域挂载 不支持 SFS容量型文件系统已售罄,您还可以选择通用文件系统或者SFS Turbo。
  • 通用文件系统 通用文件系统为用户提供一个完全托管的共享文件存储,能够弹性伸缩至PB规模、TB级带宽,具备高可用性和持久性,为海量数据、高带宽型应用提供有力支持。 适用于多种应用场景,包括高性能计算、媒体处理、文件共享、内容管理和Web服务等,并且支持低频存储。 如表1,和传统的SFS容量型文件系统对比,通用文件系统具备更高性能。 表1 SFS容量型和通用文件系统 参数 SFS容量型 通用文件系统 最大带宽 2GB/s 1.25TB/s 最高IOPS 2K 百万 时延 3~20ms 10ms 最大容量 4PB EB 优势 大容量、高带宽、低成本 大容量、高带宽、低成本 应用场景 大容量扩展以及成本敏感型业务,如媒体处理、文件共享、高性能计算、数据备份等。 大容量扩展以及成本敏感型业务,如媒体处理、文件共享、高性能计算、数据备份等。 时延是指低负载情况下的最低延迟,非稳定时延。 10MB以上为大文件,1MB以上为大IO。 SFS容量型和通用文件系统不适合海量小文件业务,推荐使用SFS Turbo文件系统。 SFS容量型文件系统目前已售罄,请使用通用文件系统,涉及数据迁移的客户可提交工单解决。
  • SFS Turbo SFS Turbo为用户提供一个完全托管的共享文件存储,能够弹性伸缩至PB级规模,最高可提供亚毫秒级低时延、千万级IOPS、百GB带宽。具备高可用性和持久性,为海量的小文件、低延迟高IOPS型应用提供有力支持。 适用于多种应用场景,包括AI训练、AIGC、自动驾驶、渲染、EDA仿真、企业NAS应用等。 SFS Turbo为用户提供更为丰富的文件系统规格选择,助力更多不同场景下的业务成功上云。 表2 SFS Turbo文件系统 参数 20MB/s/TiB 40MB/s/TiB 125MB/s/TiB 250MB/s/TiB 500MB/s/TiB 1000MB/s/TiB 最大带宽 8GB/s 如需提高吞吐能力,请提交工单申请,最高可达20 GBps 8GB/s 如需提高吞吐能力,请提交工单申请,最高可达20 GBps 20GB/s 如需提高吞吐能力,请提交工单申请,最高可达100 GBps 20GB/s 如需提高吞吐能力,请提交工单申请,最高可达100 GBps 80GB/s 如需提高吞吐能力,请提交工单申请,最高可达200 GBps 80GB/s 如需提高吞吐能力,请提交工单申请,最高可达200 GBps 最高IOPS 250K 250K 百万级IOPS 百万级IOPS 百万级IOPS 百万级IOPS 平均单路4K延迟 2~5ms 2~5ms 1~3ms 1~3ms 1~3ms 1~3ms 容量 3.6TB~1PB 1.2TB~1PB 1.2TB~1PB 1.2TB~1PB 1.2TB~1PB 1.2TB~1PB 优势 大容量、低成本 大容量、低成本 低时延、高性价比 低时延、高性价比 高IOPS、性能高密 高IOPS、性能高密 典型应用场景 日志存储、文件共享、内容管理、网站 日志存储、文件共享、内容管理、网站 AI训练、自动驾驶、EDA仿真、渲染、企业NAS应用、高性能web应用 AI训练、自动驾驶、EDA仿真、渲染、企业NAS应用、高性能web应用 大规模AI训练、AI大模型、AIGC 大规模AI训练、AI大模型、AIGC 表3 SFS Turbo上一代文件系统 参数 标准型 标准型-增强版 性能型 性能型-增强版 HPC缓存型 最大带宽 150MB/s 1GB/s 350MB/s 2GB/s 48GB/s 最高IOPS 5K 15K 20K 100K 2000k 平均单路4K延迟 2~5ms 2~5ms 1~3ms 1~3ms 1~3ms 读时延:亚毫秒级 容量 500GB~32TB 10TB~320TB 500GB~32TB 10TB~320TB 起步容量(GB)=带宽大小*2 最大容量1PB 优势 大容量、低成本 低时延、高IOPS 大带宽、高IOPS 典型应用场景 代码存储、日志存储、文件共享、企业办公 高性能网站、文件共享、内容管理、图片渲染、AI训练、企业办公 超大规模渲染 最高IOPS、最大带宽两个参数的值均为读写总和。比如最高IOPS=IOPS读+IOPS写。 扩容时,SFS Turbo标准型、标准型-增强版、性能型、性能型-增强版扩容步长为100GB,规格为20MB/s/TiB、40MB/s/TiB、125MB/s/TiB、250MB/s/TiB、500MB/s/TiB、1000MB/s/TiB的文件系统扩容步长为1.2TB。
  • 操作步骤 登录弹性云服务器管理控制台。 登录已创建好的Linux系统云服务器,用于同时访问SFS容量型文件系统和SFS Turbo文件系统。 输入以下挂载命令,用于访问文件系统1。文件系统1可以是SFS容量型文件系统或SFS Turbo文件系统。 mount -t nfs -o vers=3,timeo=600,noresvport,nolock 文件系统1挂载地址 /mnt/src 输入以下挂载命令,用于访问文件系统2。文件系统2可以是SFS容量型文件系统或SFS Turbo文件系统。 mount -t nfs -o vers=3,timeo=600,noresvport,nolock 文件系统2挂载地址 /mnt/dst 下载并安装rclone工具。下载地址请参见https://rclone.org/downloads/。 执行以下命令,进行数据同步。 rclone copy /mnt/src /mnt/dst -P --transfers 32 --checkers 64 --links --create-empty-src-dirs 参数说明如下,transfers和checkers数目可以根据系统规格自行配置: /mnt/src :源路径 /mnt/dst:目标路径 --transfers:传输文件的并发数目。 --checkers:扫描本地文件的并发数目。 -P:数据拷贝进度。 --links:复制源端的软链接,目的端保持为软链接的形式。 --copy-links:复制源端软链接指向的文件内容,目的端变成文件的形式,不再是软链接。 --create-empty-src-dirs:复制源端的空目录到目的端。 等待数据完成同步后,可前往目标文件系统查看是否已成功迁移。
  • SFS Turbo为什么会出现性能不稳定? SFS Turbo文件系统提供了多个IP地址(具体数量参考控制台上可选挂载点)供用户进行挂载,且每个IP地址均可以挂载多个客户端。 如果使用域名挂载,只有当客户端数量较多时,客户端才会均匀部署在每个底层资源(ECS虚拟机)上,需要每个底层资源(ECS虚拟机)充分利用才可以达到最大性能。当客户端数量较少时,客户端部署不均匀,可能会出现多个客户端使用同一底层资源(ECS虚拟机),而其他底层资源(ECS虚拟机)并未使用的情况。在这样的情况下,则会出现性能不稳定、性能较差的现象。如果客户端数量较少,且业务为性能敏感型时,建议直接使用IP地址进行挂载。 父主题: 其他类
  • 配置示例 入方向规则 方向 协议 端口范围 源地址 说明 入方向 TCP&UDP 111 IP地址 0.0.0.0/0(可配置) 一个端口对应一条访问规则,所有端口信息需逐条添加。 出方向规则 方向 协议 端口范围 源地址 说明 出方向 TCP&UDP 111 IP地址 0.0.0.0/0(可配置) 一个端口对应一条访问规则,所有端口信息需逐条添加。 端口号111需要配置双向访问规则。入方向可配置为弹性文件服务的前端业务IP网段,可以通过ping 文件系统域名或IP 或dig 文件系统域名或IP 获取。 端口号445、2049、2050、2051和2052仅需要添加出方向访问规则,其规则同端口111的出方向规则。 对于NFS协议,需要为这些端口添加入方向规则:111(TCP&UDP), 2049(TCP), 2051(TCP), 2052(TCP), 20048(UDP&TCP);对于SMB协议,则需要为这些端口添加入方向规则开放:445(TCP)。 对于NFS协议,如果未开放20048的UDP,在挂载的时候虽然也可以使用,但是可能让挂载时间变长,可以在 mount 时指定 -o tcp 来避免挂载耗时长的问题。
  • 解决方法 以下步骤中的命令是以CentOS、Red Hat、Oracle Enterprise Linux、SUSE、Euler OS、Fedora或OpenSUSE系统为例,其他操作系统执行命令可参考挂载NFS文件系统到云服务器(Linux)。 登录云服务器,查看nfs-utils是否已安装。执行如下命令,若无结果表示未安装。 rpm -qa|grep nfs 图1 查看是否已安装软件包 执行如下命令,安装nfs-utils软件包。 yum -y install nfs-utils 图2 执行安装命令 图3 安装成功 重新执行挂载命令。将文件系统挂载到云服务器上。 mount -t nfs -o vers=3,timeo=600,noresvport,nolock 挂载地址 本地路径 挂载完成后,执行如下命令,查看已挂载的文件系统。 mount -l 如果回显包含如下类似信息,说明挂载成功。 example.com:/share-xxx on /local_path type nfs (rw,vers=3,timeo=600,nolock,addr=)
  • 排查思路 以下排查思路根据原因的出现概率进行排序,建议您从高频率原因往低频率原因排查,从而帮助您快速找到问题的原因。 如果解决完某个可能原因仍未解决问题,请继续排查其他可能原因。 图1 排查思路 表1 排查思路 可能原因 处理措施 文件系统和挂载的服务器不在同一个可用区 在与服务器相同的可用区新建一个文件系统,将另一可用区的文件系统数据迁移至新文件系统后,再将新文件系统挂载至服务器。 使用场景与文件系统类型不匹配 结合业务场景,参考文件系统类型,选择正确的文件系统类型。 SFS容量型文件系统容量较小 SFS容量型文件系统的性能与容量相关:20MB/TB,100TB的文件系统最大带宽为2GB,如需更大带宽则需要购买更大容量的文件系统。如果需要更高性能,请提交工单申请。 并发数过高或过低 并发数过高或过低均有可能导致文件系统性能变差,请提交工单进行技术咨询。 日志文件路径中包含变量 使用Nginx写日志到文件系统时,出现耗时长的现象,可以参考以下方法处理: 删除access_log指令中的变量,使用固定路径存储日志文件。 使用open_log_file_cache命令设置日志文件描述符缓存,可以提高包含变量的日志文件存放路径的性能。 本地网络故障,访问文件系统较慢 若存在网络故障,解决网络故障,确保网络正常。