华为云用户手册

  • Kafka实例是否支持修改访问端口? Kafka实例的访问端口固定,不支持修改。 如果是访问未开启SASL的Kafka实例 支持的访问方式如下:同一VPC内访问、公网访问、跨VPC访问和DNAT访问。 同一VPC内使用IPv4地址访问,访问端口为9092。 同一VPC内使用IPv6地址访问,访问端口为9192。 公网访问,访问端口为9094。 使用VPCEP跨VPC访问,访问端口为9011。 使用对等连接跨VPC访问,访问端口为9092。 DNAT访问,访问端口为9011。 如果是访问开启SASL的Kafka实例 支持的访问方式如下:同一VPC内访问、公网访问、跨VPC访问和DNAT访问。 同一VPC内使用IPv4地址访问,访问端口为9093。 同一VPC内使用IPv6地址访问,访问端口为9193。 公网访问,访问端口为9095。 使用VPCEP跨VPC访问,访问端口为9011。 使用对等连接跨VPC访问,访问端口为9093。 DNAT访问,访问端口为9011。 在访问Kafka实例之前,需要确保安全组是否配置正确,配置要求,请参考选择和配置安全组。 父主题: 实例问题
  • 客户端删除消费组后,在Kafka Manager中仍可以看到此消费组? 客户端删除消费组后,此消费组已经被删除了。在Kafka Manager中仍可以看到此消费组,是因为Kafka Manager存在缓存。 通过以下任意一种方法解决此问题: 重启Kafka Manager。 Kafka Manager只显示14天内有消费记录的消费组,如果您不想重启Kafka Manager,可以等待14天后Kafka Manager自动清除此消费组。 父主题: Kafka Manager问题
  • 100MB/s的带宽怎样开启公网访问? 100MB/s带宽的实例存在两种不同规格的底层资源,一种支持开启公网访问,另一种不支持,具体以控制台为准。 100MB/s的带宽不支持开启公网访问的原因为底层E CS 资源规格的限制,此种情况下,通过扩容Kafka实例的带宽无法解决此问题,因为扩容带宽是通过扩容节点实现的,扩容的节点规格和扩容前的节点相同,此时底层ECS资源规格依然不支持开启公网访问。 建议您通过重新购买大于100MB/s带宽的实例解决此问题。 父主题: 实例问题
  • 如何选择Kafka实例存储容量阈值策略? 支持以下两种策略: 生产受限策略 该策略场景下一旦磁盘使用达到容量阈值95%,会导致后续生产失败,但保留了当前磁盘中的数据,直至数据自然老化(Kafka原有的老化机制,数据默认保留3天)。该场景适用于对数据不能丢的业务场景,但是会导致生产业务失败。 自动删除策略 该策略场景下磁盘使用到达容量阈值95%后,依旧可以正常生产和消费消息,但是会删除最早的10%的消息,以保证磁盘容量充足。该场景优先保障业务不中断,数据可能会丢失。 以上两种策略需要基于业务对数据和业务的可靠性来进行选择,只能作为极端场景下的一种处理方式。建议业务购买时保证有充足的磁盘容量,避免磁盘的使用达到容量阈值。 父主题: 实例问题
  • Kafka实例的连接地址默认有多少个? Kafka实例的连接地址个数和实例的代理个数有关,连接地址个数即为代理个数。每类实例规格对应的代理个数如下表所示。 表1 Kafka集群实例规格 规格名称 代理个数范围 单个代理TPS 单个代理分区上限 单个代理建议消费组数 单个代理客户端总连接数上限 存储空间范围(GB) 单个代理流量规格(MB/s) kafka.2u4g.cluster.small 3~30 20000 100 15 2000 300~300000 40 kafka.2u4g.cluster 3~30 30000 250 20 2000 300~300000 100 kafka.4u8g.cluster 3~30 100000 500 100 4000 300~600000 200 kafka.8u16g.cluster 3~50 150000 1000 150 4000 300~1500000 375 kafka.12u24g.cluster 3~50 200000 1500 200 4000 300~1500000 625 kafka.16u32g.cluster 3~50 250000 2000 200 4000 300~1500000 750 表2 Kafka单机实例规格 规格名称 代理个数 单个代理TPS 单个代理分区上限 单个代理建议消费组数 单个代理客户端总连接数上限 存储空间范围(GB) 单个代理流量规格(MB/s) kafka.2u4g.single.small 1 20000 100 15 2000 100~10000 40 kafka.2u4g.single 1 30000 250 20 2000 100~10000 100 父主题: 连接问题
  • 问题现象 使用Sarama客户端收发消息可能存在以下问题: Sarama客户端无法感知分区变化,当Topic分区数增加时,需要重启客户端后才能正常消费。 Sarama客户端消息最大处理时间(MaxProcessingTime)默认值为100ms,超过最大处理时间可能导致消费者无法消费。 当消费位点重置策略设置为Oldest(earliest)时,当客户端重启时,偏移量重置后可能从最小位点开始重复消费所有消息。 消费者同时订阅多个Topic时,部分分区可能无法消费到消息。
  • 解决方法 建议您使用Confluent-Kafka-go作为Kafka客户端库。 以下为您提供常用Golang客户端的对比,具体参见表1。 表1 常用Golang客户端对比 客户端 优点 缺点 Confluent-Kafka-go Confluent-Kafka-go是由Confluent提供的官方Kafka客户端库,与Kafka完全兼容,支持所有的Kafka特性。 稳定性高,基于librdkafka,具有高性能和低延迟的特点。 增加编译复杂度。由于导入C++库,Golang编译器需要引入额外编译配置,增加了编译依赖,提高编译复杂度。 Kafka-go kafka-go是一个简单、轻量级的Kafka客户端库,易于学习和使用。 kafka-go的代码库相对较小,依赖较少,可以减少应用程序的体积和依赖关系。 Kafka-go相对于Confluent-Kafka-go来说,功能较为有限,不支持一些高级特性和复杂的配置选项。 性能和吞吐量较低,适用于一些对性能要求不高的简单应用场景。 Sarama Sarama采用原生Golang语言编写,对于异步以及高并发操作支持度较好。 问题较多,文档相对较少。 Sarama在处理大量消息时,会占用较多的内存资源,可能会对应用程序的性能造成一定的影响。
  • 为什么Console页面上,消息查询查不到消息? 可能原因1:消息已被老化。 解决方法:修改老化时间。 可能原因2:消息的createTime时间戳不对。 Console页面是根据时间查询的,所以查不到。时间戳是由客户端生成,不同客户端有不同的处理策略,有的客户端默认值会是0或者-1,则查询不到消息。 解决方法:检查客户端消息的createTime设置是否正确。 可能原因3:磁盘容量超过95%,且“容量阈值策略”设置为“自动删除”。 “容量阈值策略”设置为“自动删除”,表示磁盘容量达到95%时,系统会删除最早的10%的消息,以保证磁盘容量充足。当磁盘容量超过95%时,未到达老化时间的消息也会被删除,所以可能会导致部分消息查询不到。 解决方法:修改容量阈值策略或扩大磁盘容量。“容量阈值策略”设置为“生产受限”,表示一旦磁盘使用达到容量阈值95%,会导致后续生产失败,但保留了当前磁盘中的数据,直至数据自然老化。该场景适用于对数据不能丢的业务场景,但是会导致生产业务失败。 父主题: 消息问题
  • 为什么限制Topic的总分区数? Kafka以分区为粒度管理消息,分区多导致生产、存储、消费都碎片化,影响性能稳定性。在使用过程中,当Topic的总分区数达到上限后,用户就无法继续创建Topic。 不同规格配置的Topic总分区数不同,如下表所示。 表1 Kafka集群实例规格 规格名称 代理个数范围 单个代理TPS 单个代理分区上限 单个代理建议消费组数 单个代理客户端总连接数上限 存储空间范围(GB) 单个代理流量规格(MB/s) kafka.2u4g.cluster.small 3~30 20000 100 15 2000 300~300000 40 kafka.2u4g.cluster 3~30 30000 250 20 2000 300~300000 100 kafka.4u8g.cluster 3~30 100000 500 100 4000 300~600000 200 kafka.8u16g.cluster 3~50 150000 1000 150 4000 300~1500000 375 kafka.12u24g.cluster 3~50 200000 1500 200 4000 300~1500000 625 kafka.16u32g.cluster 3~50 250000 2000 200 4000 300~1500000 750 表2 Kafka单机实例规格 规格名称 代理个数 单个代理TPS 单个代理分区上限 单个代理建议消费组数 单个代理客户端总连接数上限 存储空间范围(GB) 单个代理流量规格(MB/s) kafka.2u4g.single.small 1 20000 100 15 2000 100~10000 40 kafka.2u4g.single 1 30000 250 20 2000 100~10000 100 父主题: Topic和分区问题
  • 为什么实例中存在默认名为__trace和__consumer_offsets的Topic? 问题现象:Kafka Manager中存在默认名为__trace和__consumer_offsets的Topic。 处理方法:__trace和__consumer_offsets是Kafka实例内部预留的Topic,不建议删除这两个Topic,删除后可能导致实例无法使用。 父主题: Kafka Manager问题
  • 云监控 无法展示Kafka监控数据 Topic监控数据无法展示,可能原因如下: Topic名称开头包含特殊字符,例如#号“#”。 Kafka实例中没有创建Topic。 解决方法如下: 删除带特殊字符的Topic。 创建Topic。 消费组监控数据无法展示,可能原因如下: 消费组名称开头包含特殊字符,例如#号“#”。 此消费组从未有消费者连接。 解决方法如下: 删除带特殊字符的消费组。 使用此消费组消费消息。 父主题: 监控告警问题
  • 扩容/缩容过程中生产消息失败 可能原因:在扩容/缩容代理规格的过程中,代理采用滚动重启的方式进行实例变更。在重启过程中,分区Leader会进行切换,此时生产客户端的元数据缓存中保存的分区Leader为旧分区Leader ID,仍然会向旧分区Leader发送消息,导致生产消息失败。 解决方法:在生产客户端配置重试机制。建议设置retries=Integer.MAX_VALUE 父主题: 实例规格变更问题
  • Yikes! Insufficient partition balance when creating topic : projectman_project_enterprise_project Try again. 问题现象: 在Kafka Manager中无法创建topic,报错:Yikes! Insufficient partition balance when creating topic : projectman_project_enterprise_project Try again. 问题原因:Topic分区超过限制,不能继续创建Topic。 处理方法:建议扩大实例规格,实例规格增加,分区数也会相应增加。 父主题: Kafka Manager问题
  • 消息超过老化时间,消息仍存在的原因 问题现象:消息超过设置的老化时间(如果Topic已经设置了老化时间,此时“配置参数”中的log.retention.hours值将不对此Topic生效。仅在Topic中未设置老化时间时,“配置参数”中的log.retention.hours值才会对此Topic生效。),消息仍存在。 可能原因1:Topic的每个分区都是由多个大小相同的segment文件组成,每个segment文件的大小为500MB,当segment文件存储的消息大小到达500MB后,才会新建下一个segment文件。Kafka删除消息是删除segment文件,而不是删除一条消息。Kafka要求至少保留一个segment文件用来存储消息,如果正在使用的segment文件中包含超过老化时间的消息,由于此时segment文件不会被删除,所以超过老化时间的消息也不会被删除。 处理方法:等待segment文件被使用完,或者删除超过老化时间的消息所在的Topic。 可能原因2:Topic中存在一条create time为未来时间的消息(例如当前时间为1月1日,create time设置成了2月1日),此消息在72小时后,并不会被老化,导致在此消息后创建的其他消息都不会被老化。 处理方法:删除create time为未来时间的消息所在的Topic。 父主题: 消息问题
  • 为什么删除消费组不生效? 可能原因:您开启了自动创建消费组功能,且您的业务正在连接该消费组消费消息。所以,如果没有停止您的业务,删除了消费组后,消费消息时还是会自动创建该消费组。 解决办法:关闭自动创建消费组功能,即在Kafka控制台的“配置参数”页面,把“auto.create.groups.enable”设置为“false”,然后再删除消费组。部分实例在“配置参数”中没有“auto.create.groups.enable”参数,具体以控制台为准,此时建议修改业务代码,使业务代码不再连接该消费组,然后再删除消费组。修改“auto.create.groups.enable”参数的方法请参考修改Kafka实例配置参数。 父主题: 消费组问题
  • 如何将Kafka实例中的数据同步到另一个Kafka实例中? Kafka实例支持创建Kafka数据复制类型的Smart Connect任务时,首先开启Smart Connect,然后创建Kafka数据复制类型的Smart Connect任务,实现两个Kafka实例数据的同步,具体步骤请参考创建Smart Connect任务(Kafka数据复制)。 Kafka实例不支持创建Kafka数据复制类型的Smart Connect任务时,如果需要做Kafka实例迁移,可以同时向两个Kafka实例生产消息,源实例中的消息可继续消费,待源实例的消息数据全部被消费完或老化后,业务可迁移到新的Kafka实例。 父主题: 实例问题
  • Kafka实例的Topic数量是否有限制? Topic数量和Topic总分区数、每个Topic的分区数有关,Kafka实例对Topic总分区数设置了上限,当达到上限后,会导致用户无法继续创建Topic。 不同规格配置的Topic总分区数不同,如下表所示。 表1 Kafka集群实例规格 规格名称 代理个数范围 单个代理TPS 单个代理分区上限 单个代理建议消费组数 单个代理客户端总连接数上限 存储空间范围(GB) 单个代理流量规格(MB/s) kafka.2u4g.cluster.small 3~30 20000 100 15 2000 300~300000 40 kafka.2u4g.cluster 3~30 30000 250 20 2000 300~300000 100 kafka.4u8g.cluster 3~30 100000 500 100 4000 300~600000 200 kafka.8u16g.cluster 3~50 150000 1000 150 4000 300~1500000 375 kafka.12u24g.cluster 3~50 200000 1500 200 4000 300~1500000 625 kafka.16u32g.cluster 3~50 250000 2000 200 4000 300~1500000 750 表2 Kafka单机实例规格 规格名称 代理个数 单个代理TPS 单个代理分区上限 单个代理建议消费组数 单个代理客户端总连接数上限 存储空间范围(GB) 单个代理流量规格(MB/s) kafka.2u4g.single.small 1 20000 100 15 2000 100~10000 40 kafka.2u4g.single 1 30000 250 20 2000 100~10000 100 父主题: Topic和分区问题
  • 漏洞扫描服务与其他服务的关系 表1 漏洞扫描服务与其他服务的关系 服务名称 关系说明 统一身份认证服务 统一身份认证服务(Identity and Access Management,简称IAM)为漏洞管理服务提供了权限管理的功能。需要拥有VSS Administrator权限的用户才能使用漏洞管理服务。 如需开通该权限,请联系拥有Security Administrator权限的用户,详细内容请参见《统一身份认证服务用户指南》。 云审计服务 云审计服务(Cloud Trace Service,CTS)记录了漏洞管理服务相关的操作事件,方便用户日后的查询、审计和回溯,具体请参见《云审计服务用户指南》。
  • 工作原理 漏洞管理服务具有如下能力: Web网站扫描 采用网页爬虫的方式全面深入的爬取网站url,基于多种不同能力的 漏洞扫描 插件,模拟用户真实浏览场景,逐个深度分析网站细节,帮助用户发现网站潜在的安全隐患。同时内置了丰富的无害化扫描规则,以及扫描速率动态调整能力,可有效避免用户网站业务受到影响。 主机扫描 经过用户授权(支持账密授权)访问用户主机,漏洞管理服务能够自动发现并检测主机操作系统、中间件等版本漏洞信息和基线配置,实时同步官网更新的漏洞库匹配漏洞特征,帮助用户及时发现主机安全隐患。 移动应用安全 对用户提供的安卓、鸿蒙应用进行安全漏洞、隐私合规检测,基于静态分析技术,结合数据流静态污点跟踪,检测权限、组件、网络等APP基础安全漏洞,并提供详细的漏洞信息及修复建议。
  • 收集范围 漏洞管理服务收集及产生的个人数据如表1所示。 表1 个人数据范围列表 类型 收集方式 是否可以修改 是否必须 域名 /IP地址 在添加域名时,由用户在界面输入。 是 是 用户名(网站登录) 在设置账号密码登录方式时,由用户在界面输入。 是 否 密码(网站登录) 在设置账号密码登录方式时,由用户在界面输入。 是 否 cookie值 在设置cookie登录方式时,由用户在界面输入。 是 否 cookie值可能不含有用户的个人信息。
  • 计费模式 漏洞管理服务提供按需计费和包年/包月两种计费模式,用户可以根据实际需求选择计费模式。 表2 各服务版本计费方式 服务版本 支持的计费方式 说明 价格详情 基础版 配额内的服务免费 按需计费 基础版配额内仅支持Web 网站漏洞扫描 (域名个数:5个,扫描次数:每日5次)是免费的。 基础版提供的以下功能按需计费: 可以将Web漏洞扫描或主机漏洞扫描任务升级为专业版规格进行扫描,扫描完成后进行一次性扣费。 主机扫描一次最多支持20台主机。 产品价格详情 专业版 包年/包月 相对于按需付费,包年/包月购买方式能够提供更大的折扣,对于长期使用者,推荐该方式。包周期计费按照订单的购买周期来进行结算,不限制扫描次数。 高级版 企业版
  • 查看扫描结果 在目标网站所在行的“安全等级”列,单击“查看报告”,进入扫描结果界面。 图3 查看报告 分别查看任务概况、漏洞列表、业务风险列表、站点结构、端口列表、站点信息和扫描项总览。 了解详细步骤请参考查看网站扫描详情。 图4 查看扫描结果 单击“生成报告”,弹出“生成报告配置”窗口。如果报告已生成,可直接执行7。 图5 生成报告 单击“确定”,弹出前往报告中心下载报告的提示框。 单击“确定”,进入“报告中心”页面。 单击生成报告所在行的“下载”,可将报告下载到本地。 单击“下载报告”,查看详细的检测报告。
  • 入门实践 当您完成了添加网站和认证域名认证的基本操作后,可以根据自身的业务需求使用漏洞管理服务提供的一系列常用实践。 表1 常用最佳实践 实践 描述 扫描网站信息 扫描具有复杂访问机制的网站漏洞 如果您的网站“www.example.com”除了需要账号密码登录,还有其他的访问机制(例如,需要输入动态验证码),请您设置“cookie登录”方式进行网站漏洞扫描,以便漏洞管理服务能为您发现更多安全问题。 在添加域名并完成域名认证后,请您参照本文档对具有复杂访问机制的网站(“www.example.com”)进行漏洞扫描。 手动探索文件录制指导 本最佳实践提供了手动探索文件的录制指导。使用漏洞管理服务企业版时,支持配置手动探索文件。 目前漏洞管理服务支持的手动探索文件格式为:BurpSuite site maps
  • 支持的服务版本 移动应用安全扫描仅支持基础版和专业版,详细内容请参见表1。 表1 版本说明 服务版本 支持的计费方式 说明 基础版 免费 基础版主要为用户提供体验机会,仅支持安全漏洞扫描。基础版同样提供在线报告查看功能,查看内容仅限安全漏洞项,不包括隐私合规项。每个用户默认拥有5次基础版额度,扫描失败不扣费。 专业版 包年,按需套餐包计费 套餐包规格为10次或1次,可增加扫描配额包。 专业版为付费版本,提供全量功能,包含安全漏洞、隐私合规检测。隐私合规紧跟工信部164号发文,针对违规收集个人信息、超范围收集个人信息、频繁索权、过度索权等通报问题进行检测。用户可在线查看扫描报告,并导出PDF格式离线报告。 须知: 因纯鸿蒙应用隐私检测暂不支持,选择专业版扫描会导致任务扫描失败,如果检测文件为纯鸿蒙应用,请勿选择专业版扫描,给您带来不便,请谅解! 父主题: 使用漏洞管理服务进行移动应用扫描
  • 支持的服务版本 漏洞管理服务侧已正式停售二进制成分分析功能,用户无法新购,已购买二进制成分分析相关规格的用户不受影响,可继续使用至套餐包到期。 如您需要继续使用同款产品,请在开源治理服务CodeArts Governance中重新购买使用。 二进制成分分析扫描仅支持基础版和专业版,详细内容请参见表1。 表1 版本说明 服务版本 支持的计费方式 说明 基础版 免费 基础版主要为用户提供体验机会,仅支持开源软件漏洞扫描,扫描文件大小不能超过100M。基础版提供在线报告查看功能,不支持报告下载。每个用户默认拥有5次基础版额度,扫描失败不扣配额。 专业版 包年,按需套餐包计费 套餐包规格为20次或1次,可增加扫描配额包。 专业版为付费版本,提供全量功能,包含开源软件漏洞、安全配置、密钥和信息泄露、安全编译选项,扫描文件大小不能超过5G。用户可在线查看扫描报告,并导出PDF格式或Excel格式离线报告。 扫描失败时,不扣配额。 父主题: 二进制成分分析
  • 相关术语说明 开源(open source) 即开放一类技术或一种产品的源代码,源数据,源资产,可以是各行业的技术或产品,其范畴涵盖文化、产业、法律、技术等多个社会维度。 开源软件(open source software) 允许用户直接访问源代码,通过开源许可协议将其复制、修改、再发布的权利向公众开放的计算机软件。 开源组件(open source component) 是开源软件系统中最小可识别且本身不再包含另外组件的、组件信息可在公共网站获取且可独立分发、开发过程中带有版本号并且可组装的软件实体。 开源许可证(open source license) 开源软件的版权持有人授予用户可以学习、修改开源软件,并向任何人或为任何目的分发开源软件的权利。 软件成分分析(Software Composition Analysis) 通过分析软件包含的一些信息和特征来实现对该软件的识别、管理、追踪的技术。 PE(Portable Executable) 是Windows系统下的可执行文件的标准格式。 ELF(Executable and Linkable Format) 是一种Unix或Linux系统下的可执行文件,目标文件,共享链接库和内核转储(core dumps)的标准文件格式。 APK(Android application package) 是Android操作系统使用的一种应用程序包文件格式,用于分发和安装移动应用及中间件。 HAP(HarmonyOS application package) 是鸿蒙操作系统使用的一种应用程序包文件格式,用于分发和安装移动应用及中间件。 CVE(Common Vulnerabilities and Exposures) 又称通用漏洞披露、常见漏洞与披露,是一个与信息安全有关的数据库,收集各种信息安全弱点及漏洞并给予编号以便于公众查阅。 CVSS(Common Vulnerability Scoring System) 通用漏洞评分系统,是一个行业公开标准,其被设计用来评测漏洞的严重程度,并帮助确定所需反应的紧急度和重要度,有CVSS 2.0、3.0、3.1标准。 固件(firmware) 是一种嵌入在硬件设备中的软件。 NVD National Vulnerability Database国家安全漏洞库。 CNVD China National Vulnerability Database国家信息安全漏洞共享平台。 CNNVD China National Vulnerability Database of Information Security国家信息安全漏洞库。 组件依赖 保证组件正确运行所依赖的必须加载的其他组件。 父主题: 二进制成分分析
  • 漏洞管理服务 CodeArts Inspector 使用流程 漏洞管理服务使用概览如表1所示。 表1 漏洞管理服务使用流程概览 子流程 说明 购买漏洞管理服务 漏洞管理服务提供了基础版、专业版、高级版和企业版四种服务版本。 其中,基础版配额内的服务免费,部分功能按需计费;专业版、高级版和企业版需要收费。 具体操作请参见购买漏洞管理服务。 添加待漏洞扫描的资产 添加待扫描的网站资产或主机资产,具体操作请参见添加待漏洞扫描的网站或添加待漏洞扫描的主机。 创建扫描任务 创建扫描任务即可对网站或主机进行扫描,具体操作请参见创建网站漏洞扫描任务、创建主机漏洞扫描任务或添加移动应用漏洞扫描任务。 查看扫描结果 扫描完成后可以查看扫描结果。 网站扫描结果,请参见查看网站扫描详情。 主机扫描结果,请参见查看主机扫描详情。 移动应用扫描结果,请参见查看移动应用扫描详情。 安全监测 安全监测任务可对网站资产进行监测,具体操作请参见添加网站安全监测任务。(可选,此步骤可单独操作)。
  • 步骤4:查看扫描结果并下载扫描报告 扫描任务执行成功后,您可以查看扫描结果并下载扫描报告。 在目标网站所在行的“安全等级”列,单击“查看报告”,进入扫描任务详情页面,如图6所示。 图6 查看扫描任务详情 单击“生成报告”,弹出“生成报告配置”窗口。 生成的扫描报告会在24小时后过期。过期后,若需要下载扫描报告,请再次单击“生成报告”,重新生成扫描报告。 图7 生成扫描报告 (可选)修改“报告名称”。 单击“确定”,弹出前往报告中心下载报告的提示框。 单击“确定”,进入“报告中心”页面。 单击生成报告所在行的“下载”,可将报告下载到本地。
  • 场景说明 如果用户的网站“www.example.com”除了需要账号密码登录,还有其他的访问机制(例如,需要输入动态验证码),请设置“cookie登录”方式进行网站漏洞扫描,以便CodeArts Inspector能为您发现更多安全问题。 在添加域名并完成域名认证后,请您参照本文档对具有复杂访问机制的网站(“www.example.com”)进行漏洞扫描。 操作流程如下: 获取网站的cookie值 设置网站“cookie登录”方式 创建扫描任务 查看扫描结果并下载扫描报告
  • 步骤3:创建扫描任务 创建扫描任务时,请您保持网站的登录状态,以免cookie失效。 在该域名所在行的“操作”列,单击“扫描”。 在“创建任务”界面,根据扫描需求,设置扫描参数,如图5所示。 关于扫描项的详细介绍,请参见创建扫描任务。 图5 创建扫描任务 设置完成后,单击“确认”,进入扫描任务页面。 创建扫描任务后,会先进入“排队中”状态,满足运行条件后任务状态变为“进行中”。 当网站列表中有“扫描状态”为“排队中”或“进行中”的任务时,可以单击网站列表上方的“批量取消”,在弹出的窗口中勾选需要取消扫描操作的网站进行批量取消。
共100000条