华为云用户手册

  • 查看作业详情 在“作业列表”页面可以查看所有作业的状态、使用的视频源和算法服务、厂商和创建时间这些基本信息。若需要展示指定作业,可通过作业名称或视频源名称进行模糊查询,或者通过作业状态、算法服务和厂商进行精确的下拉筛选,最后按照创建时间进行升序或降序的排序。 单击作业名称,可以查看作业的详细信息,包括作业使用的算法配置模板和算法结果的输出配置等。 当作业状态处于运行中或运行成功时,表示作业运行状态正常。当创建的作业任务运行成功后,按照创建作业时选择的输出类型和路径查看作业结果。详见获取作业结果。 作业有15种运行状态,如表1所示。 表1 作业运行状态 状态类型 说明 运行中 作业正常运行过程中。 启动中 等待资源调度过程。 运行成功 作业运行成功。 运行失败 作业运行失败。 创建失败 作业创建失败。 删除中 作业正常删除过程中。 等待中 作业没有申请到资源,排队等待过程。 升级中 作业处于自动升级状态。 冻结中 用户欠费时,会冻结正在运行的作业,作业处于冻结过程中。 已冻结 作业已经在边缘节点删除成功,在保留期内用户充值补交欠费后会重新启动。 恢复中 作业正在恢复运行。 已停止 作业已暂停运行。 停止中 作业正在停止运行。 异常 作业出现异常。 启动失败 作业启动失败。 父主题: 管理作业
  • Step2 获取具体的分析结果 在设置的输出路径下,查看分析结果。 DIS 登录DIS控制台。 单击相应的DIS通道,查看输入流是否有数据。 通过DIS转储任务获取分析的结果数据,具体操作请参见DIS用户指南。 Webhook 服务使用post请求将作业的运行结果,包括告警结构化数据和图片数据,以JSON数据流的形式输出到用户指定的Webhook URL。 例如运行Webhook Service中的示例脚本将接收到的Webhook消息写在与脚本同目录的post.txt文件中。 以入侵检测算法为例,算法输出的JSON结果示例如下,表示识别出视频中在指定区域有人入侵。 { "event_type":196609, "timestamp":1581753322, "stream_id":"44000000581314000234#15#9f63890660f24175871c861b345e852d", "message_id":"849D1326-4FC8-11EA-8F73-0242AC110004", "image_base64":"/9j/4AAQSkZJRgA...", "task_id":"63eac48bf3704e8bb30af7f244fdcf3d", "data":{ "event_set":[ { "start_position":"in", "end_position":"in", "bounding_box":{ "y":327, "h":216, "x":876, "w":105 }, "category":0, "detection_id":"83BFC020-4FC8-11EA-9F93-0242AC110004" } ] }} 表1 JSON结果字段解释 字段 说明 task_id 表示作业ID。 data data中的内容表示算法作业运行输出的识别结果。 bounding_box 告警输出对象的矩形框。 x:矩形框左上角横坐标 y:矩形框左上角纵坐标 w:矩形框宽度 h:矩形框高度 detection_id 告警目标对应的UUID。 category 告警目标的类型: 0:人 1:车 2:其他 start_position 表示入侵开始位置: 如果是过线入侵,则是入侵开始所在线一侧的名字。 如果是区域入侵,则是“in”或者“out”。 in:表示入侵开始在区域里面。 out:表示入侵开始在区域外面。 end_position 表示入侵结束位置: 如果是过线入侵,则是入侵结束所在线一侧的名字。 如果是区域入侵,则是“in”或者“out”。 in:表示入侵结束在区域里面。 out:表示入侵结束在区域外面。
  • 云上算法使用流程 表2 云上算法使用流程 流程 子任务 说明 详细指导 准备输入输出 接入视频数据 您在使用 视频接入分析服务 的算法服务前,需要先接入视频数据,才能用算法服务对接入的视频进行分析,获取结果。 云上算法支持的接入视频数据来源有OBS、VIS、URL、Restful、VCN。 视频源列表 准备结果输出通道 如果将结果输出到DIS或Webhook的话需要提前准备好作业分析结果的输出通道。 准备结果输出通道 准备云上算法 创建云上运行池 华为自研云上算法不需要额外创建资源池。非华为自研算法需要自行购买资源池来部署算法。 管理云上资源池 购买算法包 根据业务需求选择购买对应的云上算法包。 购买算法包 部署算法服务 华为自研云上算法不需要手动部署。非华为自研算法需要手动部署后才可使用。 部署算法服务 创建分析作业 创建作业 创建作业需要指定一个已接入的视频源、一种已购买的算法服务,配置对应算法参数和作业执行计划,最后选择输出类型。 创建作业 查看分析结果 查看作业状态 作业创建成功后,观察作业的运行状态,待运行成功后,获取作业分析结果。 查看作业状态 获取作业结果 您可以根据设置的输出数据类型,采用对应的方式获取作业分析结果。 获取作业结果
  • 运行Webhook Service 智能视频分析服务作业的结果输出类型选择为Webhook时,在创建作业前,需确保Webhook Service已运行成功。 下面以一个简单的python脚本作为示例,展示如何启动Webhook Service并保存接收的数据。 准备一台本地的Linux服务器,确保Linux服务器和边缘节点服务器网络通畅,并已安装python环境。 使用ifconfig命令在Linux服务器上查询服务器IP地址。 修改脚本第18行,填入Linux服务器IP地址。 图1 示例脚本post.py import jsonfrom wsgiref.simple_server import make_serverdef application(environ, start_response): start_response('200 OK', [('Content-Type', 'application/json')]) request_body = environ["wsgi.input"].read(int(environ.get("CONTENT_LENGTH", 0))) f=open('./post.txt','a') f.write(request_body) f.write("\n") f.close() return ("200 success\n")if __name__ == "__main__": port = 6006 httpd = make_server("10.10.10.1", port, application) print "serving http on port {0}...".format(str(port)) httpd.serve_forever() 脚本中的端口6006可以根据用户实际需要修改。 创建作业时,算法输出Webhook URL设置为:http://${IP}:${port}。例如:http://10.10.10.1:6006。 执行脚本,启动Webhook Service。 python post.py 图2 执行脚本成功
  • 边缘算法使用流程 表1 边缘算法使用流程 流程 子任务 说明 详细指导 准备边缘算法 创建边缘运行池 边缘运行池是一组处理服务作业的边缘节点。在创建服务作业前,要求先创建边缘运行池。 创建边缘运行池 购买算法包 根据业务需求选择购买对应的边缘算法包。 购买算法包 部署算法服务 使用边缘算法前需要将其部署到边缘资源池。 部署算法服务 准备输入输出 接入视频数据 您在使用 视频接入分析 服务的算法服务前,需要先接入视频数据,才能用算法服务对接入的视频进行分析,获取结果。 边缘算法支持接入摄像头、Restful、VCN三种视频数据来源。 视频源列表 准备结果输出通道 如果将结果输出到DIS或Webhook的话需要提前准备好作业分析结果的输出通道。 准备结果输出通道 创建分析作业 创建作业 创建作业需要指定一个已接入的视频源、一种已购买的算法服务,配置对应算法参数和作业执行计划,最后选择输出类型。 创建作业 查看分析结果 查看作业状态 作业创建成功后,观察作业的运行状态,待运行成功后,获取作业分析结果。 查看作业状态 获取作业结果 您可以根据设置的输出数据类型,采用对应的方式获取作业分析结果。 获取作业结果
  • 事件规则 事件规则,即展示事件的规则。 在事件列表页面单击“更多”,打开事件规则。 进入“事件规则”页面,可开启人工审核或事件重复聚合。 人工审核。如果开启,所有的事件都不会通过订阅的方式推送给用户,只有通过审核之后才会推送,如果关闭,则默认将所有的事件推送给用户。 事件重复聚合。开启事件重复聚合之后,需要设置事件聚合的时间(取值范围:1-1000)。即在这段时间产生的所有事件,都会聚合展示(将第一个事件作为主事件展示在事件列表里面,其余的事件作为从事件,展示在事件详情页),如果关闭此开关则将接下来所有的事件作为主事件展示在事件列表。 父主题: 事件列表
  • 查看批量配置详情 在“批量配置”页面可查看所有批量配置的算法、分组名称、作业数量、状态这些基本信息。若需要展示指定批量配置,可通过批量名称或算法服务名称进行模糊查询,或者通过算法服务、分组名称、作业状态和厂商进行精确的下拉筛选,最后可选择按照作业数量或创建时间进行升序或降序的排序。 批量配置更详情的信息可单击批量配置的名称进行查看。除了基本信息外,详情页会展示当前批量配置下关联的视频分析作业列表。关联的作业列表支持对作业筛选、启动以及查看单条作业的详情。
  • 新建订阅 单击事件订阅,进入订阅列表页面。 单击“新建订阅”,参考表1填写相关参数。 表1 订阅事件参数填写说明 参数名称 参数描述 订阅者名称 设置订阅者名称。 视频源 选择“全部”或“部分”。 “全部”即订阅所有视频源的告警信息;“部分”即订阅所选视频源的告警信息。 订阅地址 订阅者本地PC地址。例:http://127.0.0.1:8080 请求头 随着订阅的消息一起发送给订阅者,格式为key-value。至少有一个自定义的请求头。 订阅者描述 描述信息,可选填。 新建订阅之后,平台会将产生的事件发送给订阅了该视频源的所有订阅者。
  • 运行Webhook Service AI视频分析服务作业的结果输出类型选择为Webhook时,在创建作业前,需确保Webhook Service已运行成功。 下面以一个简单的python脚本作为示例,展示如何启动Webhook Service并保存接收的数据。 准备一台本地的Linux服务器,确保Linux服务器和边缘节点服务器网络通畅,并已安装python环境。 使用ifconfig命令在Linux服务器上查询服务器IP地址。 修改脚本第18行,填入Linux服务器IP地址。 图1 示例脚本 import jsonfrom wsgiref.simple_server import make_serverdef application(environ, start_response): start_response('200 OK', [('Content-Type', 'application/json')]) request_body = environ["wsgi.input"].read(int(environ.get("CONTENT_LENGTH", 0))) f=open('./post.txt','a') f.write(request_body) f.write("\n") f.close() return ("200 success\n")if __name__ == "__main__": port = 6006 httpd = make_server("10.10.10.1", port, application) print "serving http on port {0}...".format(str(port)) httpd.serve_forever() 脚本中的端口6006可以根据用户实际需要修改。 创建作业时,算法输出Webhook URL设置为:http://${IP}:${port}。例如:http://10.10.10.1:6006。 执行脚本,启动Webhook Service。 python post.py 图2 执行脚本成功
  • 19. 特殊车辆检测 视频开始时间:对于离线视频,该项必须配置;实时视频流场景,无须配置。取值格式示例:2019/04/14 08:00:00 车道线:每条车道线的位置信息,格式为[[x1, y1, x2, y2],..., [x1, y1, x2, y2]],其中x1, y1, x2, y2依次表示车道线上端点坐标值和下端点坐标值。 车牌信息:包括车牌所属城市缩写和省份信息。 特殊车辆集合:属于该列表的特殊车辆会被检测并输出事件。0表示中巴,1表示罐车,2表示大货车,3表示大客车。 输出图片设置:默认值为0,表示不输出检测图像,1表示输出。
  • 21. 交通拥堵检测 检测区域设置:包括车道线信息。未设置检测区域时,默认全屏都是检测区域。 输出图像开关:默认值为1,表示输出检测图像,0表示不输出。 拥堵检测输出时间间隔:取值范围为[0, 600],单位为秒。如果该值等于0,表示事件触发,即有拥堵产生的情况下才输出;如果该值大于等于1,表示事件按照配置的时间间隔输出。 渲染参数开关:默认为0表示不启用渲染,1表示启用渲染。启用渲染时,每一帧都会输出带车框的图片和拥堵指数,用于合成视频。 渲染模式下需要保证带宽足够大,期望的带宽为300M/s。当带宽满足不了时,输出会丢数据,并产生丢数据的日志。
  • 23. 人脸提取 检测目标最大像素值:表示发送人脸图片长宽的最大像素,取值范围[90,1000],默认值为800。如果该参数设置得过小,人脸提取的准确率会受到影响。 检测目标最小像素值:表示发送人脸图片长宽的最小像素,取值范围[90,1000],默认值为120。如果该参数设置得过大,人脸提取的准确率会受到影响;如果该参数设置得过小,则可能提取到分辨率较低的人脸图。 发送原图开关:表示检测结果是否发送人脸原始图。0表示不发送原图,1表示发送原图,默认值为0。 原图压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。 跳帧数:表示每分析视频1帧画面后,所跳过的帧数。例如设置为2,表示每处理1帧跳过2帧。取值范围[0, 10],默认值为0。该参数值越大,算法的性能消耗就越低,但会影响人脸提取的效果。 本地存储时间:表示本地文件保存时间,单位为天,超期会被自动删除。输出类型为Local Path(即将作业的运行结果保存在边缘节点本地)时生效,取值范围[1, 180],默认值为1天。 人脸首次发送时间:表示从检测出人脸到发送人脸图之间的计时,单位为s,取值范围[0, 360],默认值0。从人脸被检测开始计时,至该参数所设置的时间结束,算法会选择期间满足发送条件且质量最好的人脸图进行发送。 人脸必须发送开关:表示检测出行人后是否必须发送一张人脸。默认值为0,表示非必须发送。当参数设为1时,即使行人在检测过程内都没有满足发送条件的人脸,也会发送一张人脸。 人脸重复发送开关:表示是否重复发送同一位行人的多张人脸图。默认值为0,表示不重复发送。1表示重复发送。参数设为1后,需配合“人脸重复发送模式”、“人脸重复发送质量倍数”和“人脸重复发送周期”参数共同使用,从而选择以质量递增或者周期发送的模式,来发送同一个人的多张人脸图。 人脸重复发送模式:表示对同一位行人多张脸图的发送模式,取值范围: QUALITY_STEP:按质量递增的模式发送,需配合“人脸重复发送质量倍数”参数使用。对同一位行人,当新检测到的脸图质量高于已发送脸图质量一定程度时,会再次发送。 PERIOD:按时间周期的模式发送,需配合“人脸重复发送周期”参数使用。对同一位行人,选取每个时间周期内质量最优人脸进行发送。 人脸重复发送质量倍数:表示人脸图重复发送的质量递增倍数。对同一位行人,当新检测到的人脸图质量大于已发送人脸图一定程度时,触发再次发送一张人脸图,取值范围[1.0, 10.0]。默认值为1.2,表示新人脸图的质量必须大于已发送人脸图质量的1.2倍时,才会再次发送。 人脸重复发送周期:表示重复发送人脸图的周期时间。对同一位行人,在每个周期结束时,选取该周期内质量最好的人脸图发送一次。单位为s,取值范围[0,360],默认值为1。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认全屏都是检测区域。
  • 24. 占道经营检测 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。 占道经营检测开关:默认为1表示检测。0表示不检测。 出店经营检测开关:默认为0表示不检测。1表示检测。 目标框渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标边框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。 检测区域设置:表示检测区域。该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]],"name":"polygon"}]}可为每个区域设置名称,后续输出结果时会连带输出区域名称。参数没有携带时,默认区域为整个视频帧,默认区域名称为空字符串。
  • 25. 垃圾检测 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。 垃圾检测开关:默认为1表示检测垃圾。2表示检测垃圾并检测疑似丢垃圾的人。 邻近行人约束开关:当开关打开时,垃圾附近有行人逗留的告警将被过滤。默认为0表示不开启开关。1表示开启开关。 垃圾最小尺寸:由于不同应用场景对垃圾的定义不同,用户可自定义配置垃圾最小尺寸,小于该尺寸的垃圾目标将不被告警。取值范围[1, 500]。默认值为1。 目标框渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标边框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。 检测区域设置:表示检测区域。该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]],"name":"polygon"}]}可为每个区域设置名称,后续输出结果时会连带输出区域名称。参数没有携带时,默认区域为整个视频帧,默认区域名称为空字符串。
  • 17. 个体动作检测 climb_detection_sw:对输入视频流是否检测翻越动作,1表示检测,0表示不检测。默认值为1。 fall_detection_sw:对输入视频流是否检测摔倒动作,1表示检测,0表示不检测。默认值为1。 wave_detection_sw:对输入视频流是否检测挥手动作,1表示检测,0表示不检测。默认值为1。 bend_detection_sw:对输入视频流是否检弯腰动作,1表示检测,0表示不检测。默认值为1。 render_result_sw:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标边框。 render_roi_sw:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。 target_roi:表示检测区域,当在该区域内的垃圾桶被检测到异常状态时,触发告警。该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认全屏都是检测区域。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。
  • 18. 异常停车检测 检测区域设置:包括车辆检测区域以及离开线和靠近线。未设置检测区域时,默认全屏都是检测区域。 车牌信息:包括车牌所属城市缩写和省份信息。 异常停车时间阈值:当车辆持续该值都没有移动过,就产生异常停车。取值范围为[20, 3600],单位为秒。最长停车阈值设为1小时。 重复上报停车的时间间隔:同辆车重复上报的时间间隔,取值范围[30, 86400],单位为秒,默认为30s。最长间隔为24小时。 该值为max(异常停车时间阈值, 重复上报停车的时间间隔)。 输出图像开关:默认值为1,表示输出检测图像,0表示不输出。
  • 22. 高速流量统计及事件检测 车道线:包括高速车道线及车速统计辅助线。 拥堵检测开关:是否检测拥堵事件,默认为0表示不检测。1表示检测。 流量统计时间间隔:取值范围[60,600],单位为秒。 异常停车检测开关:是否检测异常停车事件,默认为0表示不检测,1表示检测。 异常停车判定阈值:超过该停车时间时判定为异常停车,单位为秒,默认值为30。 异常停车事件输出时间间隔:针对同一起异常停车事件输出消息的时间间隔。取值范围[1,180],单位为秒,默认值为30。 拥堵事件输出时间间隔:针对拥堵事件输出消息的时间间隔。取值范围[1,180],单位为秒,默认值为30。 行人和非机动车检测开关:默认为0表示不检测,1表示检测。 违章行驶检测开关:0表示不检测,1表示检测,默认值为1。检测频率固定为2秒钟一次,检测事件包括压线行驶、逆行倒车、占用应急车道。 光照是否恒定不变:0表示光照会变化,1表示不变,默认值是0。该参数用于有些特殊路段的光照配置,比如隧道中持续亮灯,则该参数可以配置 1。
  • 3. 关键岗位检测 关键岗位检测开关:是否开启关键岗位检测告警,默认值为1,表示开启。0表示不开启。 在岗最小人数:关键岗位检测区域的最少人数,取值范围为[1, 100],默认值为2人。 检测周期:关键区域检测周期,单位为秒。取值范围为[1, 3600],默认值为1s。当时间到达检测周期整数倍时,触发算法检测在岗人数。 告警触发阈值:单位为检测周期个数。取值范围为[1, 3600],默认值为60。假设告警触发阈值为N,当连续N个检测周期时间内检测结果都不满足最小在岗人数,则触发告警。触发告警或满足在岗人数则重新开始计数,直到再次达到告警阈值。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认区域为整个视频帧中间的1/4。
  • 8. 工服工帽检测 工帽检测开关:默认值为1,表示检测。0表示不检测。 工服检测开关:默认值为1,表示检测。0表示不检测。 目标框渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标边框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认全屏都是检测区域。
  • 15. 排队状态分析 排队状态分析开关:1表示开启,0表示不开启。默认值为1。 检测结果渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标边框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认区域为整个视频帧。 图片压缩比:取值范围[20, 100],默认值为90,表示图片压缩比为90%。
  • 1. 人流量统计 过线人流量统计周期:统计设定时间周期内的人流量结果,单位为秒。取值范围为(0, 86400],默认值为2s。 区域人流量统计周期:统计当前时刻的区域人流量结果,单位为秒。取值范围为(0, 86400],默认值为2s。 过线人流量统计开关:对输入视频流是否检测过线人流量,默认值为1,表示检测。0表示不检测。 区域人流量统计开关:对输入视频流是否检测区域人流量,默认值为1,表示检测。0表示不检测。 检测区域设置:表示检测区域,该字段为JSON格式的字符串。例如:{"lines":[{"data":[[560,680],[1185,506]],"properties":{"side1_name":"Side1","side2_name":"Side2"}}],"polygons":[{"data":[[0,0],[0,1080],[1920,1080],[1920,0]]}]}。未设置检测区域时,默认全屏都是检测区域。 热力图检测开关:默认值为0,表示不开启。1表示开启。 热力图检测周期:单位为秒。取值范围为[10, 86400],默认值为10s。 热点图更新周期:单位为帧。取值范围为[1, 10000],默认值为4。在热力图检测周期内,热点值逐渐累加。
  • 2. 入侵检测 过线检测开关:默认值为1,表示开启。0表示不开启。 徘徊检测开关:默认值为0,表示不开启。1表示开启。 区域检测开关:默认值为1,表示开启。0表示不开启。 车检测开关:默认值为0,表示不检测。1表示检测。 人脸检测开关:默认值为1,表示检测。0表示不检测。 检测目标最大像素值:检测目标的长宽最大像素,取值范围[1080, 4000],默认值为1080。 检测目标最小像素值:检测目标的长宽的最小像素,取值范围[60, 4000],默认值为60。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"lines":[{"data":[[560,680],[1185,506]],"properties":{"side1_name":"Side1","side2_name":"Side2"}}],"polygons":[{"data":[[0,0],[0,1080],[1920,1080],[1920,0]]}]}。未设置检测区域时,默认全屏都是检测区域。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。 检测结果渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。
  • 5. 遗留物检测 检测目标最小像素值:检测目标的长宽最小像素,与分辨率成正比,在1080p分辨率下,取值范围为[50, 400],默认值为50。 告警时间阈值:遗留物告警时间阈值,目标产生告警时的遗留时间不少于该时间。单位为秒,取值范围[10, 300],默认值为10。 检测周期:遗留物告警检测周期。如果在一个周期内有多个告警,则合并为一个告警。单位为秒,取值范围为[1, 150],默认值为5,建议取值范围为[1, 告警时间阈值/2]。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认全屏都是检测区域。 检测结果渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标边框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。
  • 13. 烟火检测 检测结果渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示当告警为烟时,用紫色绘制告警目标框;当告警为火时,用红色绘制告警目标框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。 视频采样间隔时间:取值范围[1, 10],默认为1s。表示1秒采样一次视频画面。此参数决定了算法检测的频率,时间间隔增加,烟或火从发生到检测的最大时延会增加,建议根据可接受的实际响应延时设置此参数。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认全屏都是检测区域。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。
  • 7. 消防通道占用 检测结果渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标边框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。 堆物占道检测开关:默认值为1,表示开启。0表示不开启。 车辆占道检测开关:默认值为1,表示开启。0表示不开启。 堆物占道停留时间设置:堆物在无明显遮挡的情况下停留时间超过该设置值则上报告警,其设置取值范围为[10, 3600],默认值为40,单位秒。 车辆占道停留时间设置:车辆在无明显遮挡的情况下停留时间超过该设置值则上报告警,其设置取值范围为[10, 3600],默认值为50,单位秒。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认全屏都是检测区域。
  • 9. 高密度人群统计 场景类型:取值范围[0, 3],默认为1。 0表示全屏模式,该模式即将退出,可用ROI模式替代。 1表示ROI模式。用户可以根据业务需要,选择画面中感兴趣区域进行人数和横幅统计,默认会对全屏进行统计。 2表示Flow模式。算法会根据视频画面连续几帧的检测情况,自动寻找画面中的静止人群汇聚区域。静止人群汇聚区域,通常可能伴随聚众议事、打闹等事件发生。当静止人群汇聚区域人数大于告警阈值时,会触发告警图片上报。 3表示Event模式。此时,事件间隔参数会生效。该模式即将退出,不建议使用。 事件间隔:取值范围[1, 20],默认为10。表示一次事件需要几次检测。仅当场景类型取值为3时生效。 视频采样处理时间间隔:取值范围[1, 30],默认为10s。表示10秒采样一次视频画面。 人数告警阈值列表:默认为50人。当视频帧中出现大于该阈值的人数时,上报告警。该字段在4种场景下的输入情况如下: 全屏模式,只能输入一个人数告警阈值。如果输入多个,默认使用第一个输入。 ROI模式,可以针对每个ROI区域输入不同的告警阈值,每个输入用空格进行分隔。若用户输入的人数告警阈值列表多于实际的ROI个数,则取前边的人数。如果输入的人数告警阈值列表少于实际的ROI个数,则比ROI个数少的部分用默认值补齐。举例:ROI有3个,当输入25 30 20,只要有其中一个ROI告警,则发送图片。当输入25 15时,则第三个ROI会用默认值50补齐,也即变成25 15 50。当输入25 36 23 40时,算法自动选择前3个,也即25 36 23。 Flow模式,只能输入一个人数告警阈值。如果输入多个,默认使用第一个输入。算法自动发现的所有汇聚区域都会共用这个告警阈值,只要有一个区域超过阈值,就会发送告警图片。 Event模式,人数告警阈值与ROI模式相同。 横幅检测开关:1表示打开,会对视频画面中的ROI区域进行横幅检测。0表示关闭,不检测。 横幅告警阈值列表:默认为1。当视频帧中出现大于该阈值的人横幅时,上报告警。 可视化输出开关:1表示打开,0表示关闭。默认为0,表示每个ROI区域检测到的人数大于告警阈值时,只会发送原图信息。只有打开可视化开关后,才会将检测到的行人和横幅进行可视化输出。可视化场景如下: 检测到单个行人,会用红色框进行标注。 检测到游行示威的横幅,会用红色框标注。 ROI模式(含全屏)检测到密集人群,会对该区域进行颜色渲染。 Flow模式检测到静止汇聚人群,会用黄色多边形进行区域标注。 对于ROI模式,每个ROI框会用黄色多边形在画面中标注。 密度估计开关:1表示启用密度估计模型,0表示不启用。默认为1。推荐当人数较多、告警人数阈值较大的场景启用密度估计模型;当人数较少、告警人数阈值较低的场景可不用密度估计模型。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认全屏都是检测区域。
  • 11. 共享单车检测 告警模式:共享单车违停告警模式,默认值:"single"。 "single": 表示单次告警模式,每当出现新的告警目标时,上报告警信息。 "periodic": 表示周期告警模式,每过一个检测周期,上报当前所有告警目标信息。 检测周期:共享单车违停检测周期,取值范围为[1, 3600],默认为60s。 告警触发时间:共享单车停留超过这个时间则告警。取值范围[10,300],默认为30s。 目标框渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示绘制,用黄色边框+红色底色,同时在框左上角位置标上warning标志。 合法区域设置:表示合法停车区域,车辆停在合法停车区域时不会触发违停事件。该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置区域时,默认全屏都是不合法停车区。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。
  • 12. 个体事件行为检测 吸烟检测开关:对输入视频流是否检测吸烟动作,1表示检测,0表示不检测。默认值为1。 打手机检测开关:对输入视频流是否检测打手机动作,1表示检测,0表示不检测。默认值为0。 目标框渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标边框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认全屏都是检测区域。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。
  • 14. 垃圾桶异常检测 告警触发时间:取值范围[30, 3600],默认为30s。当检测到垃圾桶状态异常达到该时长是触发告警。 目标渲染开关:输出图像是否绘制告警目标边框,默认为0,表示不绘制。1表示用红色绘制告警目标边框。 检测区域渲染开关:输出图像是否绘制检测区域,默认为0,表示不绘制。1表示用黄色绘制用户设定区域。 区域设置:表示检测区域,当在该区域内的垃圾桶被检测到异常状态时,触发告警。该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认全屏都是检测区域。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。
  • 6. 戴口罩检测 目标框渲染开关:输出图像是否绘制告警目标边框,默认为1,表示用红色绘制告警目标边框。0表示不绘制。 检测区域渲染开关:输出图像是否绘制检测区域,默认为1,表示用黄色绘制用户设定区域。0表示不绘制。 图片压缩比:取值范围[20, 100],默认为90,表示图片压缩比为90%。 检测区域设置:表示检测区域,该字段为JSON格式的字符串,例如:{"polygons":[{"data":[[84,389],[1840,349],[1824,526],[78,526]]}]}。未设置检测区域时,默认全屏都是检测区域。
共100000条