[快速入门]免费ai文本模型
AI开发平台ModelArts-概览

AI开发平台ModelArts AI开发平台ModelArts 面向开发者的一站式AI开发平台,可快速创建和部署模型,管理全周期AI工作流,助力千行百业智能升级 面向开发者的一站式AI开发平台,可快速创建和部署模型,管理全周期AI工作流,助力千行百业智能升级 重磅发布MaaS大模

内容审核-文本

内容审核-文本 内容审核-文本 内容审核-文本 Moderation (Text),基于华为自研的深度学习和内容审核模型,可自动识别出文本中出现的涉黄、广告、辱骂、灌水等内容,帮助客户降低业务违规风险,净化网络环境,提升用户体验 内容审核-文本 Moderation (Text)

CodeArts活动页

内全量构建的极速构建、支持亿级测试用例资产复用、千万级压测先进能力。 更智能: CodeArts引用大模型AIGC的突破,已实现代码智能生成、测试文本用例智能生成等,后续CodeArts会不断创新探索,将AI技术贯穿软件开发生命周期始终。 更安全: CodeArts致力从运行态的

向量数据库

引入动态难负例训练:采用动态难负样本优化召回模型,进一步推升模型效果。 应用场景 向量检索 向量检索的应用场景非常广泛,典型如:语义搜索、图像搜索、商品推荐、智能客服、企业知识库搜索等等。 优势 大模型的“黄金搭档” 为盘古大模型提供缓存能力,同时提供开箱即用的多模态Embedding能力。

图像搜索

支持百亿级图片索引构建,实时建库及检索,单图毫秒级响应 多特性:多特性搜索 多特性:多特性搜索 以图搜图,关键词搜索,文本搜索进行多特性搜索 预置特征抽取模型 预置特征抽取模型 预置垂直行业特征提取模型和细颗粒度特征组合,为用户快速构建图像检索能力 文档与学习成长 快速入门 快速入门 图像搜索功能介绍

Web应用防火墙WAF-大模型防火墙

全新上线:大模型防火墙 全新上线:大模型防火墙 全面守护AI应用安全,防范提示词攻击,确保内容合规与数据隐私 全面守护AI应用安全,防范提示词攻击,确保内容合规与数据隐私 免费试用大模型防火墙公测上线,可申请免费试用一个月 申请公测 了解更多 提示词攻击防护 识别并拦截恶意提示词,防止大模型被诱导生成不当内容。

ModelBox开发者专区

开源镜像开发 ModelBox AI应用开发 ModelBox是一套专门为AI开发者提供的易于使用,高效,高扩展的AI推理开发框架,它可以帮助AI开发者快速完成从模型文件到AI推理应用的开发和上线工作,降低AI算法落地门槛,同时带来AI应用的高稳定性和极致性能。 基于ModelBox开源社区源码开发AI应用

盘古预测大模型

文档与学习成长 盘古大模型 盘古大模型 什么是盘古大模型 盘古预测大模型能力与规格 盘古大模型快速入门 如何调用盘古大模型API 查看全部 AI Gallery百模千态社区 AI Gallery百模千态社区 优质昇腾云AI模型专区 几行代码自由部署AI应用 丰富多样的AI训练数据集 场景化AI案例,助力AI赋能千行百业

ModelArts Standard

支持订阅AI Gallery中的算法构建模型 训练管理 支持基于不同的数据,选择不同规格的资源池用于模型训练;支持使用以下三种方式开发模型:订阅算法、自定义算法、自定义镜像 AI应用管理 支持将训练作业中得到的模型、本地开发的模型部署为AI应用,并进行统一管理;提供模型转换能力,方便能够将模型部署在不同的设备上

[相关产品]免费ai文本模型
智慧监控AI模型

智慧监控AI模型综合集成了人脸识别模型、安全帽识别模型、口罩佩戴识别模型、车牌识别模型、车辆占道识别模型5种AI模型。一,人脸识别服务 人脸识别模型目前提供授权认证、模型加载、人脸注册、人脸识别、人脸删除、特征提取六个接口服务。 授权认证:需先进行授权认证,才能够正常使用人脸识别服务;

AI大模型 算法备案

《互联网信息服务算法推荐管理规定》明确,具有舆论属性或者社会动员能力的算法推荐服务提供者应当在提供服务之日起十个工作日内通过互联网信息服务算法备案系统填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息  方便

企业级AI模型开发

云坞网络专注于利用先进的AI云计算、大数据和人工智能技术,为企业提供卓越的ChatGPT行业解决方案。帮助企业快速实现数字化、智能化和绿色化转型。 系统定制开发:我们可以为客户提供系统的定制开发服务,帮助客户实现更多的个性化功能和业务流程需求。,数据迁移:我们帮助客户将现有系统的

AI大模型专业服务

湘江鲲鹏目前在人工智能模型领域拥有算力、数据、算法三大关键要素的经验积累,构建了大模型三个方面的差异化竞争力,盘古大模型AI专业服务覆盖从前期咨询、规划设计,到数据工程、模型训练,再到应用工程及模型运维的完整流程。基于华为盘古提供的AI专业服务包,致力于为企业提供一站式人工智能解决方案

文本识别

风险文本识别,可检测并识别该文本中包含的涉黄、涉政、广告内容 文本分类,提供对文本按照内容类型进行分类并输出置信度 文本关键词提取,对标题、文章等文本内容进行分析,提取核心关键词风险文本识别服务核心功能介绍: 输入一段文本,可检测并识别该文本中包含的涉黄、涉政、广告内容。 应用场景推荐:

大模型及AI应用配套服务

angChain等流行的大模型开发框架,构建企业级AI应用;团队拥有成熟的软件工程技术和管理能力。6. 大模型使用的技术支持,用户使用大模型平台,解答用户使用过程遇到的问题;大模型与应用对接集成,以及进行日常巡检、故障处理、模型升级等服务。4. 工业数据模型(CAD模型、CAE模

天尊大模型AIGC场景解决方案

太杉天尊大模型AIGC场景解决方案是以AI场景解决方案为核心的全栈Maas综合方案,助力政企客户灵活部署(可公有可私有部署)。具备自研的行业模型能力,主要用于政府/公安/教育等行业的数据处理、文本处理以及多模态处理等多场景。太杉天尊大模型AIGC场景解决方案,是一款专为满足政府企

文本审核

文本审核 文本内容审核】提供对负面词语的识别审核能力,可用于用户评论过滤、注册信息筛选、文章内容审核等场景。—— 我们只做精品!一、产品介绍 :【 文本审核 文本内容审核】提供对负面词语的识别审核能力,可用于用户评论过滤、注册信息筛选、文章内容审核等场景。—— 我们只做精品! 二、更多产品:更多商品请点击链接

人工智能AI大模型技术研发定制服务

公司集成了世界领先的底层大模型,具备打通跨模型和工具链的平台,提供从需求分析、数据收集、模型设计、训练优化、评估、系统集成、用户界面设计、部署维护、合规性检查、技术支持、性能监控、扩展性设计、定制服务到持续研发一站式AI模型定制研发服务。光启慧语是一家围绕大模型全栈开展技术研发和产品

[相似文章]免费ai文本模型
华为云盘古大模型_华为云AI大模型_盘古人工智能

了解详情 盘古预测大模型 盘古预测大模型是面向结构化类数据,基于10类2000个基模型空间,通过模型推荐、融合两步优化策略,构建图网络架构AI模型。 了解详情 盘古科学计算大模型 科学计算大模型是面向气象、医药、水务、机械、航天航空等领域,采用AI数据建模和AI方程求解的方法;从海

免费AI客服电话_AI智能语音外呼系统_AI人工语音智能电话

3,000.00元/年 免费AI客服电话-智能AI客户联络中心-AI智能电话机器特征 免费AI客服电话-智能AI客户联络中心-AI智能电话机器特征 免费AI客服电话-内置ASR引擎 支持ASR,NLP,NLU,TTS等技术数据整合识别、响应飞速提升 免费AI客服电话-多轮会话 领先

ModelArts推理部署_模型_AI应用来源-华为云

ModelArts支持本地准备模型包,编写模型配置文件和模型推理代码,将准备好的模型包上传至对象存储服务OBS,从OBS导入模型创建为AI应用。 制作模型包,则需要符合一定的模型包规范。模型包里面必需包含“model”文件夹,“model”文件夹下面放置模型文件,模型配置文件,模型推理代码文件。

通用文字识别_通用文本识别_【免费】_OCR_在线文字识别

通用文字识别免费试用 通用文字识别支持表格识别、文档识别、网络图片识别、手写文字识别、智能分类识别等任意格式图片上文字信息的自动化识别,自适应分析各种版面和表格,快速实现各种文档电子化。 通用OCR功能介绍 通用表格识别 提取表格内的文字和所在行列位置信息,适应不同格式的表格。同

ModelArts模型训练_模型训练简介_如何训练模型

ModelArts模型训练 ModelArts模型训练简介 ModelArts模型训练,俗称“建模”,指通过分析手段、方法和技巧对准备好的数据进行探索分析,从中发现因果关系、内部联系和业务规律,为商业目的提供决策参考。训练模型的结果通常是一个或多个机器学习或深度学习模型模型可以应用到新的数据中,得到预测、评价等结果。

文本校对_在线文字校对_文字校对

了解更多 文本校对相关文章推荐 识别ocr_识别接口api_ocr平台 表格ocr_在线ocr_ocr平台系统 实时语音识别_录音文件识别_语言生成 网络虚拟号码发送短信_免费用虚拟号码发短信 免费云服务_云免费试用_免费套餐_服务器体验 免费的试用云主机_免费云主机_免费云主机试用一年

在线文字转语音_【免费】_文本转换语音_文字转换成真人语音_文字转音频

在线文字转语音 - 智能教育 在线文字转语音 - 智能教育 将书本上的文本内容合成为语音,接近真人的发音可模拟真人教学场景,实现课文的朗读和带读,帮助学生更好地理解和掌握教学内容 优势 效果自然 合成音效流畅、自然,在音色、自然度等方面接近人声 个性定制 根据喜好选择不同的发声人 免费试用 立即购买

免费的企业用邮箱_mail企业邮箱_免费注册企业邮箱

选择企业邮箱。 企业邮箱购买计费 华为云有免费企业邮箱吗 您可以多关注和华为云企业邮箱相关的活动,当前可以免费试用15天,在15天内相当于免费企业邮箱。 注册企业邮箱收费吗 注册企业邮箱一般是需要收费的,但各个厂商有活动时,可能有可以免费试用的活动。您可以关注华为云的企业邮箱活动。

GaussDB数据库模型_GaussDB是什么_高斯数据库模型

华为数据库GaussDB_GaussDB数据库的优点_【免费】_GaussDB分布式数据库_数据库平台 关系数据库管理系统_数据库管理系统、数据库应用 数据库软件免费版 云数据库免费_云数据库免费试用 免费数据库GaussDB NoSQL_云数据库_数据库免费免费云数据库 MySQL数据库入门 云数据库和普通数据库

免费ai文本模型

ModelArts Studio大模型即服务平台部署成功的模型服务支持在其他业务环境中调用。本文以我的服务为例,调用部署的模型服务。您也可以调用预置服务-免费服务、预置服务-商用服务或预置服务-自定义接入点。

操作场景

在企业AI应用开发过程中,开发人员通常需要将训练好的模型部署到实际业务环境中。然而,传统方法需要手动配置环境、处理依赖关系、编写部署脚本,整个过程耗时且容易出错,且存在环境复杂、迁移困难、维护成本高、版本更新麻烦等问题。

ModelArts Studio(MaaS)大模型即服务平台提供了一站式解决方案,提供统一的API接口方便业务系统调用,并提供监控和日志功能便于运维管理。

计费说明

在调用模型推理服务的过程中,输入内容首先会被分词(tokenize),转换为模型可识别的Token。在调用MaaS预置服务时,将根据实际使用的Tokens数量进行计费。计费详情请参见计费说明

前提条件

步骤一:获取API Key

在调用MaaS部署的模型服务时,需要填写API Key用于接口的鉴权认证。最多可创建30个密钥。每个密钥仅在创建时显示一次,请确保妥善保存。如果密钥丢失,无法找回,需要重新创建API Key以获取新的访问密钥。更多信息,请参见在ModelArts Studio(MaaS)管理API Key

  1. 登录ModelArts Studio(MaaS)控制台,在顶部导航栏选择目标区域。
  2. 在左侧导航栏,单击“API Key管理”
  3. “API Key管理”页面,单击“创建API Key”,填写标签和描述信息后,单击“确定”

    标签和描述信息在创建完成后,不支持修改。

    表1 创建API Key参数说明

    参数

    说明

    标签

    自定义API Key的标签。标签具有唯一性,不可重复。仅支持大小写英文字母、数字、下划线、中划线,长度范围为1~100个字符。

    描述

    自定义API Key的描述,长度范围为1~100个字符。

  4. “您的密钥”对话框,复制密钥并保存至安全位置。
  5. 保存完毕后,单击“关闭”

    单击“关闭”后将无法再次查看密钥。

步骤二:调用MaaS模型服务进行预测

  1. ModelArts Studio(MaaS)控制台左侧导航栏,选择“在线推理”
  2. “在线推理”页面,单击“我的服务”页签,在目标服务右侧,单击操作列的“更多 > 调用说明”
  3. “关闭 内容审核 服务”对话框,选择是否启用内容审核(默认启用)。
    • 启用内容审核,可以阻止在线推理中的输入输出中出现不合规的内容,但可能会对接口性能产生较大影响。
    • 关闭内容审核服务,将不会审核在线推理中的输入输出,模型服务可能会有违规风险,请谨慎关闭。

      关闭“内容审核”开关,需要在弹窗中确认是否停用内容审核服务,勾选“我已阅读并同意上述说明”后,单击“确定”关闭。

  4. “调用说明”页面,选择接口类型,复制调用示例,修改接口信息和API Key后用于业务环境调用模型服务API。

    Rest API、OpenAI SDK的示例代码如下。

    • Rest API示例代码如下所示:
      • 使用Python调用示例。
        import requests
        import json
        
        if __name__ == '__main__':
            url = "https:/example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/v1/chat/completions"
            api_key = "<your_apiKey>"  # 把<your_apiKey>替换成已获取的API Key。
        
            # Send request.
            headers = {
                'Content-Type': 'application/json',
                'Authorization': f'Bearer {api_key}'
            }
            data = {
                "model": "******",  # 调用时的模型名称。
                "max_tokens": 1024,  # 最大输出token数。
                "messages": [
                    {"role": "system", "content": "You are a helpful assistant."},
                    {"role": "user", "content": "hello"}
                ],
                # 是否开启流式推理,默认为False,表示不开启流式推理。
                "stream": False,
                # 在流式输出时是否展示使用的token数目。只有当stream为True时该参数才会生效。
                # "stream_options": {"include_usage": True},
                # 控制采样随机性的浮点数,值较低时模型更具确定性,值较高时模型更具创造性。"0"表示贪婪取样。默认为0.6。
                "temperature": 0.6
            }
        	response = requests.post(url, headers=headers, data=json.dumps(data), verify=False)
        	# Print result.     
        	print(response.status_code)     
        	print(response.text)
      • 使用cURL调用示例。
        curl -X POST "https://example.com/v1/chat/completions" \
          -H "Content-Type: application/json" \
          -H "Authorization: Bearer $API_KEY" \
          -d '{ 
            "model": "DeepSeek-R1",
            "messages": [
              {"role": "system", "content": "You are a helpful assistant."},
              {"role": "user", "content": "你好"}
            ],
            "stream": true,
            "stream_options": { "include_usage": true },
            "temperature": 0.6
          }'
    • 使用OpenAI SDK调用示例。
      # 安装环境命令。
      pip install --upgrade "openai>=1.0"
      # OpenAI SDK调用示例。
      from openai import OpenAI
      
      if __name__ == '__main__':
      	base_url = "https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06******/v1"
      	api_key = "<your_apiKey>"  # 把<your_apiKey>替换成已获取的API Key。
      
      	client = OpenAI(api_key=api_key, base_url=base_url)
      
      	response = client.chat.completions.create(
      		model="******",
      		messages=[
      			{"role": "system", "content": "You are a helpful assistant"},
      			{"role": "user", "content": "Hello"},
      		],
      		max_tokens=1024,
      		temperature=0.6,
      		stream=False
      	)
      	# Print result.     
              print(response.choices[0].message.content)

    模型服务的API与vLLM相同,表2仅介绍关键参数,详细参数解释请参见vLLM官网。使用昇腾云909 镜像 的模型,开启流式输出时,需要新增stream_options参数,值为{"include_usage":true},才会打印token数。

    表2 请求参数说明

    参数

    是否必选

    默认值

    参数类型

    描述

    url

    Str

    调用时的API地址。假设URL为https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/{endpoint} , 其中{endpoint}仅支持如下接口,详细介绍请参见接口调用说明

    • /v1/chat/completions
    • /v1/models

    model

    Str

    调用时的模型名称。

    在ModelArts Studio大模型即服务平台的“在线推理”页面,选择调用的模型服务,单击操作列的“更多 > 调用”,在调用页面可以获取“模型名称”

    messages

    -

    Array

    请求输入的问题。

    messages.role

    Str

    不同的role对应不同的消息类型。

    • system:开发人员输入的指令,例如模型应遵循的答复格式、扮演的角色等。
    • user:用户输入的消息,包括提示词和上下文信息。
    • assistant:模型生成的回复内容。
    • tool:模型调用工具返回的信息。

    messages.content

    Str

    • 当role为system时:给AI模型设定的人设。
      {"role": "system","content": "你是一个乐于助人的AI助手"}
    • 当role为user时:用户输入的问题。
      {"role": "user","content": "9.11和9.8哪个大?"}
    • 当role为assistant时:AI模型输出的答复内容。
      {"role": "assistant","content": "9.11大于9.8"}
    • 当role为tool时:AI模型调用的工具响应信息。
      {"role": "tool", "content": "上海今天天气晴,气温10度"}

    stream_options

    Object

    该参数用于配置在流式输出时是否展示使用的token数目。只有当stream为True的时候该参数才会激活生效。如果您需要统计流式输出模式下的token数目,可将该参数配置为stream_options={"include_usage":True}。

    max_tokens

    16

    Int

    当前任务允许的生成Token数上限,包括模型输出的Tokens和深度思考的Reasoning Tokens。

    top_k

    -1

    Int

    在生成过程中,候选集大小限定了采样的范围。以取值50为例,这意味着每一步仅会考虑得分排在前50位的Token构成候选集进行随机抽样。增大此值将提高输出的随机性,减小此值会增强输出的确定性。

    top_p

    1.0

    Float

    模型核采样(nucleus sampling)。仅保留累计概率刚好超过阈值p的那一部分词,其余全部屏蔽,最后在这份候选词里重新归一化并采样。

    设置值越小,候选词越少,模型输出越集中和保守;设置值越大,候选词越多,模型输出越开放和多样。

    通常情况只建议调整temperature或top_p,不要同时修改两个参数。

    取值范围:0~1,设置为“1”表示考虑所有Tokens。

    temperature

    0.6

    Float

    模型采样温度。设置的值越高,模型输出越随机;设置的值越低,输出越确定。

    通常情况只建议调整temperature或top_p,不要同时修改两个参数。

    temperature取值建议:DeepSeek-R1、DeepSeek-V3、Qwen3系列建议值为0.6,Qwen2.5-VL系列建议值为0.2。

    stop

    None

    None/Str/List

    用于停止生成的字符串列表。返回的输出将不包含停止字符串。

    例如,设置为["你","好"]时,在生成文本过程中,遇到“你”或者“好”将停止文本生成。

    stream

    False

    Bool

    是否开启流式推理。默认为“False”,表示不开启流式推理。

    n

    1

    Int

    为每个输入的消息生成的响应数。

    • 不使用beam_search场景下,n取值建议为1≤n≤10。如果n>1时,必须确保不使用greedy_sample采样,也就是top_k > 1,temperature > 0。
    • 使用beam_search场景下,n取值建议为1<n≤10。如果n=1,会导致推理请求失败。
    说明:

    n建议取值不超过10,n值过大会导致性能劣化,显存不足时,推理请求会失败。

    use_beam_search

    False

    Bool

    是否使用beam_search替换采样。

    使用该参数时,如下参数必须按要求设置。

    • n:大于1
    • top_p:1.0
    • top_k:-1
    • temperature:0.0

    presence_penalty

    0.0

    Float

    presence_penalty表示会根据当前生成的文本中新出现的词语进行奖惩。取值范围[-2.0,2.0]。

    frequency_penalty

    0.0

    Float

    frequency_penalty会根据当前生成的文本中各个词语的出现频率进行奖惩。取值范围[-2.0,2.0]。

    length_penalty

    1.0

    Float

    length_penalty表示在beam search过程中,对于较长的序列,模型会给予较大的惩罚。

    使用该参数时,必须添加如下三个参数,且必须按要求设置。

    • top_k:-1
    • use_beam_search:true
    • best_of:大于1
    • 普通requests包、OpenAI SDK、curl命令的返回示例如下所示:
      {
          "id": "cmpl-29f7a172056541449eb1f9d31c*****",
          "object": "chat.completion",
          "created": 17231*****,
          "model": "******",
          "choices": [
              {
                  "index": 0,
                  "message": {
                      "role": "assistant",
                      "content": "你好!很高兴能为你提供帮助。有什么问题我可以回答或帮你解决吗?"
                  },
                  "logprobs": null,
                  "finish_reason": "stop",
                  "stop_reason": null
              }
          ],
          "usage": {
              "prompt_tokens": 20,
              "total_tokens": 38,
              "completion_tokens": 18
          }
      }
    • 思维链模型的返回示例如下所示:
      messages = [{"role": "user", "content": "9.11 and 9.8, which is greater?"}]
      response = client.chat.completions.create(model=model, messages=messages)
      reasoning_content = response.choices[0].message.reasoning_content
      content = response.choices[0].message.content
      print("reasoning_content:", reasoning_content)
      print("content:", content)
    表3 返回参数说明

    参数

    参数类型

    描述

    id

    Str

    请求ID。

    object

    Str

    请求任务。

    created

    Int

    请求生成的时间戳。

    model

    Str

    调用的模型名。

    choices

    Array

    模型生成内容。

    usage

    Object

    请求输入长度、输出长度和总长度。

    • prompt_tokens:输入Tokens数。
    • completion_tokens:输出Tokens数。
    • total_tokens:总Tokens数。

    总Tokens数 = 输入Tokens数 + 输出Tokens数

    reasoning_content

    Str

    当模型支持思维链时,模型的思考内容。对于支持思维链的模型,开启流式输出时,会首先在reasoning_content字段输出思考内容,然后在content中输出回答内容。

    content

    Str

    模型的回答内容。

    当调用失败时,可以根据错误码调整脚本或运行环境。
    表4 常见错误码

    错误码

    错误内容

    说明

    400

    Bad Request

    请求包含语法错误。

    403

    Forbidden

    服务器拒绝执行。

    404

    Not Found

    服务器找不到请求的网页。

    500

    Internal Server Error

    服务内部错误。

内容审核说明

  • 流式请求
    • 如果触发内容审核,则会返回错误:错误码403。您可以通过错误码ModelArts.81011来判断。返回内容如下:
      {
          "error_code": "ModelArts.81011",
          "error_msg": "May contain sensitive information, please try again."
      }
      图1 报错示例
    • 如果未触发内容审核,则使用postman调用返回参考如下,返回码200。
      图2 正常返回示例
    • 如果输出有敏感信息,则会在输出流后面拼接如下数据:
      data: {"id":"chatcmpl-*********************","object":"chat.completion","created":1678067605,"model":"******","choices":[{"delta":{"content":"这是流式响应的开始。"},"index":0}]
      data: {"id":"chatcmpl-*********************","object":"chat.completion","created":1678067605,"model":"******","choices":[{"delta":{"content":" 继续输出结果。"},"index":0}]
      data: {"id":"chatcmpl-*********************","object":"chat.completion","created":1678067605,"model":"******","choices":[{"finish_reason":"content_filter","index":0}]}
      data: [DONE]

      触发内容审核之后,"finish_reason"是"content_filter";正常的流式停止是 "finish_reason":"stop"。

  • 非流式请求
    • 如果触发内容审核,则会返回错误:错误码403。您可以通过错误码ModelArts.81011来判断。

      返回内容如下:

      {
          "error_code": "ModelArts.81011",
          "error_msg": "May contain sensitive information, please try again."
      }
      
    • 如果未触发,则正常返回,示例如下:
      图3 正常返回示例

接口调用说明

假设API地址为https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/{endpoint} ,其中{endpoint}仅支持如下接口:

  • /v1/chat/completions
  • /v1/models

注意:

  • /v1/models使用GET方法不需要请求体,而/v1/chat/completions需要POST请求方式和对应的JSON请求体。
  • 通用请求头为Authorization: Bearer YOUR_API_KEY,对于POST请求,还需包含Content-Type: application/json。
表5 接口说明

类型/接口

/v1/models

/v1/chat/completions

请求方法

GET

POST

用途

获取当前支持的模型列表。

用于聊天对话型生成调用。

请求体说明

无需请求体,仅需通过请求头传入认证信息。

  • model:使用的模型标识,例如 "GLM-4-9B"。
  • messages:对话消息数组,每条消息需要包含role(如 "user" 或 "assistant")和content。
  • 其他可选参数:例如temperature(生成温度)、max_tokens等,用于控制生成结果的多样性和长度。

请求示例

GET https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/v1/models HTTP/1.1
Authorization: Bearer YOUR_API_KEY
POST https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/v1/chat/completions HTTP/1.1
Content-Type: application/json
Authorization: Bearer YOUR_API_KEY

{
  "model": "******",
  "messages": [
    {"role": "user", "content": "Hello, how are you?"}
  ],
  "temperature": 0.7
}

响应示例

{
  "data": [
    {
      "id": "******",
      "description": "最新一代大模型"
    },
    {
      "id": "******",
      "description": "性价比较高的替代方案"
    }
  ]
}
{
  "id": "******",
  "object": "chat.completion",
  "choices": [
    {
      "index": 0,
      "message": {"role": "assistant", "content": "I'm doing well, thank you! How can I help you today?"}
    }
  ],
  "usage": {
    "prompt_tokens": 15,
    "completion_tokens": 25,
    "total_tokens": 40
  }
}

常见问题

在ModelArts Studio(MaaS) 创建API Key后需要等待多久才能生效?

MaaS API Key在创建后不会立即生效,通常需要等待几分钟才能生效。

免费ai文本模型常见问题

更多常见问题 >>
  • 模型转换,即将开源框架的网络模型(如Caffe、TensorFlow等),通过ATC(Ascend Tensor Compiler)模型转换工具,将其转换成昇腾AI处理器支持的离线模型。

  • 盘古大模型致力于深耕行业,打造金融、政务、制造、矿山、气象、铁路等领域行业大模型和能力集,将行业知识know-how与大模型能力相结合,重塑千行百业,成为各组织、企业、个人的专家助手。

  • 近年来越来越多的行业采用AI技术提升效率、降低成本,然而AI落地的过程确并不容易,AI在具体与业务结合时常常依赖于业务数据的采集、处理、模型训练、调优、编排、部署和运维等很多环节。华为云ModelArts是全流程AI开发平台,包含了AI应用的开发、部署和分享交易,通过解决AI开发各个环节所遇到的核心问题,ModelArts有效解决了AI落地难的问题,将极大促进AI技术的普惠。本议题将分享ModelArts的主要关键技术和应用案例。

  • ModelArts是一个一站式的开发平台,能够支撑开发者从数据到AI应用的全流程开发过程。包含数据处理、模型训练、模型管理、模型部署等操作,并且提供AI Gallery功能,能够在市场内与其他开发者分享模型。

  • AI一站式开发平台ModelArts横空出世,零基础AI开发人员的福音。学习本课程,带你了解AI模型训练,不会编程、不会算法、不会高数,一样可以构建出自己专属的AI模型。

  • 通用文字识别支持表格识别、文档识别、网络图片识别、手写文字识别、智能分类识别、健康码识别、核酸检测记录识别等任意格式图片上文字信息的自动化识别,自适应分析各种版面和表格,快速实现各种文档电子化。