識別并攔截惡意提示詞,防止大模型被誘導生成不當內(nèi)容。 內(nèi)容合規(guī)審核 對大模型輸出內(nèi)容進行實時審核,確保符合相關法律法規(guī)和企業(yè)政策。 數(shù)據(jù)隱私保護 監(jiān)測并防止敏感數(shù)據(jù)泄露,保障用戶隱私安全。 大模型防火墻應用場景 面向大模型推理應用場景提供全棧縱深的安全防御能力,保護AI應用穩(wěn)定可靠運行 大模型防火墻
全鏈路專業(yè)服務,讓大模型從可用到好用 · 6大階段30+專業(yè)服務,覆蓋大模型建設全流程,加速政企落地大模型 · 創(chuàng)新運營服務模式,實現(xiàn)全場景模型經(jīng)驗沉淀、全流程運營賦能產(chǎn)業(yè),快速孵化大模型場景化應用 大模型混合云十大創(chuàng)新技術(shù) 大模型混合云十大創(chuàng)新技術(shù) 了解詳情 十大創(chuàng)新技術(shù) 加速構(gòu)建企業(yè)專屬大模型
盤古大模型 PanguLargeModels 盤古大模型 PanguLargeModels 盤古大模型是面向B端行業(yè)的大模型,包含L0中5類基礎大模型、L1行業(yè)大模型及L2場景模型三層架構(gòu) 盤古大模型是面向B端行業(yè)的大模型,包含L0中5類基礎大模型、L1行業(yè)大模型及L2場景模型三層架構(gòu)
盤古NLP大模型 盤古NLP大模型 優(yōu)秀的模型結(jié)構(gòu),完善的工程化能力,最貼合行業(yè)落地的NLP大模型 超大參數(shù)規(guī)模,最貼合行業(yè)落地的NLP大模型 重磅發(fā)布盤古NLP 718B深度思考模型,多專家+大稀疏比的MOE新架構(gòu),昇騰親和設計,高效訓推 專家咨詢 ModelArts Studio控制臺
使用預置算法構(gòu)建模型 使用自定義算法構(gòu)建模型 查看全部 即刻領取 免費試用 產(chǎn)品 開啟您的大模型之旅 企業(yè)免費試用 您可能感興趣的產(chǎn)品 您可能感興趣的產(chǎn)品 大模型開發(fā)平臺ModelArts Studio 一站式大模型工具鏈平臺 ModelArts 面向開發(fā)者的AI平臺
化區(qū)域的基礎大模型。 全球模型 提供高精度的全球模型,無需定制和訓練,直接訂閱即可推理 多種部署形態(tài) 支持公有云、混合云、邊緣多種形態(tài),滿足不同需求 文檔與學習成長 盤古大模型 盤古大模型 什么是盤古大模型 盤古科學計算大模型能力與規(guī)格 盤古大模型用戶指南 如何調(diào)用盤古大模型API
古多模態(tài)大模型為基座,持續(xù)優(yōu)化萬興天幕音視頻大模型2.0,構(gòu)建其音視頻垂類能力。 廣汽集團 廣汽借助華為云盤古多模態(tài)大模型,打造業(yè)界首個支持點云生成的大模型,為其端到端仿真高效迭代提供強有力支撐。 文檔與學習成長 盤古大模型 盤古大模型 什么是盤古大模型 盤古多模態(tài)大模型能力與規(guī)格
大模型混合云TOP N 場景 大模型混合云TOP N 場景 1對1咨詢 了解華為云Stack 大模型行業(yè)場景落地三要素 大模型行業(yè)場景落地三要素 場景是大模型行業(yè)落地的關鍵所在,而在場景落地過程中,數(shù)據(jù)、經(jīng)驗和生態(tài)是核心要素,數(shù)據(jù)的數(shù)量和質(zhì)量決定模型效果上限;經(jīng)驗就像“名師指導”
多語種內(nèi)容審核,平臺全面保護 一站式大模型開發(fā)平臺 一站式大模型開發(fā)平臺 ModelArts Studio大模型開發(fā)平臺是集數(shù)據(jù)管理、模型訓練、模型部署于一體的綜合平臺,專為開發(fā)和應用大模型而設計,旨在為開發(fā)者提供簡單、高效的大模型開發(fā)和部署方式 為什么選擇大模型開發(fā)平臺ModelArts
《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》明確,具有輿論屬性或者社會動員能力的算法推薦服務提供者應當在提供服務之日起十個工作日內(nèi)通過互聯(lián)網(wǎng)信息服務算法備案系統(tǒng)填報服務提供者的名稱、服務形式、應用領域、算法類型、算法自評估報告、擬公示內(nèi)容等信息 方便
湘江鯤鵬目前在人工智能大模型領域擁有算力、數(shù)據(jù)、算法三大關鍵要素的經(jīng)驗積累,構(gòu)建了大模型三個方面的差異化競爭力,盤古大模型AI專業(yè)服務覆蓋從前期咨詢、規(guī)劃設計,到數(shù)據(jù)工程、模型訓練,再到應用工程及模型運維的完整流程?;谌A為盤古提供的AI專業(yè)服務包,致力于為企業(yè)提供一站式人工智能解決方案
等,以及整體的規(guī)劃設計(需求、思路、方案、架構(gòu)、落地周期、預算等)。3. 數(shù)據(jù)的咨詢、治理和梳理,數(shù)據(jù)的采集(各業(yè)務系統(tǒng)中的多種業(yè)務模型、網(wǎng)絡等等),數(shù)據(jù)的標注,關聯(lián)關系的定義,以及數(shù)據(jù)導入。4. 基于具體任務和對應的數(shù)據(jù)分布,設計適合的微調(diào)訓練框架和方案;使用不同的調(diào)參策略和技
,滿足企業(yè)在不同地點的工作需求。5、我們保證了業(yè)務的高質(zhì)量數(shù)據(jù)供給。我們的工作站擁有強大的數(shù)據(jù)處理能力,可以提供高質(zhì)量的數(shù)據(jù),幫助企業(yè)做出更好的決策??偟膩碚f,太杉天尊大模型AIGC場景解決方案具備功能強大、安全可靠、易于使用的特點,是政府的得力助手,企業(yè)的重要伙伴。1、數(shù)據(jù)私有化;
%+,能夠為客戶提供定制化的解決方案。 公司集成了世界領先的底層大模型,具備打通跨模型和工具鏈的平臺能力,采用最新的人工智能技術(shù)和算法,能夠基于業(yè)務場景,支持大規(guī)模數(shù)據(jù)處理和復雜的模型訓練,根據(jù)客戶的特定需求調(diào)整模型參數(shù)和功能,確保為客戶提供高效、可靠的技術(shù)服務,以滿足業(yè)務目標。
擇和技術(shù)方案設計。?提供NLP/CV等大模型的訓練集數(shù)據(jù)標準設計指導。2. 規(guī)劃設計:?提供需求調(diào)研服務,基于盤古大模型的能力進行科學合理的方案設計和模型選擇。?完成需求調(diào)研報告和方案設計報告的輸出及交付。?提供L0盤古大模型服務部署方案的規(guī)劃設計及部署實施服務。3. 數(shù)據(jù)工程:
注&撰寫根據(jù)大模型微調(diào)數(shù)據(jù)標注規(guī)范,通過配套工具進行數(shù)據(jù)標注。 八、數(shù)據(jù)轉(zhuǎn)換與導入 完成數(shù)據(jù)格式的轉(zhuǎn)換,可進行跨網(wǎng)絡環(huán)境的數(shù)據(jù)導入。 九、調(diào)優(yōu)方案設計 根據(jù)大模型訓練及調(diào)優(yōu)工具和平臺,輸出大模型調(diào)優(yōu)方案。 十、模型訓練實施1. 基于大模型訓練所需的云服務,完成大模型訓練及微調(diào)。2
、安全的工作環(huán)境。1、我們特別注重數(shù)據(jù)私有化。我們采用最新的數(shù)據(jù)加密技術(shù),確保企業(yè)的數(shù)據(jù)安全。每一個工作站都擁有獨立的存儲空間,企業(yè)的數(shù)據(jù)不會被未經(jīng)授權(quán)的第三方訪問。2、我們提供了場景定制的服務。我們的工作站可以根據(jù)企業(yè)的具體需求,進行個性化設計,以滿足企業(yè)在不同場景下的工作需求
出門問問大模型“序列猴子”是一款具備多模態(tài)生成能力的大語言模型,模型以語言為核心的能力體系涵蓋“知識、對話、數(shù)學、邏輯、推理、規(guī)劃”六個維度,能夠同時支持文字生成、圖片生成、3D內(nèi)容生成、語言生成和語音識別等不同任務。出門問問大模型“序列猴子”是一款具備多模態(tài)生成能力的大語言模型,模
深厚的行業(yè)積累,分層解耦的架構(gòu),多樣化的部署模式 深厚的行業(yè)積累,分層解耦的架構(gòu),多樣化的部署模式 技術(shù)扎根 全棧技術(shù)創(chuàng)新,極致算力加速大模型開發(fā),打造世界AI另一極 全棧技術(shù)創(chuàng)新,極致算力加速大模型開發(fā),打造世界AI另一極 開放同飛 打造云原生應用平臺AppArts,成立大模型高質(zhì)量數(shù)據(jù)聯(lián)盟
免費AI客服電話的服務: 鐵三角服務體系,每名客戶提供不少于3人的運維輔助客戶成功 免費AI客服電話的產(chǎn)品: 3年積累,國家高新技術(shù)企業(yè),專注SAAS服務 免費AI客服電話的技術(shù): NLP自然語義理解,高對話能力 免費AI客服電話的矩陣: 提供從線路、線索、機器人、企業(yè)微信SCRM一體化服務,可以OEM
像并創(chuàng)建AI應用。 針對您本地開發(fā)的模型,在制作AI應用的自定義鏡像時,需滿足ModelArts定義的規(guī)范。請參考ModelArts官網(wǎng)文檔創(chuàng)建AI應用的自定義鏡像規(guī)范。 本地準備模型包 ModelArts支持本地準備模型包,編寫模型配置文件和模型推理代碼,將準備好的模型包上傳至
有活動時,可能有可以免費試用的活動。您可以關注華為云的企業(yè)郵箱活動。 企業(yè)郵箱怎么收費 華為云企業(yè)郵箱中,云速郵箱的收費主要看您購買的時長和購買的賬號數(shù)量,購買的實時價格可參考本內(nèi)容。 華為云企業(yè)郵箱一年多少錢 您購買的賬號數(shù)不同的話,價格也會有所不同。當前購買華為云企業(yè)郵箱,1年8折。
將代碼目錄中除代碼以外的文件刪除或存放到其他目錄,保證代碼目錄大小不超過128MB,文件個數(shù)不超過4096個。 訓練作業(yè)的“/cache”目錄是否安全? ModelArts訓練作業(yè)的程序運行在容器中,容器掛載的目錄地址是唯一的,只有運行時的容器能訪問到。因此訓練作業(yè)的“/cache”是安全的。
云資源的,IAM權(quán)限定義了允許和拒絕的訪問操作,以此實現(xiàn)云資源權(quán)限訪問控制。 了解詳情 云專線DC-專線接入點 您可以自主選擇運營商的專線,連接華為云專線接入點,并自助購買對應的端口資源,完成物理連接接入。 您可以自主選擇運營商的專線,連接華為云專線接入點,并自助購買對應的端口資源,完成物理連接接入。
平臺設置設備屬性 設備的產(chǎn)品模型中定義了平臺可向設備設置的屬性,平臺/應用服務器可通過屬性設置的方式修改指定設備的屬性值。 平臺查詢設備屬性 平臺/應用服務器通過屬性查詢的方式,實時查詢指定設備的屬性數(shù)據(jù)。 平臺命令下發(fā) 平臺/應用服務器按產(chǎn)品模型中定義的命令格式下發(fā)控制命令給設備。
檢查應用服務器是否集成了物聯(lián)網(wǎng)平臺的證書,證書由物聯(lián)網(wǎng)平臺服務商提供。 根據(jù)API參考的鑒權(quán)接口,檢查URL、body、header的參數(shù)信息是否正確。 使用MQTT協(xié)議的設備如何接入? MQTT協(xié)議的設備可以根據(jù)開發(fā)語言、設備的操作系統(tǒng)及資源情況選擇不同協(xié)議的SDK接入,或者使用原生MQTT協(xié)議接入。詳細請參考設備側(cè)接入。
戶應用或者云服務。 不支持MQTT協(xié)議規(guī)范中retain msg。IoTDA提供消息緩存的能力消息上報和消息下發(fā)時支持對消息進行緩存。 支持的MQTT 5.0特性說明 華為云設備接入服務IoTDA服務支持的MQTT 5.0的部分新增特性如下: 支持Topic Alias。將消息通
免費的ai大模型接入
在 ModelArts Studio大模型即服務平臺部署成功的模型服務支持在其他業(yè)務環(huán)境中調(diào)用。本文以我的服務為例,調(diào)用部署的模型服務。您也可以調(diào)用預置服務-免費服務、預置服務-商用服務或自定義接入點。
操作場景
在企業(yè)AI應用開發(fā)過程中,開發(fā)人員通常需要將訓練好的模型部署到實際業(yè)務環(huán)境中。然而,傳統(tǒng)方法需要手動配置環(huán)境、處理依賴關系、編寫部署腳本,整個過程耗時且容易出錯,且存在環(huán)境復雜、遷移困難、維護成本高、版本更新麻煩等問題。
ModelArts Studio(MaaS)大模型即服務平臺提供了一站式解決方案,提供統(tǒng)一的API接口方便業(yè)務系統(tǒng)調(diào)用,并提供監(jiān)控和日志功能便于運維管理。
計費說明
在調(diào)用模型推理服務的過程中,輸入內(nèi)容首先會被分詞(tokenize),轉(zhuǎn)換為模型可識別的Token。在調(diào)用MaaS預置服務時,將根據(jù)實際使用的Tokens數(shù)量進行計費。計費詳情請參見計費說明。
約束限制
對于支持圖片上傳的模型,單個圖片文件的大小不超過10MB。如果以Base64編碼形式上傳圖片,需確保編碼后的圖片小于10MB。
前提條件
- 使用預置服務:在“在線推理”頁面的“預置服務”頁簽,使用有效期內(nèi)的免費服務或者已開通商用服務(付費狀態(tài)為“開通”)。具體操作,請參見ModelArts Studio(MaaS)在線推理服務。
- 使用我的服務:在“在線推理”頁面的“我的服務”頁簽,服務列表存在運行中、更新中或升級中的模型服務。具體操作,請參見使用ModelArts Studio(MaaS)部署模型服務。
- 使用自定義接入點:已創(chuàng)建自定義接入點。具體操作,請參見在ModelArts Studio(MaaS)創(chuàng)建自定義接入點。
步驟一:獲取API Key
在調(diào)用MaaS部署的模型服務時,需要填寫API Key用于接口的鑒權(quán)認證。最多可創(chuàng)建30個密鑰。每個密鑰僅在創(chuàng)建時顯示一次,請確保妥善保存。如果密鑰丟失,無法找回,需要重新創(chuàng)建API Key以獲取新的訪問密鑰。更多信息,請參見在ModelArts Studio(MaaS)管理API Key。
- 登錄ModelArts Studio(MaaS)控制臺,在頂部導航欄選擇目標區(qū)域。
- 在左側(cè)導航欄,單擊“API Key管理”。
- 在“API Key管理”頁面,單擊“創(chuàng)建API Key”,填寫標簽和描述信息后,單擊“確定”。
標簽和描述信息在創(chuàng)建完成后,不支持修改。
表1 創(chuàng)建API Key參數(shù)說明 參數(shù)
說明
標簽
自定義API Key的標簽。標簽具有唯一性,不可重復。僅支持大小寫英文字母、數(shù)字、下劃線、中劃線,長度范圍為1~100個字符。
描述
自定義API Key的描述,長度范圍為1~100個字符。
- 在“您的密鑰”對話框,復制密鑰并保存至安全位置。
- 保存完畢后,單擊“關閉”。
單擊“關閉”后將無法再次查看密鑰。
步驟二:調(diào)用MaaS模型服務進行預測
- 在ModelArts Studio(MaaS)控制臺左側(cè)導航欄,選擇“在線推理”。
- 在“在線推理”頁面,單擊“我的服務”頁簽,在目標服務右側(cè),單擊操作列的“更多 > 調(diào)用說明”。
- 在“關閉 內(nèi)容審核 服務”對話框,選擇是否啟用內(nèi)容審核(默認啟用)。
- 在“調(diào)用說明”頁面,選擇接口類型,復制調(diào)用示例,修改接口信息和API Key后用于業(yè)務環(huán)境調(diào)用模型服務API。
Rest API、OpenAI SDK的示例代碼如下。
- Rest API示例代碼如下所示:
- 使用Python調(diào)用示例。
import requests import json if __name__ == '__main__': url = "https:/example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/v1/chat/completions" api_key = "<your_apiKey>" # 把<your_apiKey>替換成已獲取的API Key。 # Send request. headers = { 'Content-Type': 'application/json', 'Authorization': f'Bearer {api_key}' } data = { "model": "******", # 調(diào)用時的模型名稱。 "max_tokens": 1024, # 最大輸出token數(shù)。 "messages": [ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "hello"} ], # 是否開啟流式推理,默認為False,表示不開啟流式推理。 "stream": False, # 在流式輸出時是否展示使用的token數(shù)目。只有當stream為True時該參數(shù)才會生效。 # "stream_options": {"include_usage": True}, # 控制采樣隨機性的浮點數(shù),值較低時模型更具確定性,值較高時模型更具創(chuàng)造性。"0"表示貪婪取樣。默認為0.6。 "temperature": 0.6 } response = requests.post(url, headers=headers, data=json.dumps(data), verify=False) # Print result. print(response.status_code) print(response.text) - 使用cURL調(diào)用示例。
curl -X POST "https://example.com/v1/chat/completions" \ -H "Content-Type: application/json" \ -H "Authorization: Bearer $API_KEY" \ -d '{ "model": "DeepSeek-R1", "messages": [ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "你好"} ], "stream": true, "stream_options": { "include_usage": true }, "temperature": 0.6 }'
- 使用Python調(diào)用示例。
- 使用OpenAI SDK調(diào)用示例。
# 安裝環(huán)境命令。 pip install --upgrade "openai>=1.0"
# OpenAI SDK調(diào)用示例。 from openai import OpenAI if __name__ == '__main__': base_url = "https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06******/v1" api_key = "<your_apiKey>" # 把<your_apiKey>替換成已獲取的API Key。 client = OpenAI(api_key=api_key, base_url=base_url) response = client.chat.completions.create( model="******", messages=[ {"role": "system", "content": "You are a helpful assistant"}, {"role": "user", "content": "Hello"}, ], max_tokens=1024, temperature=0.6, stream=False ) # Print result. print(response.choices[0].message.content)
模型服務的API與vLLM相同,表2僅介紹關鍵參數(shù),詳細參數(shù)解釋請參見vLLM官網(wǎng)。使用昇騰云909 鏡像 的模型,開啟流式輸出時,需要新增stream_options參數(shù),值為{"include_usage":true},才會打印token數(shù)。
表2 請求參數(shù)說明 參數(shù)
是否必選
默認值
參數(shù)類型
描述
url
是
無
Str
調(diào)用時的API地址。假設URL為https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/{endpoint} , 其中{endpoint}僅支持如下接口,詳細介紹請參見接口調(diào)用說明。
- /v1/chat/completions
- /v1/models
model
是
無
Str
調(diào)用時的模型名稱。
在ModelArts Studio大模型即服務平臺的“在線推理”頁面,選擇調(diào)用的模型服務,單擊操作列的“更多 > 調(diào)用”,在調(diào)用頁面可以獲取“模型名稱”。
messages
是
-
Array
請求輸入的問題。
messages.role
是
無
Str
不同的role對應不同的消息類型。
- system:開發(fā)人員輸入的指令,例如模型應遵循的答復格式、扮演的角色等。
- user:用戶輸入的消息,包括提示詞和上下文信息。
- assistant:模型生成的回復內(nèi)容。
- tool:模型調(diào)用工具返回的信息。
messages.content
是
無
Str
- 當role為system時:給AI模型設定的人設。
{"role": "system","content": "你是一個樂于助人的AI助手"} - 當role為user時:用戶輸入的問題。
{"role": "user","content": "9.11和9.8哪個大?"} - 當role為assistant時:AI模型輸出的答復內(nèi)容。
{"role": "assistant","content": "9.11大于9.8"} - 當role為tool時:AI模型調(diào)用的工具響應信息。
{"role": "tool", "content": "上海今天天氣晴,氣溫10度"}
stream_options
否
無
Object
該參數(shù)用于配置在流式輸出時是否展示使用的token數(shù)目。只有當stream為True的時候該參數(shù)才會激活生效。如果您需要統(tǒng)計流式輸出模式下的token數(shù)目,可將該參數(shù)配置為stream_options={"include_usage":True}。
max_tokens
否
16
Int
當前任務允許的生成Token數(shù)上限,包括模型輸出的Tokens和深度思考的Reasoning Tokens。
top_k
否
-1
Int
在生成過程中,候選集大小限定了采樣的范圍。以取值50為例,這意味著每一步僅會考慮得分排在前50位的Token構(gòu)成候選集進行隨機抽樣。增大此值將提高輸出的隨機性,減小此值會增強輸出的確定性。
top_p
否
1.0
Float
模型核采樣(nucleus sampling)。僅保留累計概率剛好超過閾值p的那一部分詞,其余全部屏蔽,最后在這份候選詞里重新歸一化并采樣。
設置值越小,候選詞越少,模型輸出越集中和保守;設置值越大,候選詞越多,模型輸出越開放和多樣。
通常情況只建議調(diào)整temperature或top_p,不要同時修改兩個參數(shù)。
取值范圍:0~1,設置為“1”表示考慮所有Tokens。
temperature
否
0.6
Float
模型采樣溫度。設置的值越高,模型輸出越隨機;設置的值越低,輸出越確定。
通常情況只建議調(diào)整temperature或top_p,不要同時修改兩個參數(shù)。
temperature取值建議:DeepSeek-R1、DeepSeek-V3、Qwen3系列建議值為0.6,Qwen2.5-VL系列建議值為0.2。
stop
否
None
None/Str/List
用于停止生成的字符串列表。返回的輸出將不包含停止字符串。
例如,設置為["你","好"]時,在生成文本過程中,遇到“你”或者“好”將停止文本生成。
stream
否
False
Bool
是否開啟流式推理。默認為False,表示不開啟流式推理。
n
否
1
Int
為每個輸入的消息生成的響應數(shù)。
- 不使用beam_search場景下,n取值建議為1≤n≤10。如果n>1時,必須確保不使用greedy_sample采樣,也就是top_k > 1,temperature > 0。
- 使用beam_search場景下,n取值建議為1<n≤10。如果n=1,會導致推理請求失敗。
說明:n建議取值不超過10,n值過大會導致性能劣化,顯存不足時,推理請求會失敗。
use_beam_search
否
False
Bool
是否使用beam_search替換采樣。
使用該參數(shù)時,如下參數(shù)必須按要求設置。
- n:大于1
- top_p:1.0
- top_k:-1
- temperature:0.0
presence_penalty
否
0.0
Float
presence_penalty表示會根據(jù)當前生成的文本中新出現(xiàn)的詞語進行獎懲。取值范圍[-2.0,2.0]。
frequency_penalty
否
0.0
Float
frequency_penalty會根據(jù)當前生成的文本中各個詞語的出現(xiàn)頻率進行獎懲。取值范圍[-2.0,2.0]。
length_penalty
否
1.0
Float
length_penalty表示在beam search過程中,對于較長的序列,模型會給予較大的懲罰。
使用該參數(shù)時,必須添加如下三個參數(shù),且必須按要求設置。
- top_k:-1
- use_beam_search:true
- best_of:大于1
- 普通requests包、OpenAI SDK、curl命令的返回示例如下所示:
{ "id": "cmpl-29f7a172056541449eb1f9d31c*****", "object": "chat.completion", "created": 17231*****, "model": "******", "choices": [ { "index": 0, "message": { "role": "assistant", "content": "你好!很高興能為你提供幫助。有什么問題我可以回答或幫你解決嗎?" }, "logprobs": null, "finish_reason": "stop", "stop_reason": null } ], "usage": { "prompt_tokens": 20, "total_tokens": 38, "completion_tokens": 18 } } - 思維鏈模型的返回示例如下所示:
messages = [{"role": "user", "content": "9.11 and 9.8, which is greater?"}] response = client.chat.completions.create(model=model, messages=messages) reasoning_content = response.choices[0].message.reasoning_content content = response.choices[0].message.content print("reasoning_content:", reasoning_content) print("content:", content)
表3 返回參數(shù)說明 參數(shù)
參數(shù)類型
描述
id
Str
請求ID。
object
Str
請求任務。
created
Int
請求生成的時間戳。
model
Str
調(diào)用的模型名。
choices
Array
模型生成內(nèi)容。
usage
Object
請求輸入長度、輸出長度和總長度。
- prompt_tokens:輸入Tokens數(shù)。
- completion_tokens:輸出Tokens數(shù)。
- total_tokens:總Tokens數(shù)。
總Tokens數(shù) = 輸入Tokens數(shù) + 輸出Tokens數(shù)
reasoning_content
Str
當模型支持思維鏈時,模型的思考內(nèi)容。對于支持思維鏈的模型,開啟流式輸出時,會首先在reasoning_content字段輸出思考內(nèi)容,然后在content中輸出回答內(nèi)容。
content
Str
模型的回答內(nèi)容。
當調(diào)用失敗時,可以根據(jù)錯誤碼調(diào)整腳本或運行環(huán)境。表4 常見錯誤碼 錯誤碼
錯誤內(nèi)容
說明
400
Bad Request
請求包含語法錯誤。
403
Forbidden
服務器拒絕執(zhí)行。
404
Not Found
服務器找不到請求的網(wǎng)頁。
500
Internal Server Error
服務內(nèi)部錯誤。
- Rest API示例代碼如下所示:
內(nèi)容審核說明
- 流式請求
- 如果觸發(fā)內(nèi)容審核,則會返回錯誤:錯誤碼403。您可以通過錯誤碼ModelArts.81011來判斷。返回內(nèi)容如下:
{ "error_code": "ModelArts.81011", "error_msg": "May contain sensitive information, please try again." }圖1 報錯示例
- 如果未觸發(fā)內(nèi)容審核,則使用postman調(diào)用返回參考如下,返回碼200。
圖2 正常返回示例
- 如果輸出有敏感信息,則會在輸出流后面拼接如下數(shù)據(jù):
data: {"id":"chatcmpl-*********************","object":"chat.completion","created":1678067605,"model":"******","choices":[{"delta":{"content":"這是流式響應的開始。"},"index":0}] data: {"id":"chatcmpl-*********************","object":"chat.completion","created":1678067605,"model":"******","choices":[{"delta":{"content":" 繼續(xù)輸出結(jié)果。"},"index":0}] data: {"id":"chatcmpl-*********************","object":"chat.completion","created":1678067605,"model":"******","choices":[{"finish_reason":"content_filter","index":0}]} data: [DONE]觸發(fā)內(nèi)容審核之后,"finish_reason"是"content_filter";正常的流式停止是 "finish_reason":"stop"。
- 如果觸發(fā)內(nèi)容審核,則會返回錯誤:錯誤碼403。您可以通過錯誤碼ModelArts.81011來判斷。返回內(nèi)容如下:
- 非流式請求
接口調(diào)用說明
假設API地址為https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/{endpoint} ,其中{endpoint}僅支持如下接口:
- /v1/chat/completions
- /v1/models
注意:
- /v1/models使用GET方法不需要請求體,而/v1/chat/completions需要POST請求方式和對應的JSON請求體。
- 通用請求頭為Authorization: Bearer YOUR_API_KEY,對于POST請求,還需包含Content-Type: application/json。
|
類型/接口 |
/v1/models |
/v1/chat/completions |
|---|---|---|
|
請求方法 |
GET |
POST |
|
用途 |
獲取當前支持的模型列表。 |
用于聊天對話型生成調(diào)用。 |
|
請求體說明 |
無需請求體,僅需通過請求頭傳入認證信息。 |
|
|
請求示例 |
GET https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/v1/models HTTP/1.1 Authorization: Bearer YOUR_API_KEY |
POST https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/v1/chat/completions HTTP/1.1
Content-Type: application/json
Authorization: Bearer YOUR_API_KEY
{
"model": "******",
"messages": [
{"role": "user", "content": "Hello, how are you?"}
],
"temperature": 0.7
} |
|
響應示例 |
{
"data": [
{
"id": "******",
"description": "最新一代大模型"
},
{
"id": "******",
"description": "性價比較高的替代方案"
}
]
} |
{
"id": "******",
"object": "chat.completion",
"choices": [
{
"index": 0,
"message": {"role": "assistant", "content": "I'm doing well, thank you! How can I help you today?"}
}
],
"usage": {
"prompt_tokens": 15,
"completion_tokens": 25,
"total_tokens": 40
}
} |
常見問題
在ModelArts Studio(MaaS) 創(chuàng)建API Key后需要等待多久才能生效?
MaaS API Key在創(chuàng)建后不會立即生效,通常需要等待幾分鐘才能生效。
免費的ai大模型接入常見問題
更多常見問題 >>-
盤古大模型致力于深耕行業(yè),打造金融、政務、制造、礦山、氣象、鐵路等領域行業(yè)大模型和能力集,將行業(yè)知識know-how與大模型能力相結(jié)合,重塑千行百業(yè),成為各組織、企業(yè)、個人的專家助手。
-
模型轉(zhuǎn)換,即將開源框架的網(wǎng)絡模型(如Caffe、TensorFlow等),通過ATC(Ascend Tensor Compiler)模型轉(zhuǎn)換工具,將其轉(zhuǎn)換成昇騰AI處理器支持的離線模型。
-
本次Serverless應用中心上線文生圖應用,用戶無需下載源代碼、了解各種安裝部署知識、安裝復雜的依賴,通過華為云Serverless應用中心即可一鍵創(chuàng)建AI文生圖應用,體驗 “0” 構(gòu)建門檻、“0” 資源閑置并具備極致彈性的Serverless AI繪圖能力。
-
在自然語言處理(NLP)領域中,使用語言模型預訓練方法在多項NLP任務上都獲得了不錯的提升,廣泛受到了各界的關注。本課程將簡單介紹一下預訓練的思想,幾個代表性模型和它們之間的關系。
-
華為云Serverless技術(shù)極大的優(yōu)化了AI應用開發(fā)過程,一鍵部署AI應用、提升開發(fā)團隊工作效率。讓AI團隊可以更關注業(yè)務實現(xiàn),而無需關注底層技術(shù)細節(jié)。
-
華為云CodeArts Snap是一款基于大模型技術(shù)打造的智能開發(fā)助手,旨在提高開發(fā)人員的生產(chǎn)力和代碼質(zhì)量,為開發(fā)者帶來全新的編程方式和體驗。
免費的ai大模型接入教程視頻
最佳實踐視頻幫助您快速了解搭建流程 了解更多
更多相關專題
增值電信業(yè)務經(jīng)營許可證:B1.B2-20200593 | 域名注冊服務機構(gòu)許可:黔D3-20230001 | 代理域名注冊服務機構(gòu):新網(wǎng)、西數(shù)
