五月婷婷丁香性爱|j久久一级免费片|久久美女福利视频|中文观看在线观看|加勒比四区三区二|亚洲裸女视频网站|超碰97AV在线69网站免费观看|有码在线免费视频|久久青青日本视频|亚洲国产AAAA

[快速入門]免費的ai大模型接入
Web應用防火墻WAF-大模型防火墻

識別并攔截惡意提示詞,防止模型被誘導生成不當內(nèi)容。 內(nèi)容合規(guī)審核 對模型輸出內(nèi)容進行實時審核,確保符合相關法律法規(guī)和企業(yè)政策。 數(shù)據(jù)隱私保護 監(jiān)測并防止敏感數(shù)據(jù)泄露,保障用戶隱私安全。 模型防火墻應用場景 面向模型推理應用場景提供全棧縱深安全防御能力,保護AI應用穩(wěn)定可靠運行 模型防火墻

大模型混合云

全鏈路專業(yè)服務,讓模型從可用到好用 · 6階段30+專業(yè)服務,覆蓋模型建設全流程,加速政企落地大模型 · 創(chuàng)新運營服務模式,實現(xiàn)全場景模型經(jīng)驗沉淀、全流程運營賦能產(chǎn)業(yè),快速孵化模型場景化應用 模型混合云十創(chuàng)新技術(shù) 模型混合云十創(chuàng)新技術(shù) 了解詳情 十創(chuàng)新技術(shù) 加速構(gòu)建企業(yè)專屬大模型

盤古大模型 panguLM

盤古模型 PanguLargeModels 盤古模型 PanguLargeModels 盤古模型是面向B端行業(yè)模型,包含L0中5類基礎模型、L1行業(yè)大模型及L2場景模型三層架構(gòu) 盤古模型是面向B端行業(yè)模型,包含L0中5類基礎模型、L1行業(yè)大模型及L2場景模型三層架構(gòu)

盤古NLP大模型

盤古NLP模型 盤古NLP模型 優(yōu)秀模型結(jié)構(gòu),完善工程化能力,最貼合行業(yè)落地NLP模型 超大參數(shù)規(guī)模,最貼合行業(yè)落地NLP模型 重磅發(fā)布盤古NLP 718B深度思考模型,多專家+稀疏比MOE新架構(gòu),昇騰親和設計,高效訓推 專家咨詢 ModelArts Studio控制臺

盤古預測大模型

使用預置算法構(gòu)建模型 使用自定義算法構(gòu)建模型 查看全部 即刻領取 免費試用 產(chǎn)品 開啟您模型之旅 企業(yè)免費試用 您可能感興趣產(chǎn)品 您可能感興趣產(chǎn)品 模型開發(fā)平臺ModelArts Studio 一站式模型工具鏈平臺 ModelArts 面向開發(fā)者AI平臺

盤古科學計算大模型

化區(qū)域基礎模型。 全球模型 提供高精度全球模型,無需定制和訓練,直接訂閱即可推理 多種部署形態(tài) 支持公有云、混合云、邊緣多種形態(tài),滿足不同需求 文檔與學習成長 盤古模型 盤古模型 什么是盤古模型 盤古科學計算模型能力與規(guī)格 盤古模型用戶指南 如何調(diào)用盤古模型API

盤古多模態(tài)大模型

古多模態(tài)模型為基座,持續(xù)優(yōu)化萬興天幕音視頻模型2.0,構(gòu)建其音視頻垂類能力。 廣汽集團 廣汽借助華為云盤古多模態(tài)模型,打造業(yè)界首個支持點云生成模型,為其端到端仿真高效迭代提供強有力支撐。 文檔與學習成長 盤古模型 盤古模型 什么是盤古模型 盤古多模態(tài)模型能力與規(guī)格

大模型混合云十大場景

模型混合云TOP N 場景 模型混合云TOP N 場景 1對1咨詢 了解華為云Stack 模型行業(yè)場景落地三要素 模型行業(yè)場景落地三要素 場景是模型行業(yè)落地關鍵所在,而在場景落地過程中,數(shù)據(jù)、經(jīng)驗和生態(tài)是核心要素,數(shù)據(jù)數(shù)量和質(zhì)量決定模型效果上限;經(jīng)驗就像“名師指導”

ModelArts Studio大模型開發(fā)平臺

多語種內(nèi)容審核,平臺全面保護 一站式模型開發(fā)平臺 一站式模型開發(fā)平臺 ModelArts Studio模型開發(fā)平臺是集數(shù)據(jù)管理、模型訓練、模型部署于一體綜合平臺,專為開發(fā)和應用模型而設計,旨在為開發(fā)者提供簡單、高效模型開發(fā)和部署方式 為什么選擇模型開發(fā)平臺ModelArts

[相關產(chǎn)品]免費的ai大模型接入
AI大模型 算法備案

《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》明確,具有輿論屬性或者社會動員能力算法推薦服務提供者應當在提供服務之日起十個工作日內(nèi)通過互聯(lián)網(wǎng)信息服務算法備案系統(tǒng)填報服務提供者名稱、服務形式、應用領域、算法類型、算法自評估報告、擬公示內(nèi)容等信息  方便

AI大模型專業(yè)服務

湘江鯤鵬目前在人工智能模型領域擁有算力、數(shù)據(jù)、算法三關鍵要素經(jīng)驗積累,構(gòu)建了模型三個方面的差異化競爭力,盤古模型AI專業(yè)服務覆蓋從前期咨詢、規(guī)劃設計,到數(shù)據(jù)工程、模型訓練,再到應用工程及模型運維完整流程?;谌A為盤古提供AI專業(yè)服務包,致力于為企業(yè)提供一站式人工智能解決方案

大模型及AI應用配套服務

等,以及整體規(guī)劃設計(需求、思路、方案、架構(gòu)、落地周期、預算等)。3. 數(shù)據(jù)咨詢、治理和梳理,數(shù)據(jù)采集(各業(yè)務系統(tǒng)中多種業(yè)務模型、網(wǎng)絡等等),數(shù)據(jù)標注,關聯(lián)關系定義,以及數(shù)據(jù)導入。4. 基于具體任務和對應數(shù)據(jù)分布,設計適合微調(diào)訓練框架和方案;使用不同調(diào)參策略和技

天尊大模型AIGC場景解決方案

,滿足企業(yè)在不同地點工作需求。5、我們保證了業(yè)務高質(zhì)量數(shù)據(jù)供給。我們工作站擁有強大數(shù)據(jù)處理能力,可以提供高質(zhì)量數(shù)據(jù),幫助企業(yè)做出更好決策??偟膩碚f,太杉天尊模型AIGC場景解決方案具備功能強大、安全可靠、易于使用特點,是政府得力助手,企業(yè)重要伙伴。1、數(shù)據(jù)私有化;

人工智能AI大模型技術(shù)研發(fā)定制服務

%+,能夠為客戶提供定制化解決方案。 公司集成了世界領先底層模型,具備打通跨模型和工具鏈平臺能力,采用最新的人工智能技術(shù)和算法,能夠基于業(yè)務場景,支持大規(guī)模數(shù)據(jù)處理和復雜模型訓練,根據(jù)客戶特定需求調(diào)整模型參數(shù)和功能,確保為客戶提供高效、可靠技術(shù)服務,以滿足業(yè)務目標。

博匠行業(yè)AI大模型專業(yè)服務

擇和技術(shù)方案設計。?提供NLP/CV等模型訓練集數(shù)據(jù)標準設計指導。2. 規(guī)劃設計:?提供需求調(diào)研服務,基于盤古模型能力進行科學合理方案設計和模型選擇。?完成需求調(diào)研報告和方案設計報告輸出及交付。?提供L0盤古模型服務部署方案規(guī)劃設計及部署實施服務。3. 數(shù)據(jù)工程:

盤古大模型專家服務

注&撰寫根據(jù)模型微調(diào)數(shù)據(jù)標注規(guī)范,通過配套工具進行數(shù)據(jù)標注。 八、數(shù)據(jù)轉(zhuǎn)換與導入 完成數(shù)據(jù)格式轉(zhuǎn)換,可進行跨網(wǎng)絡環(huán)境數(shù)據(jù)導入。 九、調(diào)優(yōu)方案設計 根據(jù)模型訓練及調(diào)優(yōu)工具和平臺,輸出模型調(diào)優(yōu)方案。 十、模型訓練實施1. 基于模型訓練所需云服務,完成大模型訓練及微調(diào)。2

天尊大模型AIGC場景解決方案配套服務

、安全工作環(huán)境。1、我們特別注重數(shù)據(jù)私有化。我們采用最新數(shù)據(jù)加密技術(shù),確保企業(yè)數(shù)據(jù)安全。每一個工作站都擁有獨立存儲空間,企業(yè)數(shù)據(jù)不會被未經(jīng)授權(quán)第三方訪問。2、我們提供了場景定制服務。我們工作站可以根據(jù)企業(yè)具體需求,進行個性化設計,以滿足企業(yè)在不同場景下工作需求

序列猴子大模型

出門問問模型“序列猴子”是一款具備多模態(tài)生成能力語言模型,模型以語言為核心能力體系涵蓋“知識、對話、數(shù)學、邏輯、推理、規(guī)劃”六個維度,能夠同時支持文字生成、圖片生成、3D內(nèi)容生成、語言生成和語音識別等不同任務。出門問問模型“序列猴子”是一款具備多模態(tài)生成能力語言模型,模

[相似文章]免費的ai大模型接入
華為云盤古大模型_華為云AI大模型_盤古人工智能

深厚行業(yè)積累,分層解耦架構(gòu),多樣化部署模式 深厚行業(yè)積累,分層解耦架構(gòu),多樣化部署模式 技術(shù)扎根 全棧技術(shù)創(chuàng)新,極致算力加速模型開發(fā),打造世界AI另一極 全棧技術(shù)創(chuàng)新,極致算力加速模型開發(fā),打造世界AI另一極 開放同飛 打造云原生應用平臺AppArts,成立模型高質(zhì)量數(shù)據(jù)聯(lián)盟

免費AI客服電話_AI智能語音外呼系統(tǒng)_AI人工語音智能電話

免費AI客服電話服務: 鐵三角服務體系,每名客戶提供不少于3人運維輔助客戶成功 免費AI客服電話產(chǎn)品: 3年積累,國家高新技術(shù)企業(yè),專注SAAS服務 免費AI客服電話技術(shù): NLP自然語義理解,高對話能力 免費AI客服電話矩陣: 提供從線路、線索、機器人、企業(yè)微信SCRM一體化服務,可以OEM

ModelArts推理部署_模型_AI應用來源-華為云

像并創(chuàng)建AI應用。 針對您本地開發(fā)模型,在制作AI應用自定義鏡像時,需滿足ModelArts定義規(guī)范。請參考ModelArts官網(wǎng)文檔創(chuàng)建AI應用自定義鏡像規(guī)范。 本地準備模型包 ModelArts支持本地準備模型包,編寫模型配置文件和模型推理代碼,將準備好模型包上傳至

免費的企業(yè)用郵箱_mail企業(yè)郵箱_免費注冊企業(yè)郵箱

有活動時,可能有可以免費試用活動。您可以關注華為云企業(yè)郵箱活動。 企業(yè)郵箱怎么收費 華為云企業(yè)郵箱中,云速郵箱收費主要看您購買時長和購買賬號數(shù)量,購買實時價格可參考本內(nèi)容。 華為云企業(yè)郵箱一年多少錢 您購買賬號數(shù)不同的話,價格也會有所不同。當前購買華為云企業(yè)郵箱,1年8折。

ModelArts模型訓練_模型訓練簡介_如何訓練模型

將代碼目錄中除代碼以外文件刪除或存放到其他目錄,保證代碼目錄大小不超過128MB,文件個數(shù)不超過4096個。 訓練作業(yè)“/cache”目錄是否安全? ModelArts訓練作業(yè)程序運行在容器中,容器掛載目錄地址是唯一,只有運行時容器能訪問到。因此訓練作業(yè)“/cache”是安全的。

云專線DC的類型_自建專線接入_一站式接入

云資源,IAM權(quán)限定義了允許和拒絕訪問操作,以此實現(xiàn)云資源權(quán)限訪問控制。 了解詳情 云專線DC-專線接入點 您可以自主選擇運營商專線,連接華為云專線接入點,并自助購買對應端口資源,完成物理連接接入。 您可以自主選擇運營商專線,連接華為云專線接入點,并自助購買對應端口資源,完成物理連接接入。

物聯(lián)網(wǎng)設備接入平臺_設備接入方案_終端設備接入

平臺設置設備屬性 設備產(chǎn)品模型中定義了平臺可向設備設置屬性,平臺/應用服務器可通過屬性設置方式修改指定設備屬性值。 平臺查詢設備屬性 平臺/應用服務器通過屬性查詢方式,實時查詢指定設備屬性數(shù)據(jù)。 平臺命令下發(fā) 平臺/應用服務器按產(chǎn)品模型中定義命令格式下發(fā)控制命令給設備。

設備接入平臺_設備接入什么意思_iot設備接入

檢查應用服務器是否集成了物聯(lián)網(wǎng)平臺證書,證書由物聯(lián)網(wǎng)平臺服務商提供。 根據(jù)API參考鑒權(quán)接口,檢查URL、body、header參數(shù)信息是否正確。 使用MQTT協(xié)議設備如何接入? MQTT協(xié)議設備可以根據(jù)開發(fā)語言、設備操作系統(tǒng)及資源情況選擇不同協(xié)議SDK接入,或者使用原生MQTT協(xié)議接入。詳細請參考設備側(cè)接入。

物聯(lián)網(wǎng)設備接入平臺_mqtt設備接入_Iot設備接入驗證

戶應用或者云服務。 不支持MQTT協(xié)議規(guī)范中retain msg。IoTDA提供消息緩存能力消息上報和消息下發(fā)時支持對消息進行緩存。 支持MQTT 5.0特性說明 華為云設備接入服務IoTDA服務支持MQTT 5.0部分新增特性如下: 支持Topic Alias。將消息通

免費的ai大模型接入

ModelArts Studio大模型即服務平臺部署成功的模型服務支持在其他業(yè)務環(huán)境中調(diào)用。本文以我的服務為例,調(diào)用部署的模型服務。您也可以調(diào)用預置服務-免費服務、預置服務-商用服務或自定義接入點。

操作場景

在企業(yè)AI應用開發(fā)過程中,開發(fā)人員通常需要將訓練好的模型部署到實際業(yè)務環(huán)境中。然而,傳統(tǒng)方法需要手動配置環(huán)境、處理依賴關系、編寫部署腳本,整個過程耗時且容易出錯,且存在環(huán)境復雜、遷移困難、維護成本高、版本更新麻煩等問題。

ModelArts Studio(MaaS)大模型即服務平臺提供了一站式解決方案,提供統(tǒng)一的API接口方便業(yè)務系統(tǒng)調(diào)用,并提供監(jiān)控和日志功能便于運維管理。

計費說明

在調(diào)用模型推理服務的過程中,輸入內(nèi)容首先會被分詞(tokenize),轉(zhuǎn)換為模型可識別的Token。在調(diào)用MaaS預置服務時,將根據(jù)實際使用的Tokens數(shù)量進行計費。計費詳情請參見計費說明

約束限制

對于支持圖片上傳的模型,單個圖片文件的大小不超過10MB。如果以Base64編碼形式上傳圖片,需確保編碼后的圖片小于10MB。

前提條件

步驟一:獲取API Key

在調(diào)用MaaS部署的模型服務時,需要填寫API Key用于接口的鑒權(quán)認證。最多可創(chuàng)建30個密鑰。每個密鑰僅在創(chuàng)建時顯示一次,請確保妥善保存。如果密鑰丟失,無法找回,需要重新創(chuàng)建API Key以獲取新的訪問密鑰。更多信息,請參見在ModelArts Studio(MaaS)管理API Key。

  1. 登錄ModelArts Studio(MaaS)控制臺,在頂部導航欄選擇目標區(qū)域。
  2. 在左側(cè)導航欄,單擊“API Key管理”。
  3. “API Key管理”頁面,單擊“創(chuàng)建API Key”,填寫標簽和描述信息后,單擊“確定”

    標簽和描述信息在創(chuàng)建完成后,不支持修改。

    表1 創(chuàng)建API Key參數(shù)說明

    參數(shù)

    說明

    標簽

    自定義API Key的標簽。標簽具有唯一性,不可重復。僅支持大小寫英文字母、數(shù)字、下劃線、中劃線,長度范圍為1~100個字符。

    描述

    自定義API Key的描述,長度范圍為1~100個字符。

  4. “您的密鑰”對話框,復制密鑰并保存至安全位置。
  5. 保存完畢后,單擊“關閉”

    單擊“關閉”后將無法再次查看密鑰。

步驟二:調(diào)用MaaS模型服務進行預測

  1. ModelArts Studio(MaaS)控制臺左側(cè)導航欄,選擇“在線推理”
  2. “在線推理”頁面,單擊“我的服務”頁簽,在目標服務右側(cè),單擊操作列的“更多 > 調(diào)用說明”。
  3. “關閉 內(nèi)容審核 服務”對話框,選擇是否啟用內(nèi)容審核(默認啟用)。
    • 啟用內(nèi)容審核,可以阻止在線推理中的輸入輸出中出現(xiàn)不合規(guī)的內(nèi)容,但可能會對接口性能產(chǎn)生較大影響。
    • 關閉內(nèi)容審核服務,將不會審核在線推理中的輸入輸出,模型服務可能會有違規(guī)風險,請謹慎關閉。

      關閉“內(nèi)容審核”開關,需要在彈窗中確認是否停用內(nèi)容審核服務,勾選“我已閱讀并同意上述說明”后,單擊“確定”關閉。

  4. “調(diào)用說明”頁面,選擇接口類型,復制調(diào)用示例,修改接口信息和API Key后用于業(yè)務環(huán)境調(diào)用模型服務API。

    Rest API、OpenAI SDK的示例代碼如下。

    • Rest API示例代碼如下所示:
      • 使用Python調(diào)用示例。
        import requests
        import json
        
        if __name__ == '__main__':
            url = "https:/example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/v1/chat/completions"
            api_key = "<your_apiKey>"  # 把<your_apiKey>替換成已獲取的API Key。
        
            # Send request.
            headers = {
                'Content-Type': 'application/json',
                'Authorization': f'Bearer {api_key}'
            }
            data = {
                "model": "******",  # 調(diào)用時的模型名稱。
                "max_tokens": 1024,  # 最大輸出token數(shù)。
                "messages": [
                    {"role": "system", "content": "You are a helpful assistant."},
                    {"role": "user", "content": "hello"}
                ],
                # 是否開啟流式推理,默認為False,表示不開啟流式推理。
                "stream": False,
                # 在流式輸出時是否展示使用的token數(shù)目。只有當stream為True時該參數(shù)才會生效。
                # "stream_options": {"include_usage": True},
                # 控制采樣隨機性的浮點數(shù),值較低時模型更具確定性,值較高時模型更具創(chuàng)造性。"0"表示貪婪取樣。默認為0.6。
                "temperature": 0.6
            }
        	response = requests.post(url, headers=headers, data=json.dumps(data), verify=False)
        	# Print result.     
        	print(response.status_code)     
        	print(response.text)
      • 使用cURL調(diào)用示例。
        curl -X POST "https://example.com/v1/chat/completions" \
          -H "Content-Type: application/json" \
          -H "Authorization: Bearer $API_KEY" \
          -d '{ 
            "model": "DeepSeek-R1",
            "messages": [
              {"role": "system", "content": "You are a helpful assistant."},
              {"role": "user", "content": "你好"}
            ],
            "stream": true,
            "stream_options": { "include_usage": true },
            "temperature": 0.6
          }'
    • 使用OpenAI SDK調(diào)用示例。
      # 安裝環(huán)境命令。
      pip install --upgrade "openai>=1.0"
      # OpenAI SDK調(diào)用示例。
      from openai import OpenAI
      
      if __name__ == '__main__':
      	base_url = "https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06******/v1"
      	api_key = "<your_apiKey>"  # 把<your_apiKey>替換成已獲取的API Key。
      
      	client = OpenAI(api_key=api_key, base_url=base_url)
      
      	response = client.chat.completions.create(
      		model="******",
      		messages=[
      			{"role": "system", "content": "You are a helpful assistant"},
      			{"role": "user", "content": "Hello"},
      		],
      		max_tokens=1024,
      		temperature=0.6,
      		stream=False
      	)
      	# Print result.     
              print(response.choices[0].message.content)

    模型服務的API與vLLM相同,表2僅介紹關鍵參數(shù),詳細參數(shù)解釋請參見vLLM官網(wǎng)。使用昇騰云909 鏡像 的模型,開啟流式輸出時,需要新增stream_options參數(shù),值為{"include_usage":true},才會打印token數(shù)。

    表2 請求參數(shù)說明

    參數(shù)

    是否必選

    默認值

    參數(shù)類型

    描述

    url

    Str

    調(diào)用時的API地址。假設URL為https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/{endpoint} , 其中{endpoint}僅支持如下接口,詳細介紹請參見接口調(diào)用說明

    • /v1/chat/completions
    • /v1/models

    model

    Str

    調(diào)用時的模型名稱。

    在ModelArts Studio大模型即服務平臺的“在線推理”頁面,選擇調(diào)用的模型服務,單擊操作列的“更多 > 調(diào)用”,在調(diào)用頁面可以獲取“模型名稱”。

    messages

    -

    Array

    請求輸入的問題。

    messages.role

    Str

    不同的role對應不同的消息類型。

    • system:開發(fā)人員輸入的指令,例如模型應遵循的答復格式、扮演的角色等。
    • user:用戶輸入的消息,包括提示詞和上下文信息。
    • assistant:模型生成的回復內(nèi)容。
    • tool:模型調(diào)用工具返回的信息。

    messages.content

    Str

    • 當role為system時:給AI模型設定的人設。
      {"role": "system","content": "你是一個樂于助人的AI助手"}
    • 當role為user時:用戶輸入的問題。
      {"role": "user","content": "9.11和9.8哪個大?"}
    • 當role為assistant時:AI模型輸出的答復內(nèi)容。
      {"role": "assistant","content": "9.11大于9.8"}
    • 當role為tool時:AI模型調(diào)用的工具響應信息。
      {"role": "tool", "content": "上海今天天氣晴,氣溫10度"}

    stream_options

    Object

    該參數(shù)用于配置在流式輸出時是否展示使用的token數(shù)目。只有當stream為True的時候該參數(shù)才會激活生效。如果您需要統(tǒng)計流式輸出模式下的token數(shù)目,可將該參數(shù)配置為stream_options={"include_usage":True}。

    max_tokens

    16

    Int

    當前任務允許的生成Token數(shù)上限,包括模型輸出的Tokens和深度思考的Reasoning Tokens。

    top_k

    -1

    Int

    在生成過程中,候選集大小限定了采樣的范圍。以取值50為例,這意味著每一步僅會考慮得分排在前50位的Token構(gòu)成候選集進行隨機抽樣。增大此值將提高輸出的隨機性,減小此值會增強輸出的確定性。

    top_p

    1.0

    Float

    模型核采樣(nucleus sampling)。僅保留累計概率剛好超過閾值p的那一部分詞,其余全部屏蔽,最后在這份候選詞里重新歸一化并采樣。

    設置值越小,候選詞越少,模型輸出越集中和保守;設置值越大,候選詞越多,模型輸出越開放和多樣。

    通常情況只建議調(diào)整temperature或top_p,不要同時修改兩個參數(shù)。

    取值范圍:0~1,設置為“1”表示考慮所有Tokens。

    temperature

    0.6

    Float

    模型采樣溫度。設置的值越高,模型輸出越隨機;設置的值越低,輸出越確定。

    通常情況只建議調(diào)整temperature或top_p,不要同時修改兩個參數(shù)。

    temperature取值建議:DeepSeek-R1、DeepSeek-V3、Qwen3系列建議值為0.6,Qwen2.5-VL系列建議值為0.2。

    stop

    None

    None/Str/List

    用于停止生成的字符串列表。返回的輸出將不包含停止字符串。

    例如,設置為["你","好"]時,在生成文本過程中,遇到“你”或者“好”將停止文本生成。

    stream

    False

    Bool

    是否開啟流式推理。默認為False,表示不開啟流式推理。

    n

    1

    Int

    為每個輸入的消息生成的響應數(shù)。

    • 不使用beam_search場景下,n取值建議為1≤n≤10。如果n>1時,必須確保不使用greedy_sample采樣,也就是top_k > 1,temperature > 0。
    • 使用beam_search場景下,n取值建議為1<n≤10。如果n=1,會導致推理請求失敗。
    說明:

    n建議取值不超過10,n值過大會導致性能劣化,顯存不足時,推理請求會失敗。

    use_beam_search

    False

    Bool

    是否使用beam_search替換采樣。

    使用該參數(shù)時,如下參數(shù)必須按要求設置。

    • n:大于1
    • top_p:1.0
    • top_k:-1
    • temperature:0.0

    presence_penalty

    0.0

    Float

    presence_penalty表示會根據(jù)當前生成的文本中新出現(xiàn)的詞語進行獎懲。取值范圍[-2.0,2.0]。

    frequency_penalty

    0.0

    Float

    frequency_penalty會根據(jù)當前生成的文本中各個詞語的出現(xiàn)頻率進行獎懲。取值范圍[-2.0,2.0]。

    length_penalty

    1.0

    Float

    length_penalty表示在beam search過程中,對于較長的序列,模型會給予較大的懲罰。

    使用該參數(shù)時,必須添加如下三個參數(shù),且必須按要求設置。

    • top_k:-1
    • use_beam_search:true
    • best_of:大于1
    • 普通requests包、OpenAI SDK、curl命令的返回示例如下所示:
      {
          "id": "cmpl-29f7a172056541449eb1f9d31c*****",
          "object": "chat.completion",
          "created": 17231*****,
          "model": "******",
          "choices": [
              {
                  "index": 0,
                  "message": {
                      "role": "assistant",
                      "content": "你好!很高興能為你提供幫助。有什么問題我可以回答或幫你解決嗎?"
                  },
                  "logprobs": null,
                  "finish_reason": "stop",
                  "stop_reason": null
              }
          ],
          "usage": {
              "prompt_tokens": 20,
              "total_tokens": 38,
              "completion_tokens": 18
          }
      }
    • 思維鏈模型的返回示例如下所示:
      messages = [{"role": "user", "content": "9.11 and 9.8, which is greater?"}]
      response = client.chat.completions.create(model=model, messages=messages)
      reasoning_content = response.choices[0].message.reasoning_content
      content = response.choices[0].message.content
      print("reasoning_content:", reasoning_content)
      print("content:", content)
    表3 返回參數(shù)說明

    參數(shù)

    參數(shù)類型

    描述

    id

    Str

    請求ID。

    object

    Str

    請求任務。

    created

    Int

    請求生成的時間戳。

    model

    Str

    調(diào)用的模型名。

    choices

    Array

    模型生成內(nèi)容。

    usage

    Object

    請求輸入長度、輸出長度和總長度。

    • prompt_tokens:輸入Tokens數(shù)。
    • completion_tokens:輸出Tokens數(shù)。
    • total_tokens:總Tokens數(shù)。

    總Tokens數(shù) = 輸入Tokens數(shù) + 輸出Tokens數(shù)

    reasoning_content

    Str

    當模型支持思維鏈時,模型的思考內(nèi)容。對于支持思維鏈的模型,開啟流式輸出時,會首先在reasoning_content字段輸出思考內(nèi)容,然后在content中輸出回答內(nèi)容。

    content

    Str

    模型的回答內(nèi)容。

    當調(diào)用失敗時,可以根據(jù)錯誤碼調(diào)整腳本或運行環(huán)境。
    表4 常見錯誤碼

    錯誤碼

    錯誤內(nèi)容

    說明

    400

    Bad Request

    請求包含語法錯誤。

    403

    Forbidden

    服務器拒絕執(zhí)行。

    404

    Not Found

    服務器找不到請求的網(wǎng)頁。

    500

    Internal Server Error

    服務內(nèi)部錯誤。

內(nèi)容審核說明

  • 流式請求
    • 如果觸發(fā)內(nèi)容審核,則會返回錯誤:錯誤碼403。您可以通過錯誤碼ModelArts.81011來判斷。返回內(nèi)容如下:
      {
          "error_code": "ModelArts.81011",
          "error_msg": "May contain sensitive information, please try again."
      }
      圖1 報錯示例
    • 如果未觸發(fā)內(nèi)容審核,則使用postman調(diào)用返回參考如下,返回碼200。
      圖2 正常返回示例
    • 如果輸出有敏感信息,則會在輸出流后面拼接如下數(shù)據(jù):
      data: {"id":"chatcmpl-*********************","object":"chat.completion","created":1678067605,"model":"******","choices":[{"delta":{"content":"這是流式響應的開始。"},"index":0}]
      data: {"id":"chatcmpl-*********************","object":"chat.completion","created":1678067605,"model":"******","choices":[{"delta":{"content":" 繼續(xù)輸出結(jié)果。"},"index":0}]
      data: {"id":"chatcmpl-*********************","object":"chat.completion","created":1678067605,"model":"******","choices":[{"finish_reason":"content_filter","index":0}]}
      data: [DONE]

      觸發(fā)內(nèi)容審核之后,"finish_reason"是"content_filter";正常的流式停止是 "finish_reason":"stop"。

  • 非流式請求
    • 如果觸發(fā)內(nèi)容審核,則會返回錯誤:錯誤碼403。您可以通過錯誤碼ModelArts.81011來判斷。

      返回內(nèi)容如下:

      {
          "error_code": "ModelArts.81011",
          "error_msg": "May contain sensitive information, please try again."
      }
      
    • 如果未觸發(fā),則正常返回,示例如下:
      圖3 正常返回示例

接口調(diào)用說明

假設API地址為https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/{endpoint} ,其中{endpoint}僅支持如下接口:

  • /v1/chat/completions
  • /v1/models

注意:

  • /v1/models使用GET方法不需要請求體,而/v1/chat/completions需要POST請求方式和對應的JSON請求體。
  • 通用請求頭為Authorization: Bearer YOUR_API_KEY,對于POST請求,還需包含Content-Type: application/json。
表5 接口說明

類型/接口

/v1/models

/v1/chat/completions

請求方法

GET

POST

用途

獲取當前支持的模型列表。

用于聊天對話型生成調(diào)用。

請求體說明

無需請求體,僅需通過請求頭傳入認證信息。

  • model:使用的模型標識,例如 "GLM-4-9B"。
  • messages:對話消息數(shù)組,每條消息需要包含role(如 "user" 或 "assistant")和content。
  • 其他可選參數(shù):例如temperature(生成溫度)、max_tokens等,用于控制生成結(jié)果的多樣性和長度。

請求示例

GET https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/v1/models HTTP/1.1
Authorization: Bearer YOUR_API_KEY
POST https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/v1/chat/completions HTTP/1.1
Content-Type: application/json
Authorization: Bearer YOUR_API_KEY

{
  "model": "******",
  "messages": [
    {"role": "user", "content": "Hello, how are you?"}
  ],
  "temperature": 0.7
}

響應示例

{
  "data": [
    {
      "id": "******",
      "description": "最新一代大模型"
    },
    {
      "id": "******",
      "description": "性價比較高的替代方案"
    }
  ]
}
{
  "id": "******",
  "object": "chat.completion",
  "choices": [
    {
      "index": 0,
      "message": {"role": "assistant", "content": "I'm doing well, thank you! How can I help you today?"}
    }
  ],
  "usage": {
    "prompt_tokens": 15,
    "completion_tokens": 25,
    "total_tokens": 40
  }
}

常見問題

在ModelArts Studio(MaaS) 創(chuàng)建API Key后需要等待多久才能生效?

MaaS API Key在創(chuàng)建后不會立即生效,通常需要等待幾分鐘才能生效。

免費的ai大模型接入常見問題

更多常見問題 >>
  • 盤古大模型致力于深耕行業(yè),打造金融、政務、制造、礦山、氣象、鐵路等領域行業(yè)大模型和能力集,將行業(yè)知識know-how與大模型能力相結(jié)合,重塑千行百業(yè),成為各組織、企業(yè)、個人的專家助手。

  • 模型轉(zhuǎn)換,即將開源框架的網(wǎng)絡模型(如Caffe、TensorFlow等),通過ATC(Ascend Tensor Compiler)模型轉(zhuǎn)換工具,將其轉(zhuǎn)換成昇騰AI處理器支持的離線模型。

  • 本次Serverless應用中心上線文生圖應用,用戶無需下載源代碼、了解各種安裝部署知識、安裝復雜的依賴,通過華為云Serverless應用中心即可一鍵創(chuàng)建AI文生圖應用,體驗 “0” 構(gòu)建門檻、“0” 資源閑置并具備極致彈性的Serverless AI繪圖能力。

  • 在自然語言處理(NLP)領域中,使用語言模型預訓練方法在多項NLP任務上都獲得了不錯的提升,廣泛受到了各界的關注。本課程將簡單介紹一下預訓練的思想,幾個代表性模型和它們之間的關系。

  • 華為云Serverless技術(shù)極大的優(yōu)化了AI應用開發(fā)過程,一鍵部署AI應用、提升開發(fā)團隊工作效率。讓AI團隊可以更關注業(yè)務實現(xiàn),而無需關注底層技術(shù)細節(jié)。

  • 華為云CodeArts Snap是一款基于大模型技術(shù)打造的智能開發(fā)助手,旨在提高開發(fā)人員的生產(chǎn)力和代碼質(zhì)量,為開發(fā)者帶來全新的編程方式和體驗。