更新時間:2025-02-05 17:05 | 類型:生活應用 | 大?。?.43M |
版本:v1.0.8 | 廠商:杭州深度求索人工智能基礎技術研究有限公司 | 備案號:浙ICP備2023025841號-3A |
deepseek中文版是最近流行的一款人工智能ai助手,用戶們可以在線進行非常有趣的對話和問答,并且也可以直接去輸入幾個關鍵詞和角色,自動為你們生成一篇文章。軟件可以同時登錄多個賬號,你們的所有記錄和數據也都是會同步的,有需要的用戶們直接下載就好。
DeepSeek API 使用與 OpenAI 兼容的 API 格式,通過修改配置,您可以使用 OpenAI SDK 來訪問 DeepSeek API,或使用與 OpenAI API 兼容的軟件。
* 出于與 OpenAI 兼容考慮,您也可以將 base_url 設置為 https://api.deepseek.com/v1 來使用,但注意,此處 v1 與模型版本無關。
* deepseek-chat 模型已全面升級為 DeepSeek-V3,接口不變。 通過指定 model='deepseek-chat' 即可調用 DeepSeek-V3。
調用對話 API
在創建 API key 之后,你可以使用以下樣例腳本的來訪問 DeepSeek API。樣例為非流式輸出,您可以將 stream 設置為 true 來使用流式輸出。
curl
python
nodejs
DeepSeek-V3 正式發布
今天(2024/12/26),我們全新系列模型 DeepSeek-V3 首個版本上線并同步開源。
登錄官網 chat.deepseek.com 即可與最新版 V3 模型對話。API 服務已同步更新,接口配置無需改動。當前版本的 DeepSeek-V3 暫不支持多模態輸入輸出。
性能對齊海外領軍閉源模型
DeepSeek-V3 為自研 MoE 模型,671B 參數,激活 37B,在 14.8T token 上進行了預訓練。
論文鏈接:https://github.com/deepseek-ai/DeepSeek-V3/blob/main/DeepSeek_V3.pdf
DeepSeek-V3 多項評測成績超越了 Qwen2.5-72B 和 Llama-3.1-405B 等其他開源模型,并在性能上和世界頂尖的閉源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲。
● 百科知識: DeepSeek-V3 在知識類任務(MMLU, MMLU-Pro, GPQA, SimpleQA)上的水平相比前代 DeepSeek-V2.5 顯著提升,接近當前表現最好的模型 Claude-3.5-Sonnet-1022。
● 長文本: 在長文本測評中,DROP、FRAMES 和 LongBench v2 上,DeepSeek-V3 平均表現超越其他模型。
● 代碼: DeepSeek-V3 在算法類代碼場景(Codeforces),遠遠領先于市面上已有的全部非 o1 類模型;并在工程類代碼場景(SWE-Bench Verified)逼近 Claude-3.5-Sonnet-1022。
● 數學: 在美國數學競賽(AIME 2024, MATH)和全國高中數學聯賽(CNMO 2024)上,DeepSeek-V3 大幅超過了所有開源閉源模型。
● 中文能力: DeepSeek-V3 與 Qwen2.5-72B 在教育類測評 C-Eval 和代詞消歧等評測集上表現相近,但在事實知識 C-SimpleQA 上更為領先。
生成速度提升至 3 倍
通過算法和工程上的創新,DeepSeek-V3 的生成吐字速度從 20 TPS 大幅提高至 60 TPS,相比 V2.5 模型實現了 3 倍的提升,為用戶帶來更加迅速流暢的使用體驗。
開源權重和本地部署
DeepSeek-V3 采用 FP8 訓練,并開源了原生 FP8 權重。
得益于開源社區的支持,SGLang 和 LMDeploy 第一時間支持了 V3 模型的原生 FP8 推理,同時 TensorRT-LLM 和 MindIE 則實現了 BF16 推理。此外,為方便社區適配和拓展應用場景,我們提供了從 FP8 到 BF16 的轉換腳本。
模型權重下載和更多本地部署信息請參考:
https://huggingface.co/deepseek-ai/DeepSeek-V3-Base
V3模型和R1系列模型都是基于V3模型的更基礎版本V3-Base開發的。相較于V3(類4o)模型,R1(類o1)系列模型進行了更多自我評估、自我獎勵式的強化學習作為后訓練。
在R1之前,業界大模型普遍依賴于RLHF(基于人類反饋的強化學習),這一強化學習模式使用了大量由人類撰寫的高質量問答以了解「什么才是好的答案」,幫助模型在獎勵不明確的情況下知道如何作困難的選擇。正是這項技術的使用使得GPT-3進化成了更通人性的GPT-3.5,制造了2022年年底ChatGPT上線時的驚喜體驗。不過,GPT的不再進步也意味著這一模式已經到達瓶頸。
R1系列模型放棄了RLHF中的HF(human feedback,人類反饋)部分,只留下純粹的RL(強化學習)。在其首代版本R1-Zero中,DeepSeek相當激進地啟動了如下強化學習過程:為模型設置兩個獎勵函數,一個用于獎勵「結果正確」的答案(使用外部工具驗證答案的最終正確性),另一個獎勵「思考過程正確」的答案(通過一個小型驗證模型評估推理步驟的邏輯連貫性);鼓勵模型一次嘗試幾個不同的答案,然后根據兩個獎勵函數對它們進行評分。
DeepSeek稱,R系列模型在強化學習中涌現出了「反思」能力。
DeepSeek發現,由此進入強化學習過程的R1-Zero生成的答案可讀性較差,語言也常常中英混合,但隨著訓練時間增加,R1-Zero能不斷「自我進化」,開始出現諸如「反思」這樣的復雜行為,并探索解決問題的替代方法。這些行為都未曾被明確編程。
DeepSeek稱,這種「啊哈時刻」出現在模型訓練的中間階段。在此階段,DeepSeek-R1-Zero通過重新評估其初始方法來學習分配更多的思考時間?!高@一刻彰顯了強化學習的力量和美妙——只要提供正確的激勵,模型會自主開發高級解決問題的策略。」DeepSeek稱,經過數千個這樣的「純強化學習」步驟,DeepSeek-R1-Zero在推理基準測試中的性能就與OpenAI-o1-0912的性能相匹配了。
DeepSeek在論文中說,「這是第一個驗證LLMs的推理能力可以純粹通過RL(強化學習)來激勵,而不需要SFT(supervised fine-tuning,基于監督的微調)的開放研究?!?
不過,由于純強化學習訓練中模型過度聚焦答案正確性,忽視了語言流暢性等基礎能力,導致生成文本中英混雜。為此DeepSeek又新增了冷啟動階段——用數千條鏈式思考(CoT)數據先微調V3-Base模型,這些數據包含規范的語言表達和多步推理示例,使模型初步掌握邏輯連貫的生成能力;再啟動強化學習流程,生成了大約60萬個推理相關的樣本和大約20萬個與推理無關的樣本,將這80萬個樣本數據再次用于微調V3-Base后,就得到了R1——前面提到,DeepSeek還用這80萬個以思維鏈為主的數據微調了阿里巴巴的Qwen系列開源模型,結果表明其推理能力也提升了。
智能對話
高智商模型,順滑對話體驗
深度思考
先思考后回答,解決推理難題
AI 搜索
全網搜索,信息實時掌握
文件上傳
閱讀長文檔,高效提取信息
準確翻譯:提供準確流暢的翻譯服務,幫助用戶輕松融入多語言環境。
智能解題:解決理科難題,提供詳細的解題思路和步驟,幫助用戶抓住重點,深入理解。
文件解讀:用戶可以將文獻書籍、資料報告等上傳給DeepSeek,APP會幫助梳理重點,快速理解。
創意寫作:根據指令自動生成創意文案,撰寫各類文章和報告,快速構建內容框架,提升工作效率。
高效編程:支持多種編程語言,快速定位問題,生成代碼,提升編程效率。
deepseek高校版
版本:v1.0.13
大?。?.24M
查看deepseek百度版
版本:v1.1.1
大小:9.25M
查看deepseek滿血版
版本:v1.1.1
大小:9.25M
查看deepseek安卓版
版本:v1.0.12
大?。?.16M
查看deepseek谷歌版
版本:v1.1.1
大?。?.25M
查看DeepSeekapp
版本:v1.0.9
大?。?.66M
查看deepseekr1正式版
版本:v1.0.8
大?。?.43M
查看深度求索app
版本:v1.0.8
大?。?6.58M
查看deepseek官方正版
版本:v1.1.1
大小:9.25M
查看deepseekai智能助手
版本:v1.1.1
大?。?.25M
查看