工商時報 記者:張珈睿 2025.01.28
AI公司 DeepSeek繼2024年12月底推出DeepSeek V3大語言模型後,2025年1月20日再推出全新開源推理大模型 R1,同樣在多項基準測試中表現卓越,甚至與 OpenAI所推出之o1系列模型相媲美;此外,與V3一樣為價格破壞者,R1更將矛頭指向海外國際巨頭,引發市場對AI伺服器及半導體產業鏈的鉅額資本支出未來無法回收之擔憂。
DeepSeek-R1 推論輸出與Token訂價為Chat GPT o1之3%~4%,API服務定價為每百萬輸入tokens為人民幣1至4元,每百萬輸出tokens為人民幣16元;從中國大陸的語言模型業者月初開始降價,國際巨頭OpenAI、Meta未來恐怕也將加入。
儘管法人認為,企業使用的 API用量增加,語言模型產品仍需要更多GPU來支撐。不過令市場擔心的是,大規模的AI伺服器資本支出尚未開始獲利或產生正現金流,就開始面臨終端產品殺價競爭,恐怕使CSP業者未來在硬體上的投入越發保守。
科技業界指出,R1採用全新的訓練方法,徹底顛覆傳統大語言模型的訓練流程。傳統上,大語言模型訓練依賴「監督微調(SFT)」過程,即通過大量人工標註數據進行預訓練,再進一步利用強化學習來提升性能。
而DeepSeek直接採用在基礎模型上進行強化學習方式,省略耗時耗力的監督微調環節,這種方式不僅大幅降低對標註數據的需求,還讓模型能夠自由探索解決問題的多種路徑,提升廣泛使用度和適應能力。
在技術設計上,R1 採用群組相對策略優化(Group Relative Policy Optimization,GRPO)演算法,降低傳統強化學習對計算資源的需求;另外,DeepSeek團隊創新性地採用「準確度獎勵」與「格式獎勵」相結合機制,確保模型生成的答案不僅正確,還具有規範性及可讀性。
R1在多項基準測試中展現驚人的能力。例如,在AIME 2024數學競賽基準測試中,R1的平均 pass@1分數達到 79.8%,超越 OpenAI o1-1217模型;在長文本理解、開放式問答等多領域任務中,R1的性能亦超越前代模型 DeepSeek-V3。
更顛覆市場的是,為使更多用戶能夠享受到 R1 的強大推理能力,DeepSeek 團隊進行模型蒸餾,將 R1的能力遷移至小型模型,供不同資源需求的開發者或研究者使用,並採MIT License將此免費開源。給予用戶最大程度的使用自由,支持模型蒸餾,可將推理能力蒸餾到更小的模型。