大家怎么都跑出殘影了喂!
1. DeepSeek-R1發(fā)布
DeepSeek-R1網(wǎng)頁訪問鏈接:https://www.deepseek.com/
1 月 20 日,深度求索DeepSeek正式發(fā)布DeepSeek-R1,并同步開源模型權(quán)重。該模型遵循 MIT License,允許用戶通過蒸餾技術(shù)借助R1訓(xùn)練其他模型。
DeepSeek-R1還上線了API,對用戶開放思維鏈輸出,用戶設(shè)置model=’deepseek-reasoner’即可調(diào)用。此外,DeepSeek官網(wǎng)與App即日起同步更新上線。
DeepSeek-R1在后訓(xùn)練階段大規(guī)模使用強(qiáng)化學(xué)習(xí)技術(shù),在僅有極少標(biāo)注數(shù)據(jù)的情況下,極大提升了模型推理能力。在數(shù)學(xué)、代碼、自然語言推理等任務(wù)上,其性能與OpenAI o1正式版相當(dāng)。
此外,DeepSeek-R1 API服務(wù)定價為每百萬輸入 tokens1元(緩存命中)/4元(緩存未命中),每百萬輸出 tokens16元。
DeepSeek還將DeepSeek-R1的訓(xùn)練技術(shù)全部公開,促進(jìn)技術(shù)社區(qū)的充分交流與創(chuàng)新協(xié)作。
2、k1.5 新模型登場
Kimi訪問鏈接:Kimi.com
月之暗面Kimi也有新發(fā)布,k1.5多模態(tài)思考模型是月之暗面繼2024年11月發(fā)布k0-math數(shù)學(xué)模型和12月發(fā)布的k1視覺思考模型之后,連續(xù)第三個月推出的k系列強(qiáng)化學(xué)習(xí)模型重磅升級版本。
在short-CoT模式下,k1.5的數(shù)學(xué)、代碼、視覺多模態(tài)和通用能力大幅超越全球范圍內(nèi)短思考 SOTA 模型 GPT-4o和Claude 3.5Sonnet,領(lǐng)先達(dá)到 550%。在 long-CoT 模式下,k1.5 的數(shù)學(xué)、代碼和多模態(tài)推理能力達(dá)到了長思考 SOTA 模型 OpenAI o1 正式版的水平,這標(biāo)志著 Kimi 成為全球范圍內(nèi)首個在多模態(tài)推理性能上達(dá)到 OpenAI o1 正式版水平的公司。
2025 年,Kimi 將繼續(xù)沿著既定路線圖加速升級 k 系列強(qiáng)化學(xué)習(xí)模型,帶來更多模態(tài)、更多領(lǐng)域的能力和更強(qiáng)的通用能力。
3、豆包實時語音大模型上線
1月20日,豆包實時語音大模型上線豆包App。這是一款語音理解和生成一體化的模型,實現(xiàn)了端到端語音對話。相比傳統(tǒng)級聯(lián)模式,這款模型在語音表現(xiàn)力、控制力、情緒承接方面有較好表現(xiàn),并具備低時延、對話中可隨時打斷等特性,呈現(xiàn)出接近真人的語音表達(dá)水準(zhǔn)。
豆包實時語音大模型為語音多模態(tài)技術(shù)的研究和優(yōu)化提供了基礎(chǔ)。不過,模型的能力邊界仍存在諸多不確定性。比如語種方面,目前模型主要支持中文,其他語種尚未得到成熟支持。中文范圍內(nèi),模型也僅支持小部分方言和地方口音的理解和表達(dá),仍有較大進(jìn)步空間。
4、MiniMax 01系列模型發(fā)布
MiniMax模型訪問鏈接:https://www.minimaxi.com/platform
1 月 15 日,稀宇科技MiniMax發(fā)布并開源新一代 01 系列模型,包含基礎(chǔ)語言大模型 MiniMax-Text-01和視覺多模態(tài)大模型MiniMax-VL-01。該系列模型參數(shù)量為 4560 億,能高效處理高達(dá)400萬token的上下文,首次將線性注意力機(jī)制擴(kuò)展到商用模型的級別。
1月20日,繼視頻、文本模型家族迎來新成員后,MiniMax帶來了全新升級的T2A-01系列語音模型,并全球同步上線海螺語音產(chǎn)品。與傳統(tǒng)語音生成技術(shù)相比,全新升級的T2A-01系列語音模型不僅具有音質(zhì)穩(wěn)定清晰、韻律自然、情緒精準(zhǔn)表達(dá)、高準(zhǔn)確度等特點,提供更快、更穩(wěn)的語音生成能力,還能支持包括中文、粵語、英語、日語、韓語、阿拉伯語、西班牙語在內(nèi)的17種語言及上百種預(yù)置音色可選,為企業(yè)與個人用戶提供自然流暢的語音生成體驗。
依托于T2A-01系列語音模型,用戶在海螺AI僅需輸入文字即可生成自然、流暢的超擬人人聲,最長可輸入多達(dá)10000字符。與此同時,用戶可以根據(jù)需要自由配置輸出語音的情緒、語速、音高,甚至調(diào)整音色效果,滿足復(fù)雜場景的精細(xì)化需求。
5、階躍星辰語言模型新發(fā)布
Step-2 mini網(wǎng)頁訪問鏈接:https://yuewen.cn
1月21日,階躍星辰上線了Step-2 系列語言模型的兩款新品——參數(shù)量小、性價比更高的Step-2 mini,以及專門針對內(nèi)容創(chuàng)作領(lǐng)域推出的模型Step文學(xué)大師版。
Step-2 mini和萬億參數(shù)大模型Step-2相比,以3%左右的參數(shù)量保有了其80%以上的模型性能。與此同時,Step-2 mini擁有更快的生成速度和極高的性價比。輸入4000tokens的情況下,Step-2 mini的平均首字時延僅0.17秒。目前,大家已經(jīng)可以在階躍星辰開放平臺調(diào)用 Step-2 mini 的API接口。輸入1元/百萬token;輸出2元/百萬token。
Step-2 mini采用了階躍星辰自主研發(fā)的新型注意力機(jī)制架構(gòu) ——MFA(Multi-matrix Factorization Attention,多矩陣分解注意力)及其變體MFA-Key-Reuse,相比于常用的MHA(Multi-Head Attention,多頭注意力)架構(gòu),節(jié)省了近94%的KV緩存開銷,擁有更快的推理速度并大幅降低了推理成本。
據(jù)官方介紹,Step-2 文學(xué)大師版是一款專為文字內(nèi)容創(chuàng)作研發(fā)的模型,沿襲了 Step-2 的知識儲備、對文字強(qiáng)大的細(xì)節(jié)把控能力,特色在于具有更加強(qiáng)大的內(nèi)容創(chuàng)作能力。Step-2 文學(xué)大師版力求解決市面上語言模型過度對齊導(dǎo)致的內(nèi)容“假大空”,缺乏新意和真情實感的問題。
6、?智譜的清影2.0重磅更新
清影2.0訪問鏈接:https://chatglm.cn/video?lang=zh
清影2.0在模型結(jié)構(gòu)、訓(xùn)練方法以及數(shù)據(jù)工程方面全面更新,使圖生視頻基礎(chǔ)模型能力大幅提升38%。
不僅生成效果更可控,能支持畫面主體進(jìn)行大幅度運(yùn)動的同時保持畫面穩(wěn)定性,而且指令遵從能力處于行業(yè)領(lǐng)先地位,可理解并實現(xiàn)各種復(fù)雜prompt,還能夠駕馭各種藝術(shù)風(fēng)格,極大地提升了畫面美感。