📢 Gate廣場 #NERO发帖挑战# 秀觀點贏大獎活動火熱開啓!
Gate NERO生態周來襲!發帖秀出NERO項目洞察和活動實用攻略,瓜分30,000NERO!
💰️ 15位優質發帖用戶 * 2,000枚NERO每人
如何參與:
1️⃣ 調研NERO項目
對NERO的基本面、社區治理、發展目標、代幣經濟模型等方面進行研究,分享你對項目的深度研究。
2️⃣ 參與並分享真實體驗
參與NERO生態周相關活動,並曬出你的參與截圖、收益圖或實用教程。可以是收益展示、簡明易懂的新手攻略、小竅門,也可以是行情點位分析,內容詳實優先。
3️⃣ 鼓勵帶新互動
如果你的帖子吸引到他人參與活動,或者有好友評論“已參與/已交易”,將大幅提升你的獲獎概率!
NERO熱門活動(帖文需附以下活動連結):
NERO Chain (NERO) 生態周:Gate 已上線 NERO 現貨交易,爲回饋平台用戶,HODLer Airdrop、Launchpool、CandyDrop、餘幣寶已上線 NERO,邀您體驗。參與攻略見公告:https://www.gate.com/announcements/article/46284
高質量帖子Tips:
教程越詳細、圖片越直觀、互動量越高,獲獎幾率越大!
市場見解獨到、真實參與經歷、有帶新互動者,評選將優先考慮。
帖子需原創,字數不少於250字,且需獲得至少3條有效互動
大模型長文本能力突破:從4000 token到40萬 token的飛躍
大模型長文本能力提升:從LLM到Long LLM時代
大模型技術正在以驚人的速度發展,文本處理能力從4000 token躍升至40萬token。長文本能力似乎成爲大模型廠商的新標配。
國外方面,OpenAI通過多次升級將GPT-4的上下文長度提升至3.2萬token。Anthropic更是將其模型Claude的上下文長度一舉提升至10萬token。LongLLaMA更是將上下文長度擴展到25.6萬token甚至更多。
國內方面,某大模型初創公司推出的智能助手產品可支持輸入20萬漢字,約合40萬token。港中文一個研究團隊開發的LongLoRA技術可將7B模型的文本長度擴展到10萬token,70B模型擴展到3.2萬token。
目前,國內外已有一批頂級大模型公司將拓展上下文長度作爲更新升級的重點。這些公司大多獲得了資本市場的青睞,融資規模和估值都十分可觀。
大模型公司致力於突破長文本技術,將上下文長度擴大100倍意味着什麼?
表面上看是輸入文本長度和閱讀能力的提升。從最初只能讀完一篇短文,到現在可以閱讀整本長篇巨著。
更深層次來看,長文本技術也在推動大模型在金融、司法、科研等專業領域的應用落地。長文檔摘要、閱讀理解、問答等能力是這些領域智能化升級的基礎。
然而,文本長度並不是越長越好。研究表明,模型支持更長上下文輸入與效果提升並不能直接劃等號。更重要的是模型對上下文內容的使用。
不過,目前國內外對文本長度的探索還遠未達到極限。大模型公司仍在不斷突破,40萬token可能只是一個開始。
爲什麼要"卷"長文本?
某大模型公司創始人表示,正是由於輸入長度受限,造成了許多大模型應用落地的困境。這也是衆多公司當前聚焦長文本技術的原因。
例如在虛擬角色、遊戲開發、專業領域分析等場景中,輸入長度不足會導致各種問題。而在未來的Agent和AI原生應用中,長文本同樣扮演着重要角色。
長文本技術既可以解決大模型早期被詬病的一些問題,增強某些功能,同時也是進一步推進產業和應用落地的關鍵技術。這也表明通用大模型已進入從LLM到Long LLM的新階段。
通過某公司新發布的對話機器人,我們可以窺見Long LLM階段大模型的升級功能:
這些例子說明,對話機器人正朝着專業化、個性化、深度化方向發展,這或許是撬動產業落地的新抓手。
某公司創始人認爲,國內大模型市場會分爲toB和toC兩個陣營,在toC領域會出現基於自研模型的超級應用。
不過,目前長文本對話場景仍有優化空間,如聯網、暫停修改、減少錯誤等方面。
長文本的"不可能三角"困境
長文本技術面臨文本長短、注意力和算力的"不可能三角"困境:
這主要源於大多數模型基於Transformer結構。其中自注意力機制的計算量隨上下文長度呈平方增長。
這構成了文本長短與注意力的矛盾。同時,要突破更長文本又需要更多算力,形成了文本長短與算力的矛盾。
目前主要有三種解決方案:
長文本的"不可能三角"困境暫時無解,但明確了探索路徑:在三者間尋求平衡,既能處理足夠信息,又能兼顧注意力計算與算力成本。
内容语言:中文
以下是对文章的评论:
怪不了谁,只能难为显卡了~