🎉 #Gate Alpha 第三届积分狂欢节 & ES Launchpool# 聯合推廣任務上線!
本次活動總獎池:1,250 枚 ES
任務目標:推廣 Eclipse($ES)Launchpool 和 Alpha 第11期 $ES 專場
📄 詳情參考:
Launchpool 公告:https://www.gate.com/zh/announcements/article/46134
Alpha 第11期公告:https://www.gate.com/zh/announcements/article/46137
🧩【任務內容】
請圍繞 Launchpool 和 Alpha 第11期 活動進行內容創作,並曬出參與截圖。
📸【參與方式】
1️⃣ 帶上Tag #Gate Alpha 第三届积分狂欢节 & ES Launchpool# 發帖
2️⃣ 曬出以下任一截圖:
Launchpool 質押截圖(BTC / ETH / ES)
Alpha 交易頁面截圖(交易 ES)
3️⃣ 發布圖文內容,可參考以下方向(≥60字):
簡介 ES/Eclipse 項目亮點、代幣機制等基本信息
分享你對 ES 項目的觀點、前景判斷、挖礦體驗等
分析 Launchpool 挖礦 或 Alpha 積分玩法的策略和收益對比
🎁【獎勵說明】
評選內容質量最優的 10 位 Launchpool/Gate
大模型長文本革命:從4000到40萬token的突破與挑戰
大模型長文本技術進入新階段,4000到40萬token背後有何玄機?
近期,大模型的長文本能力正以驚人的速度提升。從最初的4000 token到現在的40萬token,大模型廠商在這一領域的競爭日益激烈。
國際上,OpenAI通過多次升級將GPT-3.5和GPT-4的上下文長度分別提升至1.6萬和3.2萬token。Anthropic更是一舉將其模型Claude的上下文長度擴展到10萬token。LongLLaMA則將這一數字推至25.6萬token甚至更高。
國內方面,初創公司月之暗面推出的Kimi Chat支持輸入20萬漢字,約合40萬token。港中文和MIT合作開發的LongLoRA技術則可將7B模型的文本長度擴展到10萬token,70B模型擴展到3.2萬token。
目前,包括OpenAI、Anthropic、Meta、月之暗面在內的衆多頂級大模型公司和研究機構都將提升上下文長度作爲重點發展方向。這些公司大多受到資本市場的熱捧。OpenAI獲得近120億美元投資,Anthropic估值有望達到300億美元,月之暗面成立半年即完成多輪融資,估值超3億美元。
長文本能力的提升意味着模型可處理的信息量大幅增加。從最初只能讀取一篇短文,到現在可以輕鬆處理一本長篇小說,大模型的應用場景正不斷拓展。這項技術在金融、法律、科研等專業領域的應用前景廣闊,有望推動這些行業的智能化升級。
然而,專家指出,文本長度並非越長越好。研究表明,模型支持的上下文長度與其效果並不存在簡單的線性關係。更重要的是模型如何有效利用上下文信息。目前,業界對長文本技術的探索仍在繼續,40萬token可能只是一個起點。
長文本技術的發展不僅解決了大模型早期面臨的一些問題,還爲進一步的產業應用鋪平了道路。這標志着大模型進入了從LLM到Long LLM的新階段。
以月之暗面的Kimi Chat爲例,其長文本能力在多個場景中展現出獨特優勢:
這些功能顯示出大模型正朝着專業化、個性化和深度化方向發展,有望成爲撬動產業應用的新支點。
然而,長文本技術的發展也面臨着"不可能三角"困境:文本長度、注意力分配和算力需求三者難以兼顧。這主要源於Transformer結構中自注意力機制的計算復雜度隨文本長度呈平方級增長。
目前,業界主要採取三種方案應對這一挑戰:
盡管長文本技術仍面臨諸多挑戰,但它爲大模型開闢了新的發展方向。未來,大模型廠商將在文本長度、注意力分配和算力需求之間尋求最佳平衡點,以推動這項技術的進一步發展和應用。