加密貨幣交易所 加密貨幣交易所
Ctrl+D 加密貨幣交易所
ads
首頁 > ICP > Info

BuidlerDAO x KNN3:大型語言模型使用經驗_PRO:Hydrominer

Author:

Time:1900/1/1 0:00:00

作者:@於方仁@CarolineSun

編排:@黑羽小斗

LLM

大型語言模型是利用海量的文本數據進行訓練海量的模型參數。大語言模型的使用,大體可以分為兩個方向:

A.僅使用

B.微調后使用

僅使用又稱Zero-shot,因為大語言模型具備大量通用的語料信息,量變可以產生質變。即使Zero-shot也許沒得到用戶想要的結果,但加上合適的prompt則可以進一步獲取想要的知識。該基礎目前被總結為promptlearning。

大語言模型,比較流行的就是BERT和GPT。從生態上講BERT與GPT最大的區別就是前者模型開源,后者只開源了調用API,也就是目前的ChatGPT。

兩個模型均是由若干層的Transformer組成,參數數量等信息如下表所示。

目前生態上講,BERT多用于微調場景。因為微調必須在開源模型的基礎上,GPT僅開源到GPT2的系列。且相同模型參數量下BERT在特定場景的效果往往高于GPT,微調需要調整全部的模型參數,所以從性價比而言,BERT比GPT更適合微調。

而GPT目前擁有ChatGPT這種面向廣大人民群眾的應用,使用簡單。API的調用也尤其方便。所以若是僅使用LLM,則ChatGPT顯然更有優勢。

ChatGPTPrompt

Base 公布“Build on Base”賞金獲勝方為 Decent AI、Rhinestone 和 Inheritable:3月21日消息,Coinbase Layer 2 網絡 Base 公布 ETHDenver BUIDLathon 的“Build on Base” 1.5 萬 USDC 賞金獲勝方,包括 Decent AI、Rhinestone 和 Inheritable。

其中,Decent AI 創建了一個去中心化的市場,基于相互激勵運行 AI 模型。Rhinestone 是一個使用(修改的)Diamond Proxies(ERC-2535)的帳戶抽象(ERC-4337)的模塊化實現。Inheritable 是一種用于安全、去中心化繼承的 Web3 遺囑解決方案,錨定在 Base 上并由 Weavechain 提供支持。[2023/3/21 13:16:46]

下圖是OpenAI官方提出對于ChatGPT的prompt用法大類。

Figure1.PromptCategoriesbyOpenAI?

每種類別有很多具體的范例。如下圖所示:

Figure2.PromptCategoriesExamplesbyOpenAI

Axie Infinity推出Builders Program計劃,旨在進一步提升游戲體驗:1月21日消息,P2E游戲Axie Infinity官方宣布推出Builders Program,并提供總計5000枚AXS支持該計劃,旨在為社區開發者提供資源、推廣、支持和工具以進一步提升Axie Infinity的游戲體驗。據Axie Infinity透露,凡是入選的項目至少可以獲得價值5000美元的AXS捐贈,還能得到SkyMavis游戲設計和產品的指導,以及Ronin Network測試網、SSO和錢包集成等支持。[2022/1/22 9:05:16]

除此以外,我們在此提出一些略微高級的用法。

高級分類

這是一個意圖識別的例子,本質上也是分類任務,我們指定了類別,讓ChatGPT判斷用戶的意圖在這

Figure3.PromptExamples

實體識別與關系抽取

利用ChatGPT做實體識別與關系抽取輕而易舉,例如給定一篇文本后,這么像它提問。

Figure4.ExampleTextGiventoChatGPT

這是部分結果截圖:

Algorand發布ALGO Builder平臺1.0版本:Algorand(ALGO)發布了ALGO Builder平臺的1.0版本,可幫助企業和黑客馬拉松項目構建DApp。Algo Builder提供了一個框架,允許開發人員構建、測試、部署和維護項目,同時提供對高級庫的訪問權限。此外,Algorand還發布了新的智能合約模板。該功能有助于澄清復雜的合規要求,包括投資者白名單和轉賬限制。該智能合約功能還附帶了一個有狀態計數器,為選擇有狀態智能合約提供了路線圖。該平臺還宣布創建帶有DApp模板的新存儲庫。(Finbold)[2021/6/2 23:03:07]

Figure5.PartialOutputfromgivenTextonChatGPT

之后可以追問給他們的關系,例如:

Figure6.AskingrelationshiponChatGPT

這樣,一個大型的知識圖譜便可輕松建立。

分析任務

如下圖所示,我對ChatGPT提出了分析我目前需求的問題。

孫宇晨受邀參加第13屆金融科技峰會“Building Tomorrow’s Marketplaces”:據官方消息,波場TRON創始人兼BitTorrent CEO孫宇晨受邀參加投資銀行集團Rosenblatt Securities舉辦的第13屆金融科技峰會“Building Tomorrow’s Marketplaces”,并將于5月19日12:00 pm—1:00 pm EDT(北美東部夏令時間)進行“市場的未來發展”主題討論。據悉,本次大會將于2021年5月19日-5月20日EDT (北美東部夏令時間)舉行,共有包括孫宇晨、納斯達克 CEO 阿德娜·弗里德曼(Adena Friedman)等16位尖端金融科技思想領袖共同出席。Rosenblatt金融科技峰會已經連續舉辦了13年,匯聚了金融科技首席執行官,以描述他們如何幫助金融服務業轉型。[2021/5/10 21:44:07]

Figure7.ResultforneedsrequestonChatGPT

甚至還能讓它給定分數。

Figure8.Scoringtoevaluatetheidentifiedneeds

除此以外還有數不勝數的方式,在此不一一列舉。

組合Agent

另外,我們在使用ChatGPT的API時,可以將不同的prompt模板產生多次調用產生組合使用的效果。我愿稱這種使用方式叫做,組合Agent。例如Figure1展示的是一個大概的思路。

世界糧食計劃署:“Building Blocks”項目成功服務10萬名難民:外媒消息,近日,世界糧食計劃署(WFP)已采用區塊鏈技術來應對全球性饑餓問題。“Building Blocks”項目采用了以太坊的區塊鏈技術,無需轉移現金和食品,便完成與零售商和銀行的結算。高效、廉價和安全地幫助WFP解決了10萬名難民的饑餓問題。[2018/3/23]

Figure9.?TheParadigmoftheCombinationAgent

具體說來,例如是一個輔助創作文章的產品。則可以這么設計,如Figure10所示。

Figure10.Agentcombinationforassistingincreation

假設用戶輸入一個請求,說“幫我寫一篇倫敦游記”,那么IntentRecognitionAgent首先做一個意圖識別,意圖識別也就是利用ChatGPT做一次分類任務。假設識別出用戶的意圖是文章生成,則接著調用ArticleGenerateAgent。

另一方面,用戶當前的輸入與歷史的輸入可以組成一個上下文,輸入給ChatContextAnalyzeAgent。當前例子中,這個agent分析出的結果傳入后面的AIReplyAgent和PhaseControlAgent的。

AIReplyAgent就是用來生成AI回復用戶的語句,假設我們的產品前端并不只有一個文章,另一個敵方還有一個框用來顯示AI引導用戶創作文章的語句,則這個AIReplyAgent就是用來干這個事情。將上下文的分析與文章一同提交給ChatGPT,讓其根據分析結果結合文章生成一個合適的回復。例如通過分析發現用戶只是在通過聊天調整文章內容,而不知道AI還能控制文章的藝術意境,則可以回復用戶你可以嘗試著對我說“調整文章的藝術意境為非現實主義風格”。

PhaseControlAgent則是用來管理用戶的階段,對于ChatGPT而言也可以是一個分類任務,例如階段分為等等。例如AI判斷可以進行文章模板的制作了,前端可以產生幾個模板選擇的按鈕。

使用不同的Agent來處理用戶輸入的不同任務,包括意圖識別、ChatContext分析、AI回復生成和階段控制,從而協同工作,為用戶生成一篇倫敦游記的文章,提供不同方面的幫助和引導,例如調整文章的藝術意境、選擇文章模板等。這樣可以通過多個Agent的協作,使用戶獲得更加個性化和滿意的文章生成體驗。?

Prompt微調

LLM雖然很厲害,但離統治人類的AI還相差甚遠。眼下有個最直觀的痛點就是LLM的模型參數太多,基于LLM的模型微調變得成本巨大。例如GPT-3模型的參數量級達到了175Billion,只有行業大頭才有這種財力可以微調LLM模型,對于小而精的公司而言該怎么辦呢。無需擔心,算法科學家們為我們創新了一個叫做prompttuning的概念。

Prompttuning簡單理解就是針對prompt進行微調操作,區別于傳統的fine-tuning,優勢在于更快捷,prompttuning僅需微調prompt相關的參數從而去逼近fine-tuning的效果。

Figure11.Promptlearning

什么是prompt相關的參數,如圖所示,prompttuning是將prompt從一些的自然語言文本設定成了由數字組成的序列向量。本身AI也會將文本從預訓練模型中提取向量從而進行后續的計算,只是在模型迭代過程中,這些向量并不會跟著迭代,因為這些向量于文本綁定住了。但是后來發現這些向量即便跟著迭代也無妨,雖然對于人類而言這些向量迭代更新后在物理世界已經找不到對應的自然語言文本可以表述出意思。但對于AI來講,文本反而無意義,prompt向量隨著訓練會將prompt變得越來越符合業務場景。

假設一句prompt由20個單詞組成,按照GPT3的設定每個單詞映射的向量維度是12288,20個單詞便是245760,理論上需要訓練的參數只有245760個,相比175billion的量級,245760這個數字可以忽略不計,當然也會增加一些額外的輔助參數,但同樣其數量也可忽略不計。

問題來了,這么少的參數真的能逼近?finetuning的效果嗎,當然還是有一定的局限性。如下圖所示,藍色部分代表初版的prompttuning,可以發現prompttuning僅有在模型參數量級達到一定程度是才有效果。雖然這可以解決大多數的場景,但在某些具體垂直領域的應用場景下則未必有用。因為垂直領域的微調往往不需要綜合的LLM預訓練模型,僅需垂直領域的LLM模型即可,但是相對的,模型參數不會那么大。所以隨著發展,改版后的prompttuning效果可以完全取代fine-tuning。下圖中的黃色部分展示的就是prompttuningv2也就是第二版本的prompttuning的效果。

Figure12.Promptlearningparameters

V2的改進是將原本僅在最初層輸入的連續prompt向量,改為在模型傳遞時每一個神經網絡層前均輸入連續prompt向量,如下圖所示。

Figure13.Promptlearningv2

還是以GPT3模型為例,GPT3總從有96層網絡,假設prompt由20個單詞組成,每個單詞映射的向量維度是12288,則所需要訓練的參數量=96*20*12288=23592960。是175billion的萬分之1.35。這個數字雖不足以忽略不計,但相對而言也非常小。

未來可能會有prompttuningv3,v4等問世,甚至我們可以自己加一些創新改進prompttuning,例如加入長短期記憶網絡的設定。(因為原版的prompttuningv2就像是一個大型的RNN,我們可以像改進RNN一般去改進prompttuningv2)。總之就目前而言,prompttuning使得微調LLM變得可行,未來一定會有很多垂直領域的優秀模型誕生。

總結

LargeLanguageModels(LLMs)和Web3技術的整合為去中心化金融領域帶來了巨大的創新和發展機遇。通過利用LLMs的能力,應用程序可以對大量不同數據源進行全面分析,生成實時的投資機會警報,并根據用戶輸入和先前的交互提供定制建議。LLMs與區塊鏈技術的結合還使得智能合約的創建成為可能,這些合約可以自主地執行交易并理解自然語言輸入,從而促進無縫和高效的用戶體驗。

這種先進技術的融合有能力徹底改變DeFi領域,并開辟出一條為投資者、交易者和參與去中心化生態系統的個體提供新型解決方案的道路。隨著Web3技術的日益普及,LLMs創造復雜且可靠解決方案的潛力也在擴大,這些解決方案提高了去中心化應用程序的功能和可用性。總之,LLMs與Web3技術的整合為DeFi領域提供了強大的工具集,提供了有深度的分析、個性化的建議和自動化的交易執行,為該領域的創新和改革提供了廣泛的可能性。

參考文獻

Tags:PROROMPROMOMPprops幣融資消息Hydrominerprom幣團隊KOMP價格

ICP
一覽Cosmos流動性質押生態:ATOM流動性質押僅占質押量的1.15%_ATO:PLATO

原文作者:蔣海波,PANews以太坊的質押從?2020?年?11?月開始,直至最近的上海升級才開通贖回功能,隨著質押率的上升,質押收益率也在不斷下降.

1900/1/1 0:00:00
一周 AIGC 丨白宮宣布首個 AI 監管計劃,中國 AI 領域或面臨美國全面投資禁令_人工智能:GPT

世界經濟論壇最新發布的報告顯示,未來幾年,因人工智能和經濟增長放緩等因素,全球就業形勢將受到嚴重沖擊。全球近四分之一的工作崗位將發生變化,其中一些將被淘汰,還有一些將被創造出來.

1900/1/1 0:00:00
金色觀察 | Pepe、Floki、Wojack 看透Meme幣狂熱及其風險_MEME:ROBOPEPE幣

作者:AndréBeganski,Decrypt;翻譯:金色財經xiaozou對于旁觀者來說,加密貨幣的寒冬貌似已經結束了,最近一種特殊的青蛙主題代幣的上漲高度令人頭暈目眩,與此同時.

1900/1/1 0:00:00
PEPE 上漲 75%,創下歷史新高,因為 Meme 代幣飆升_PEPE:WET

來源|Decrypt 編譯|潮外音 Meme代幣熱潮并未放緩:兩周前推出的新代幣Pepe(PEPE)剛剛創下歷史新高.

1900/1/1 0:00:00
BRC20 背后:來自 BSV 社區的“復仇”_BRC:brc20峰會

在今年2月中旬,我們專門制作了一期關于Ordinals以及BTCNFT的視頻。 在尋找相關資料的過程中,我們發現一個有意思的現象,那就是對Ordinals最上頭的其實是一群原BSV社區的人,盡管.

1900/1/1 0:00:00
NFT MEV市場概覽:探索新交易機遇_NFT:MEV

作者:AlanaLevin,?VariantFund;編譯:Cecilia,?bfrenzDAOMEV,即最大可提取價值,指的是通過重新排序、插入和審查區塊內的交易,從用戶那里提取的價值.

1900/1/1 0:00:00
ads