展會(huì)信息港展會(huì)大全

解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-11-29 14:07:49   瀏覽:137次  

導(dǎo)讀:新智元報(bào)道編輯:靜音【新智元導(dǎo)讀】一家總部位于美國加州的初創(chuàng)公司Tilde,正在構(gòu)建解釋器模型,解讀模型的推理過程,并通過引導(dǎo)采樣動(dòng)態(tài)調(diào)整生成策略,提升大語言模型的推理能力和生成精度。相比直接優(yōu)化提示的提示工程,這一方法展現(xiàn)出更靈活高效的潛力,有望重塑AI交互方式。可解釋性是人工智能領(lǐng)域中的一個(gè)核心挑戰(zhàn),也是一個(gè)備受關(guān)注的問題。隨著AI模型(尤其是深度學(xué)習(xí) ......

解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

新智元報(bào)道

編輯:靜音【新智元導(dǎo)讀】一家總部位于美國加州的初創(chuàng)公司Tilde,正在構(gòu)建解釋器模型,解讀模型的推理過程,并通過引導(dǎo)采樣動(dòng)態(tài)調(diào)整生成策略,提升大語言模型的推理能力和生成精度。相比直接優(yōu)化提示的提示工程,這一方法展現(xiàn)出更靈活高效的潛力,有望重塑AI交互方式。可解釋性是人工智能領(lǐng)域中的一個(gè)核心挑戰(zhàn),也是一個(gè)備受關(guān)注的問題。隨著AI模型(尤其是深度學(xué)習(xí)模型)的規(guī)模和復(fù)雜性不斷增長(zhǎng),模型內(nèi)部的計(jì)算過程變得越來越難以理解。

但一直以來,模型的可解釋性好像不如模型的性能那般受重視,往往不是新產(chǎn)品發(fā)布的宣傳重點(diǎn)。而最近,一個(gè)總部位于美國加州的AI初創(chuàng)Tilde宣布成立,專為模型可解釋性而生。解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

他們正在構(gòu)建解釋器模型和控制技術(shù),以解鎖模型的深層推理和指令能力,從而實(shí)現(xiàn)新一代的人機(jī)交互。當(dāng)今AI的交互依賴于黑箱提示,這種方式本質(zhì)上有損信息。試想在沒有源代碼的情況下優(yōu)化一個(gè)軟件系統(tǒng)不僅低效,而且極度受限。Tilde希望通過應(yīng)用可解釋性超越這些限制:他們正在構(gòu)建解決方案,使人們能夠直觀地看見模型的內(nèi)部工作機(jī)制,以直接引導(dǎo)模型行為并提升性能,超越傳統(tǒng)的后訓(xùn)練方法或微調(diào)方法的潛能。目前,基于已有的開源大語言模型、文生視頻模型,他們的解釋器模型已經(jīng)實(shí)現(xiàn)了大語言模型的推理能力改進(jìn),并在文本生成視頻模型中實(shí)現(xiàn)了更精細(xì)的生成控制。解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

解釋器模型運(yùn)用案例

關(guān)于大語言模型推理能力的優(yōu)化,視頻中提到了一個(gè)案例,讓Llama 3.1 8B嘗試解答一個(gè)可以通過巧妙數(shù)學(xué)技巧解決的腦筋急轉(zhuǎn)彎:從點(diǎn)(0,0)到點(diǎn)(6,4)的網(wǎng)格上,若只能向右或向上移動(dòng),有多少條最短路徑不經(jīng)過點(diǎn)(2,3)?

解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

問題輸入后,Llama 3.1 8B輸出了一個(gè)錯(cuò)誤的答案。解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

接著,案例演示引入了Tilde的干預(yù),補(bǔ)充了指令:「確保模型應(yīng)用強(qiáng)大的組合推理!」在此之后,模型正確解答了這個(gè)腦筋急轉(zhuǎn)彎。解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

而至于文本生成視頻模型更精細(xì)的生成控制,視頻給到的案例中,向Genmo的mochi 1輸入了指令:一只貓從山頂?shù)牟屎缁萆匣聛恚焐嫌姓克{(lán)的天空和蓬松的云朵。

解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

接著,案例演示引入了Tilde的干預(yù),補(bǔ)充了指令:「確保有山!」解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

我們可以注意到加入Tilde干預(yù)后的準(zhǔn)確性和遵循用戶偏好的提升?梢钥吹饺齻(gè)優(yōu)化后的圖像中:第一張更注重于山間風(fēng)景的加強(qiáng);第二、三張的區(qū)別不太大,第三張的坡形相對(duì)更明顯一些。解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

網(wǎng)友討論看到這里,有網(wǎng)友不禁提問:這和提示工程有什么區(qū)別?谷歌DeepMind高級(jí)研究科學(xué)家Neel Nanda就提到:「關(guān)于組合數(shù)學(xué)問題的例子,如果你在提示的末尾添加『請(qǐng)使用強(qiáng)大的組合推理』(please use strong combinatorial reasoning),會(huì)發(fā)生什么?」解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

前OpenAI研究員Neil Chowdhury回復(fù)道:「我在Llama-3.1 8B-Instruct(默認(rèn)的Hugging Face采樣參數(shù))上嘗試了這個(gè)方法,它解決了問題不過當(dāng)然,我希望能看到更深入的分析 :) 」解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

Neel Nanda還艾特了Tilde的X賬號(hào),表示很想看到他們的工具和提示工程(prompt modification)基準(zhǔn)方法進(jìn)行合理的比較。解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

Tilde的創(chuàng)始人之一Dhruv Pai對(duì)此進(jìn)行了回復(fù)Neel(以及Neil),謝謝你們的想法,提出了好問題!簡(jiǎn)而言之:上面包含一個(gè)腳本,展示了我們使用的基礎(chǔ)和系統(tǒng)提示,但在末尾添加「請(qǐng)使用強(qiáng)大的組合推理」并沒有奏效(無論是使用Hugging Face還是我們自己的服務(wù)庫)。稍微展開說明一下:基礎(chǔ)提示要求模型生成一個(gè)便于演示的結(jié)構(gòu)化輸出(否則生成內(nèi)容會(huì)太長(zhǎng)),而且在溫度為0的情況下總是出錯(cuò)(也可能對(duì)更復(fù)雜或更簡(jiǎn)單的提示能成功,但未測(cè)試)。我們的結(jié)論并不是「哦,現(xiàn)在我們可以讓Llama-3.1解決無法解決的問題」,而是「在一個(gè)相對(duì)普通的提示下,我們可以讓它正確回答一些本來可能會(huì)失敗的問題」。這對(duì)我們來說很有趣,因?yàn)槲覀兊谝淮慰吹綍r(shí),被這種引導(dǎo)采樣(Steering Sampling)的多樣性和質(zhì)量(有點(diǎn)類似于非常智能的大型語言模型)驚艷到了。有趣的一點(diǎn):雖然引導(dǎo)可以讓它解決更難的問題(例如MMLU專業(yè)問題集的題目),但我們認(rèn)為在演示中這種「更難的問題」沒有「我們展示的更簡(jiǎn)單的問題」表現(xiàn)得那么直觀。解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

引導(dǎo)采樣 VS 提示工程引導(dǎo)采樣(Steering Sampling)和提示工程(Prompt Engineering)是兩種不同的方法,用于控制LLM的輸出方向。它們的目標(biāo)都是生成符合需求的結(jié)果,但所關(guān)注的技術(shù)和實(shí)現(xiàn)方式有所不同。引導(dǎo)采樣通過調(diào)整模型內(nèi)部的采樣策略或生成過程,在模型生成的過程中動(dòng)態(tài)引導(dǎo)輸出的方向,而不是直接改變輸入的提示。而提示工程通過優(yōu)化或設(shè)計(jì)輸入提示(prompt)的內(nèi)容或結(jié)構(gòu),來引導(dǎo)模型按照預(yù)期方式生成輸出。解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

Stargazer不過,目前在Tilde的官網(wǎng)中并沒有找到視頻案例中展示的產(chǎn)品界面,只找到了一個(gè)已經(jīng)上線的產(chǎn)品「Stargazer」,主要圍繞大語言模型的可解釋性而生,可用于探索開源Llama模型內(nèi)部。解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

體驗(yàn)地址:https://stars.tilderesearch.com/Stargazer基于Llama 3.1 8B設(shè)計(jì)。解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

向模型提問時(shí),它的回答會(huì)被拆分成多個(gè)token(文本塊)。解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

之后,點(diǎn)擊回答中的任意token,就能查看該token的stars(相關(guān)概念)和constellations(概念群組)。這些是模型思維的快照。解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

Stargazer還對(duì)stars按照稀有程度進(jìn)行了分類:Common(稀有程度0-35%)、Rare(稀有程度35-45%)、Ultra(稀有程度45-60%)、Legendary(稀有程度60-100%)。解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

以下是分別用中英文向Stargazer提問「什么是語言模型/What is a language model」時(shí),它給到的答案和分詞結(jié)果。

技術(shù)原理Tilde還發(fā)表了一篇內(nèi)容關(guān)于稀疏自編碼器中的速率-失真問題的博客,并表示不久將會(huì)發(fā)布開源的項(xiàng)目。解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

博客中詳細(xì)探討了稀疏自動(dòng)編碼器(SAE)、Top-k激活函數(shù)和信息瓶頸框架,它們都涉及如何更高效地組織和控制模型的內(nèi)部機(jī)制。這些理論都被積極融入到Tilde訓(xùn)練的解釋性模型中。解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

博客地址:https://www.tilderesearch.com/blog/rate-distortion-saes稀疏自動(dòng)編碼器稀疏自動(dòng)編碼器是一個(gè)令人興奮的研究領(lǐng)域,它不僅有助于我們理解深度學(xué)習(xí)中的特征表示,還為開發(fā)更高效且更可解釋的模型提供了方向。從可解釋性角度退一步來看,構(gòu)建一個(gè)有效的稀疏自動(dòng)編碼器(SAE)需要解決兩個(gè)基本問題:創(chuàng)建高效表示數(shù)據(jù)的稀疏編碼,以及從這些編碼中準(zhǔn)確重建原始數(shù)據(jù)。第一個(gè)任務(wù)由自動(dòng)編碼器的編碼器矩陣完成,將輸入數(shù)據(jù)(如圖像或文本)轉(zhuǎn)換為一種高效且稀疏的表示形式;第二個(gè)任務(wù)由解碼器矩陣完成,需從編碼后的稀疏表示中重建原始輸入,驗(yàn)證編碼器選擇的信息是否足夠全面。稀疏編碼可以看作模型如何「理解」輸入的快照。編碼器和解碼器兩者共同作用,既提升了模型的效率,又為分析其內(nèi)部工作機(jī)制提供了透明窗口,是實(shí)現(xiàn)可解釋性的重要基礎(chǔ)。從根本上說,構(gòu)建一個(gè)有效的稀疏自動(dòng)編碼器需要解決的兩個(gè)基本問題分別屬于稀疏編碼(sparse coding)理論和壓縮感知(compressed sensing)領(lǐng)域。解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

稀疏編碼理論還關(guān)注「負(fù)載均衡」。它強(qiáng)調(diào)稀疏編碼中激活應(yīng)在不同特征或神經(jīng)元之間均勻分布。某些研究,如Top-k和JumpReLU架構(gòu),發(fā)現(xiàn)了嚴(yán)重的特征頻率失衡問題:某些特征的高頻觸發(fā)會(huì)導(dǎo)致字典難以解釋。通過負(fù)載均衡正則化可以減輕這一問題,并改善字典的可解釋性。解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

Tilde目前正在積極研究基于這些理論的新型架構(gòu)。通過IB框架理解Top-k方法最后,博客從信息瓶頸(Information Bottleneck, IB)理論的角度審視Top-k方法。在訓(xùn)練稀疏自動(dòng)編碼器時(shí),激活函數(shù)的選擇對(duì)字典的稀疏性和學(xué)習(xí)動(dòng)態(tài)有著重要影響。傳統(tǒng)上,可以使用ReLU激活函數(shù)配合1正則化,將字典學(xué)習(xí)視為一個(gè)多約束問題:網(wǎng)絡(luò)需要同時(shí)平衡重建誤差和稀疏性懲罰。在這種方法中,稀疏性是自適應(yīng)的輸入越復(fù)雜,潛在激活越多,反之亦然。Top-k方法消除了這種復(fù)雜性,直接固定所有輸入的稀疏性水平。它不再需要在稀疏性損失和重建誤差之間權(quán)衡,而是只優(yōu)化重建誤差。Top-k激活函數(shù)在稀疏自動(dòng)編碼器中的高效性可以通過信息瓶頸框架來理解。該框架平衡了信息保留與壓縮:1. 希望最小化輸入X與表示Z的互信息I(Z;X),減少冗余;2. 同時(shí)最大化Z與目標(biāo)Y的互信息I(Z;Y),保留對(duì)重建有用的信息。

公式如下:解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

其中,β調(diào)節(jié)壓縮和相關(guān)信息保留之間的權(quán)衡。通過固定輸入中活動(dòng)神經(jīng)元的數(shù)量,Top-k方法直接對(duì)I(Z;X)施加上限,從而限制了信息流動(dòng),并自然優(yōu)先選擇最具信息量的特征進(jìn)行重建。與傳統(tǒng)方法平衡稀疏性懲罰和重建的方式不同,Top-k的硬約束簡(jiǎn)化了這一動(dòng)態(tài),僅在設(shè)定的稀疏性水平內(nèi)優(yōu)化重建精度。Top-k方法內(nèi)置了瓶頸效應(yīng):通過減少I(Z;X) ,可能提高泛化能力,因?yàn)樗拗屏诵畔⒘鲃?dòng)。這與泛化理論中的發(fā)現(xiàn)一致,該理論將模型復(fù)雜性與泛化誤差聯(lián)系起來:解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

其中n是訓(xùn)練樣本數(shù)量。實(shí)際上,Top-k方法強(qiáng)制實(shí)施了一種率失真約束,驅(qū)使網(wǎng)絡(luò)優(yōu)先考慮穩(wěn)定性和信號(hào)保留,而非噪聲。Tilde研究團(tuán)隊(duì)在實(shí)驗(yàn)中發(fā)現(xiàn),與自適應(yīng)稀疏方法相比,Top-k方法能夠產(chǎn)生更平滑的學(xué)習(xí)動(dòng)態(tài)和更強(qiáng)的抗噪性。他們?cè)贑IFAR10數(shù)據(jù)集上訓(xùn)練了Top-k自動(dòng)編碼器50個(gè)周期,并施加了不同的高斯噪聲條件。假設(shè),架構(gòu)所施加的信息瓶頸能夠提高在高噪聲環(huán)境下的魯棒性。解釋器模型首創(chuàng)!Tilde打破提示工程局限,讓AI推理更精準(zhǔn)

在高斯噪聲條件下的Top-k縮放定律中,信息瓶頸顯著提升了Top-k的魯棒性。實(shí)驗(yàn)發(fā)現(xiàn),Top-k在較高噪聲環(huán)境中,冪律擬合的系數(shù)有所增加,表明更大的k值能夠更好地從噪聲中恢復(fù)信號(hào)。此外,訓(xùn)練動(dòng)態(tài)高度穩(wěn)定,損失幾乎單調(diào)收斂。與之相對(duì)比,在高噪聲設(shè)置下測(cè)試的ReLU基準(zhǔn)模型卻出現(xiàn)了崩潰或發(fā)散現(xiàn)象,因此被排除在圖表之外。該理論為理解稀疏編碼如何在壓縮和重建之間權(quán)衡提供了框架。在未來的研究中,Tilde將進(jìn)一步探討這一方向,并期待為解碼器架構(gòu)提供新的優(yōu)化方法。參考資料:https://x.com/tilderesearch/status/1856404543808131334https://www.tilderesearch.com/blog/rate-distortion-saes

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2025 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港