當(dāng)前位置:首頁 > 物聯(lián)網(wǎng) > 智能應(yīng)用
[導(dǎo)讀]自然語言生成是從會話代理到內(nèi)容生成的應(yīng)用的核心。盡管取得了一些進展,但之前的系統(tǒng)往往是"黑匣子",使開發(fā)者和用戶對其決策過程不確定??山忉尩腁I(XAI)通過使nlg模型更具可解釋性和可控制性來彌補這一缺口。

自然語言生成是從會話代理到內(nèi)容生成的應(yīng)用的核心。盡管取得了一些進展,但之前的系統(tǒng)往往是"黑匣子",使開發(fā)者和用戶對其決策過程不確定??山忉尩腁I(XAI)通過使nlg模型更具可解釋性和可控制性來彌補這一缺口。

本文探討了提高透明度的實用技術(shù)和工具。?Nlg系統(tǒng) 提供詳細的代碼片段和逐步的解釋,指導(dǎo)開發(fā)人員理解和改進模型行為。主題包括注意力可視化、可控生成、特征屬性和將解釋整合到工作流中。本文通過對現(xiàn)實世界中的例子進行分析,為構(gòu)建更多可解釋性強的非線性網(wǎng)絡(luò)系統(tǒng)提供了教育指導(dǎo)。

介紹

自然語言生成使機器能夠產(chǎn)生連貫和適合上下文的文本,支持像聊天機器人、文檔摘要和創(chuàng)造性的寫作工具等應(yīng)用。盡管像GTPT、BERT和T5這樣強大的模型已經(jīng)改變了NLU,但它們的不透明性給調(diào)試、問責(zé)和用戶信任帶來了挑戰(zhàn)。

可解釋的人工智能 (XAI)提供工具和技術(shù)來揭示這些模型是如何作出決策的,使其對開發(fā)者和最終用戶來說是可訪問和可靠的。無論您是在培訓(xùn)一個nlg模型,還是在對一個預(yù)先培訓(xùn)的系統(tǒng)進行微調(diào),Xai方法都可以通過提供對某些輸出的產(chǎn)生方式和產(chǎn)生原因的深入了解來提高您的工作流。

可解釋的NLU技術(shù)

1.了解關(guān)注機制

變形器構(gòu)成了大多數(shù)現(xiàn)代nlg模型的支柱,在生成文本時,它依靠注意機制來關(guān)注輸入的相關(guān)部分。理解這些注意權(quán)重有助于解釋為什么模型強調(diào)某些令牌而不是其他令牌。

示例:GPC-2中的可視化注意力

from transformers import GPT2Tokenizer, GPT2LMHeadModel

from bertviz import head_view

# Load GPT-2 model and tokenizer

model = GPT2LMHeadModel.from_pretrained("gpt2", output_attentions=True)

tokenizer = GPT2Tokenizer.from_pretrained("gpt2")

# Input text

text = "The role of explainability in AI is crucial for ethical decision-making."

# Tokenize input

inputs = tokenizer(text, return_tensors="pt")

# Generate attentions

outputs = model(**inputs)

attentions = outputs.attentions # List of attention weights from all layers

# Visualize attention

head_view(attentions, tokenizer, text)

解釋

…bertviz 庫提供了一個圖形化接口,用于了解注意力是如何在輸入令牌之間分布的。例如,如果模型生成一個摘要,您可以分析它認為最重要的單詞。

2.可控制的文本生成

可控制性允許用戶通過指定諸如音調(diào)、風(fēng)格或結(jié)構(gòu)等參數(shù)來引導(dǎo)模型的輸出。像CTRL這樣的模型和經(jīng)過微調(diào)的GTPT版本都支持這個功能。

示例:引導(dǎo)帶提示的文本生成

from transformers import AutoModelForCausalLM, AutoTokenizer

# Load GPT-Neo model

model_name = "EleutherAI/gpt-neo-2.7B"

model = AutoModelForCausalLM.from_pretrained(model_name)

tokenizer = AutoTokenizer.from_pretrained(model_name)

# Define a prompt for controlling output style

prompt = (

"Write an inspiring conclusion to an academic paper: \n"

"In conclusion, the field of Explainable AI has the potential to..."

)

# Tokenize and generate text

inputs = tokenizer(prompt, return_tensors="pt")

outputs = model.generate(inputs["input_ids"], max_length=100)

# Decode and display output

print(tokenizer.decode(outputs[0], skip_special_tokens=True))

解釋

通過有效地構(gòu)造提示,開發(fā)人員可以控制模型如何生成文本。在本例中,模型調(diào)整其輸出以適應(yīng)一個學(xué)術(shù)音調(diào)。

3.帶沙普的特征歸屬

(?沙普利加法解釋 )提供關(guān)于輸入的哪些部分對生成的輸出貢獻最大的見解,幫助開發(fā)人員調(diào)試偏見或無關(guān)的問題。

示例:用于解釋生成的文本的信息管理系統(tǒng)

import shap

from transformers import pipeline

# Load a text generation pipeline

generator = pipeline("text-generation", model="gpt2")

# Define SHAP explainer

explainer = shap.Explainer(generator)

# Input text

prompt = "Explainable AI improves trust in automated systems by"

# Generate explanations

shap_values = explainer([prompt])

# Visualize explanations

shap.text_plot(shap_values)

解釋

Shap突出了影響生成文本的單詞或短語,為分析模型焦點提供了一種方法。例如,您可能發(fā)現(xiàn)某些關(guān)鍵字不成比例地驅(qū)動特定音調(diào)或風(fēng)格。

4.文本歸屬的綜合梯度

綜合梯度量化每個輸入特征的貢獻(例如:)通過集成從基線到輸入的梯度。

示例:分類任務(wù)的綜合梯度

from captum.attr import IntegratedGradients

from transformers import AutoTokenizer, AutoModelForSequenceClassification

import torch

# Load model and tokenizer

model_name = "textattack/bert-base-uncased-imdb"

model = AutoModelForSequenceClassification.from_pretrained(model_name)

tokenizer = AutoTokenizer.from_pretrained(model_name)

# Input text

text = "Explainable AI has transformed how developers interact with machine learning models."

inputs = tokenizer(text, return_tensors="pt", truncation=True, padding=True)

# Compute Integrated Gradients

ig = IntegratedGradients(model)

attributions = ig.attribute(inputs['input_ids'], target=1)

# Visualize attributions

print("Integrated Gradients Attributions:", attributions)

解釋

集成梯度在分類任務(wù)中特別有用,在這些任務(wù)中,您希望了解哪些單詞會影響決策。這也可以擴展到標(biāo)記屬性的文本生成任務(wù)。

5.明智的注意力分析

有時候,了解變壓器的各個層可以為模型的行為提供更深刻的見解。

例子:逐層提取注意力權(quán)重

import torch

from transformers import BertTokenizer, BertModel

# Load BERT model and tokenizer

tokenizer = BertTokenizer.from_pretrained("bert-base-uncased")

model = BertModel.from_pretrained("bert-base-uncased", output_attentions=True)

# Input sentence

text = "Natural Language Generation depends heavily on transformer architectures."

inputs = tokenizer(text, return_tensors="pt")

# Forward pass with attention

outputs = model(**inputs)

attention_weights = outputs.attentions # Attention weights for each layer

# Analyze specific layer

layer_3_attention = attention_weights[3].detach().numpy()

print("Attention weights from layer 3:", layer_3_attention)

解釋

分層分析使開發(fā)人員能夠跟蹤關(guān)注是如何在網(wǎng)絡(luò)中傳播的。這對于調(diào)試或微調(diào)訓(xùn)練前的模型特別有用。

在工作流中整合可說明的非線性邏輯

調(diào)試模型輸出

像Shap和注意力可視化這樣的解釋工具可以幫助識別一些問題,比如不相關(guān)的焦點或者對輸入中的噪聲的敏感性。

改進數(shù)據(jù)集質(zhì)量

歸因方法可以揭示對特定短語的偏向或過度依賴,指導(dǎo)數(shù)據(jù)集的擴充或管理。

建立用戶信任

通過展示模型是如何得出它們的輸出的,開發(fā)人員可以在終端用戶之間建立信任,特別是在高風(fēng)險的應(yīng)用程序,如法律或醫(yī)學(xué)文本生成中。

道德考慮

減緩偏斜

可解釋性方法可以揭示生成內(nèi)容中的偏見,促使開發(fā)人員通過改進培訓(xùn)數(shù)據(jù)集或公平性約束來解決這些問題。

防止誤傳

透明度確保用戶了解國家聯(lián)絡(luò)組系統(tǒng)的局限性,減少錯誤解釋或濫用的風(fēng)險。

結(jié)論

可以解釋的NLU彌合了強大的人工智能系統(tǒng)和用戶信任之間的差距,使開發(fā)人員能夠調(diào)試、優(yōu)化和完善他們的模型具有更大的信心。通過將注意力可視化、可控制生成和特征歸屬等技術(shù)結(jié)合起來,我們可以創(chuàng)建不僅有效而且可解釋和符合道德標(biāo)準(zhǔn)的非線性網(wǎng)絡(luò)系統(tǒng)。隨著這個領(lǐng)域的不斷發(fā)展,解釋性的整合將仍然是構(gòu)建可靠的、以人為中心的人工智能的核心。

本站聲明: 本文章由作者或相關(guān)機構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫毥谦F公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉