當(dāng)前位置:首頁(yè) > 物聯(lián)網(wǎng) > 智能應(yīng)用
[導(dǎo)讀]在人工智能 (AI) 的動(dòng)態(tài)格局中,兩項(xiàng)突破性技術(shù)—— 大型語(yǔ)言模型 (LLM)和檢索增強(qiáng)生成 (RAG) ——因其在理解和生成類人文本方面的變革潛力而脫穎而出。本文對(duì) LLM 和 RAG 進(jìn)行了比較,闡明了它們的機(jī)制、應(yīng)用以及它們?yōu)槿斯ぶ悄茴I(lǐng)域提供的獨(dú)特優(yōu)勢(shì)。

人工智能 (AI) 的動(dòng)態(tài)格局中,兩項(xiàng)突破性技術(shù)—— 大型語(yǔ)言模型 (LLM)和檢索增強(qiáng)生成 (RAG) ——因其在理解和生成類人文本方面的變革潛力而脫穎而出。本文對(duì) LLM 和 RAG 進(jìn)行了比較,闡明了它們的機(jī)制、應(yīng)用以及它們?yōu)槿斯ぶ悄茴I(lǐng)域提供的獨(dú)特優(yōu)勢(shì)。

大型語(yǔ)言模型(LLM):基礎(chǔ)和應(yīng)用

法學(xué)碩士,例如 GPT(生成式預(yù)訓(xùn)練變壓器),能夠在廣泛的主題中生成連貫且上下文相關(guān)的文本,從而徹底改變了人工智能場(chǎng)景。從本質(zhì)上講,法學(xué)碩士依賴于大量的文本數(shù)據(jù)和復(fù)雜的神經(jīng)網(wǎng)絡(luò)架構(gòu),從他們接受過(guò)訓(xùn)練的文本內(nèi)容中學(xué)習(xí)語(yǔ)言模式、語(yǔ)法和知識(shí)。

法學(xué)碩士的優(yōu)勢(shì)在于其泛化能力:他們無(wú)需特定任務(wù)的培訓(xùn)即可執(zhí)行各種與語(yǔ)言相關(guān)的任務(wù)。這包括翻譯語(yǔ)言、回答問(wèn)題,甚至撰寫文章。然而,法學(xué)碩士并非沒(méi)有挑戰(zhàn)。它們有時(shí)會(huì)產(chǎn)生聽起來(lái)合理但不正確或無(wú)意義的答案,這種現(xiàn)象被稱為“幻覺”。此外,他們的輸出質(zhì)量在很大程度上取決于訓(xùn)練數(shù)據(jù)的質(zhì)量和廣度。

核心方面

· 規(guī)模:法學(xué)碩士的標(biāo)志是其龐大的參數(shù)數(shù)量,達(dá)到數(shù)十億,涵蓋了廣泛的語(yǔ)言范圍。

· 培訓(xùn)制度:他們對(duì)不同的文本數(shù)據(jù)進(jìn)行預(yù)培訓(xùn),隨后針對(duì)定制任務(wù)進(jìn)行微調(diào),加深對(duì)語(yǔ)言細(xì)微差別的理解。

· 實(shí)用范圍:法學(xué)碩士在各個(gè)領(lǐng)域都有用途,從幫助內(nèi)容創(chuàng)作到促進(jìn)語(yǔ)言翻譯。

示例:使用 LLM 生成文本

為了進(jìn)行說(shuō)明,請(qǐng)考慮以下使用 LLM 生成文本示例的Python代碼片段:

Python

1

從 變壓器 導(dǎo)入 GPT2Tokenizer,GPT2LMHeadModel

2


3

# 輸入

4

提示= “澳大利亞保留骨灰多久了?”

5

6

# 使用 GPT2 Tokenizer 對(duì)輸入進(jìn)行編碼

7

分詞器= GPT2Tokenizer。from_pretrained ( 'gpt2' )

8

輸入=分詞器。編碼( prompt , return_tensors = 'pt' ) ## 使用 pyTorch ('tf' 使用 TensorFlow)

9


10

# 使用 gpt2 模型生成輸出

11

模型= GPT2LMHeadModel。from_pretrained ( 'gpt2' )

12

outputs = model.generate(inputs, max_length=25)

13


14

# Decode and print the result

15

result = tokenizer.decode(outputs[0], skip_special_tokens=True)

16

print("Generated text:", result)

此代碼使用流行的 LLM GPT-2 初始化文本生成管道,并根據(jù)給定的提示生成文本。

檢索增強(qiáng)生成 (RAG):概述和用例

RAG 通過(guò)將 GPT 等模型的生成能力與檢索機(jī)制相結(jié)合,引入了一種新穎的方法。該機(jī)制實(shí)時(shí)搜索文本數(shù)據(jù)庫(kù)(例如維基百科)以查找可用于通知模型響應(yīng)的相關(guān)信息。這種檢索和生成的結(jié)合使得 RAG 能夠生成不僅與上下文相關(guān)而且基于事實(shí)信息的答案。

與傳統(tǒng)法學(xué)碩士相比,RAG 的主要優(yōu)勢(shì)之一是它能夠通過(guò)引用最新來(lái)源提供更準(zhǔn)確和具體的信息。這使得 RAG 對(duì)于信息準(zhǔn)確性和及時(shí)性至關(guān)重要的應(yīng)用特別有用,例如新聞報(bào)道或?qū)W術(shù)研究協(xié)助。

然而,對(duì)外部數(shù)據(jù)庫(kù)的依賴意味著如果數(shù)據(jù)庫(kù)不全面或檢索過(guò)程效率低下,RAG 的性能可能會(huì)受到影響。此外,將檢索機(jī)制集成到生成過(guò)程中會(huì)增加模型的復(fù)雜性,從而可能增加所需的計(jì)算資源。

核心方面

· 混合性質(zhì):RAG 模型首先檢索相關(guān)文檔,然后利用此上下文進(jìn)行知情生成。

· 動(dòng)態(tài)知識(shí)訪問(wèn):與法學(xué)碩士不同,RAG 模型可以利用最新或特定領(lǐng)域的數(shù)據(jù),從而提供增強(qiáng)的多功能性。

· 應(yīng)用領(lǐng)域:RAG在需要外部知識(shí)的場(chǎng)景中表現(xiàn)出色,例如深度問(wèn)答和事實(shí)內(nèi)容生成。

示例:實(shí)施 RAG 進(jìn)行信息檢索

下面是如何實(shí)現(xiàn)用于檢索和生成文本的基本 RAG 系統(tǒng)的簡(jiǎn)化示例:

Python

1

from transformers import RagTokenizer, RagRetriever, RagSequenceForGeneration

2

3

# A sample query to ask the model

4

query = "How long have Australia held on to the Ashes?"

5


6

tokenizer = RagTokenizer.from_pretrained("facebook/rag-sequence-nq") ## Get the tokenizer from the pretrained model

7

tokenized_text = tokenizer(query, return_tensors='pt', max_length=100, truncation=True) ## Encode/Tokenize the query

8


9

# Find results with RAG-Sequence model (uncased model) using wiki_dpr dataset

10

retriever = RagRetriever.from_pretrained("facebook/rag-sequence-nq", index_name="exact", use_dummy_dataset=True) ## Uses a pretrained DPR dataset (wiki_dpr) https://huggingface.co/datasets/wiki_dpr

11

model = RagSequenceForGeneration.from_pretrained("facebook/rag-sequence-nq", retriever=retriever)

12

model_ generated_tokens =模型. generate ( input_ids = tokenized_text [ "input_ids" ], max_new_tokens = 1000 ) ## 從數(shù)據(jù)集中查找相關(guān)信息(tokens)

13


14

print ( tokenizer .batch_decode ( model_ generated_tokens , skip_special_tokens = True ) [ 0 ]) ## 解碼數(shù)據(jù)以找到答案

該代碼利用 Facebook 的 RAG 模型來(lái)回答查詢,首先對(duì)輸入進(jìn)行標(biāo)記,然后根據(jù)實(shí)時(shí)檢索的信息生成響應(yīng)。

比較見解:LLM 與 RAG

LLM 和 RAG 之間的選擇取決于具體的任務(wù)要求。以下是它們的疊加方式:

知識(shí)可及性

法學(xué)碩士依賴于他們的預(yù)訓(xùn)練語(yǔ)料庫(kù),這可能會(huì)導(dǎo)致信息過(guò)時(shí)。RAG 具有檢索功能,可確保訪問(wèn)最新數(shù)據(jù)。

實(shí)施復(fù)雜性

RAG 模型由于其雙步驟性質(zhì),比 LLM 具有更高的復(fù)雜性并且需要更多的資源。

靈活性和應(yīng)用

兩種模型類型都提供了廣泛的應(yīng)用潛力。LLM 為各種NLP任務(wù)奠定了堅(jiān)實(shí)的基礎(chǔ),而 RAG 模型在即時(shí)訪問(wèn)外部詳細(xì)數(shù)據(jù)至關(guān)重要的情況下表現(xiàn)出色。

結(jié)論:了解 LLM 和 RAG 前景

LLM 和 RAG 都代表了人工智能在理解和生成類人文本的能力方面的重大進(jìn)步。在 LLM 和 RAG 模型之間進(jìn)行選擇需要權(quán)衡 NLP 項(xiàng)目的獨(dú)特需求。法學(xué)碩士具有多功能性和通用性,使其適用于廣泛的應(yīng)用程序,并且是各種語(yǔ)言任務(wù)的首選。相比之下,RAG 的優(yōu)勢(shì)在于它能夠提供準(zhǔn)確、信息豐富的響應(yīng),這在知識(shí)密集型任務(wù)中特別有價(jià)值,并且非常適合需要合并最新或特定詳細(xì)信息的情況。

隨著人工智能的不斷發(fā)展,LLM 和 RAG 的比較分析強(qiáng)調(diào)了為正確的任務(wù)選擇正確的工具的重要性。鼓勵(lì)開發(fā)人員和研究人員根據(jù)其特定需求權(quán)衡這些技術(shù)的優(yōu)點(diǎn)和局限性,旨在充分利用人工智能在創(chuàng)建智能、響應(yīng)式和上下文感知應(yīng)用程序方面的全部潛力。


本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

倫敦2024年8月29日 /美通社/ -- 英國(guó)汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來(lái)越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來(lái)越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對(duì)日本游戲市場(chǎng)的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開幕式在貴陽(yáng)舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語(yǔ)權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對(duì)環(huán)境變化,經(jīng)營(yíng)業(yè)績(jī)穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤(rùn)率延續(xù)升勢(shì) 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長(zhǎng) 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競(jìng)爭(zhēng)力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競(jìng)爭(zhēng)優(yōu)勢(shì)...

關(guān)鍵字: 通信 BSP 電信運(yùn)營(yíng)商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國(guó)電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場(chǎng) NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長(zhǎng)三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡(jiǎn)稱"軟通動(dòng)力")與長(zhǎng)三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉