當(dāng)前位置:首頁(yè) > 智能硬件 > 人工智能AI
[導(dǎo)讀] 線性代數(shù)是數(shù)學(xué)的分支學(xué)科,涉及矢量、矩陣和線性變換。 它是機(jī)器學(xué)習(xí)的重要基礎(chǔ),從描述算法操作的符號(hào)到代碼中算法的實(shí)現(xiàn),都屬于該學(xué)科的研究范圍。 雖然線性代數(shù)是機(jī)器學(xué)習(xí)領(lǐng)域不可或缺

線性代數(shù)是數(shù)學(xué)的分支學(xué)科,涉及矢量、矩陣和線性變換。

它是機(jī)器學(xué)習(xí)的重要基礎(chǔ),從描述算法操作的符號(hào)到代碼中算法的實(shí)現(xiàn),都屬于該學(xué)科的研究范圍。

雖然線性代數(shù)是機(jī)器學(xué)習(xí)領(lǐng)域不可或缺的一部分,但二者的緊密關(guān)系往往無(wú)法解釋,或只能用抽象概念(如向量空間或特定矩陣運(yùn)算)解釋。

閱讀這篇文章后,你將會(huì)了解到:

如何在處理數(shù)據(jù)時(shí)使用線性代數(shù)結(jié)構(gòu),如表格數(shù)據(jù)集和圖像。

數(shù)據(jù)準(zhǔn)備過(guò)程中用到的線性代數(shù)概念,例如 one-hot 編碼和降維。

深度學(xué)習(xí)、自然語(yǔ)言處理和推薦系統(tǒng)等子領(lǐng)域中線性代數(shù)符號(hào)和方法的深入使用。

讓我們開(kāi)始吧。

這 10 個(gè)機(jī)器學(xué)習(xí)案例分別是:

Dataset and Data Files 數(shù)據(jù)集和數(shù)據(jù)文件

Images and Photographs 圖像和照片

One-Hot Encoding one-hot 編碼

Linear Regression 線性回歸

RegularizaTIon 正則化

Principal Component Analysis 主成分分析

Singular-Value DecomposiTIon 奇異值分解

Latent SemanTIc Analysis 潛在語(yǔ)義分析

Recommender Systems 推薦系統(tǒng)

Deep Learning 深度學(xué)習(xí)

1. 數(shù)據(jù)集和數(shù)據(jù)文件

在機(jī)器學(xué)習(xí)中,你可以在數(shù)據(jù)集上擬合一個(gè)模型。

這是表格式的一組數(shù)字,其中每行代表一組觀察值,每列代表觀測(cè)的一個(gè)特征。

例如,下面這組數(shù)據(jù)是鳶尾花數(shù)據(jù)集的一部分

5.1,3.5,1.4,0.2,Iris-setosa

4.9,3.0,1.4,0.2,Iris-setosa

4.7,3.2,1.3,0.2,Iris-setosa

4.6,3.1,1.5,0.2,Iris-setosa

5.0,3.6,1.4,0.2,Iris-setosa

這些數(shù)據(jù)實(shí)際上是一個(gè)矩陣:線性代數(shù)中的一個(gè)關(guān)鍵數(shù)據(jù)結(jié)構(gòu)。

接下來(lái),將數(shù)據(jù)分解為輸入數(shù)據(jù)和輸出數(shù)據(jù),來(lái)擬合一個(gè)監(jiān)督機(jī)器學(xué)習(xí)模型(如測(cè)量值和花卉品種),得到矩陣(X)和矢量(y)。矢量是線性代數(shù)中的另一個(gè)關(guān)鍵數(shù)據(jù)結(jié)構(gòu)。

每行長(zhǎng)度相同,即每行的數(shù)據(jù)個(gè)數(shù)相同,因此我們可以說(shuō)數(shù)據(jù)是矢量化的。這些行數(shù)據(jù)可以一次性或成批地提供給模型,并且可以預(yù)先配置模型,以得到固定寬度的行數(shù)據(jù)。

2. 圖像和照片

也許你更習(xí)慣于在計(jì)算機(jī)視覺(jué)應(yīng)用中處理圖像或照片。

你使用的每個(gè)圖像本身都是一個(gè)固定寬度和高度的表格結(jié)構(gòu),每個(gè)單元格有用于表示黑白圖像的 1 個(gè)像素值或表示彩色圖像的 3 個(gè)像素值。

照片也是線性代數(shù)矩陣的一種。

與圖像相關(guān)的操作,如裁剪、縮放、剪切等,都是使用線性代數(shù)的符號(hào)和運(yùn)算來(lái)描述的。

3. one-hot 編碼

有時(shí)機(jī)器學(xué)習(xí)中要用到分類數(shù)據(jù)。

可能是用于解決分類問(wèn)題的類別標(biāo)簽,也可能是分類輸入變量。

對(duì)分類變量進(jìn)行編碼以使它們更易于使用并通過(guò)某些技術(shù)進(jìn)行學(xué)習(xí)是很常見(jiàn)的。one-hot 編碼是一種常見(jiàn)的分類變量編碼。

one-hot 編碼可以理解為:創(chuàng)建一個(gè)表格,用列表示每個(gè)類別,用行表示數(shù)據(jù)集中每個(gè)例子。在列中為給定行的分類值添加一個(gè)檢查或「1」值,并將「0」值添加到所有其他列。

例如,共計(jì) 3 行的顏色變量:

red

green

blue

。。.

這些變量可能被編碼為:

red, green, blue 1, 0, 0 0, 1, 0 0, 0, 1 。。.

每一行都被編碼為一個(gè)二進(jìn)制矢量,一個(gè)被賦予「0」或「1」值的矢量。這是一個(gè)稀疏表征的例子,線性代數(shù)的一個(gè)完整子域。

4. 線性回歸

線性回歸是一種用于描述變量之間關(guān)系的統(tǒng)計(jì)學(xué)傳統(tǒng)方法。

該方法通常在機(jī)器學(xué)習(xí)中用于預(yù)測(cè)較簡(jiǎn)單的回歸問(wèn)題的數(shù)值。

描述和解決線性回歸問(wèn)題有很多種方法,即找到一組系數(shù),用這些系數(shù)與每個(gè)輸入變量相乘并將結(jié)果相加,得出最佳的輸出變量預(yù)測(cè)。

如果您使用過(guò)機(jī)器學(xué)習(xí)工具或機(jī)器學(xué)習(xí)庫(kù),解決線性回歸問(wèn)題的最常用方法是通過(guò)最小二乘優(yōu)化,這一方法是使用線性回歸的矩陣分解方法解決的(例如 LU 分解或奇異值分解)。

即使是線性回歸方程的常用總結(jié)方法也使用線性代數(shù)符號(hào):

y = A 。 b

其中,y 是輸出變量,A 是數(shù)據(jù)集,b 是模型系數(shù)。

5. 正則化

在應(yīng)用機(jī)器學(xué)習(xí)時(shí),我們往往尋求最簡(jiǎn)單可行的模型來(lái)發(fā)揮解決問(wèn)題的最佳技能。

較簡(jiǎn)單的模型通常更擅長(zhǎng)從具體示例泛化到未見(jiàn)過(guò)的數(shù)據(jù)。

在涉及系數(shù)的許多方法中,例如回歸方法和人工神經(jīng)網(wǎng)絡(luò),較簡(jiǎn)單的模型通常具有較小的系數(shù)值。

一種常用于模型在數(shù)據(jù)擬合時(shí)盡量減小系數(shù)值的技術(shù)稱為正則化,常見(jiàn)的實(shí)現(xiàn)包括正則化的 L2 和 L1 形式。

這兩種正則化形式實(shí)際上是系數(shù)矢量的大小或長(zhǎng)度的度量,是直接脫胎于名為矢量范數(shù)的線性代數(shù)方法。

6. 主成分分析

通常,數(shù)據(jù)集有許多列,列數(shù)可能達(dá)到數(shù)十、數(shù)百、數(shù)千或更多。

對(duì)具有許多特征的數(shù)據(jù)進(jìn)行建模具有一定的挑戰(zhàn)性。而且,從包含不相關(guān)特征的數(shù)據(jù)構(gòu)建的模型通常不如用最相關(guān)的數(shù)據(jù)訓(xùn)練的模型。

我們很難知道數(shù)據(jù)的哪些特征是相關(guān)的,而哪些特征又不相關(guān)。

自動(dòng)減少數(shù)據(jù)集列數(shù)的方法稱為降維,其中也許最流行的方法是主成分分析法(簡(jiǎn)稱 PCA)。

該方法在機(jī)器學(xué)習(xí)中,為可視化和模型創(chuàng)建高維數(shù)據(jù)的投影。

PCA 方法的核心是線性代數(shù)的矩陣分解方法,可能會(huì)用到特征分解,更廣義的實(shí)現(xiàn)可以使用奇異值分解(SVD)。

7. 奇異值分解

另一種流行的降維方法是奇異值分解方法,簡(jiǎn)稱 SVD。

如上所述,正如該方法名稱所示,它是源自線性代數(shù)領(lǐng)域的矩陣分解方法。

該方法在線性代數(shù)中有廣泛的用途,可直接應(yīng)用于特征選擇、可視化、降噪等方面。

在機(jī)器學(xué)習(xí)中我們會(huì)看到以下兩個(gè)使用 SVD 的情況。

8. 潛在語(yǔ)義分析

在用于處理文本數(shù)據(jù)的機(jī)器學(xué)習(xí)子領(lǐng)域(稱為自然語(yǔ)言處理),通常將文檔表示為詞出現(xiàn)的大矩陣。

例如,矩陣的列可以是詞匯表中的已知詞,行可以是文本的句子、段落、頁(yè)面或文檔,矩陣中的單元格標(biāo)記為單詞出現(xiàn)的次數(shù)或頻率。

這是文本的稀疏矩陣表示。矩陣分解方法(如奇異值分解)可以應(yīng)用于此稀疏矩陣,該分解方法可以提煉出矩陣表示中相關(guān)性最強(qiáng)的部分。以這種方式處理的文檔比較容易用來(lái)比較、查詢,并作為監(jiān)督機(jī)器學(xué)習(xí)模型的基礎(chǔ)。

這種形式的數(shù)據(jù)準(zhǔn)備稱為潛在語(yǔ)義分析(簡(jiǎn)稱 LSA),也稱為潛在語(yǔ)義索引(LSI)。

9. 推薦系統(tǒng)

涉及產(chǎn)品推薦的預(yù)測(cè)建模問(wèn)題被稱為推薦系統(tǒng),這是機(jī)器學(xué)習(xí)的一個(gè)子領(lǐng)域。

例如,基于你在亞馬遜上的購(gòu)買記錄和與你類似的客戶的購(gòu)買記錄向你推薦書(shū)籍,或根據(jù)你或與你相似的用戶在 Netflix 上的觀看歷史向你推薦電影或電視節(jié)目。

推薦系統(tǒng)的開(kāi)發(fā)主要涉及線性代數(shù)方法。一個(gè)簡(jiǎn)單的例子就是使用歐式距離或點(diǎn)積之類的距離度量來(lái)計(jì)算稀疏顧客行為向量之間的相似度。

像奇異值分解這樣的矩陣分解方法在推薦系統(tǒng)中被廣泛使用,以提取項(xiàng)目和用戶數(shù)據(jù)的有用部分,以備查詢、檢索及比較。

10. 深度學(xué)習(xí)

人工神經(jīng)網(wǎng)絡(luò)是一種非線性機(jī)器學(xué)習(xí)算法,它受大腦中信息處理元素的啟發(fā),其有效性已經(jīng)在一系列問(wèn)題中得到驗(yàn)證,其中最重要的是預(yù)測(cè)建模。

深度學(xué)習(xí)是近期出現(xiàn)的、使用最新方法和更快硬件的人工神經(jīng)網(wǎng)絡(luò)的復(fù)興,這一方法使得在非常大的數(shù)據(jù)集上開(kāi)發(fā)和訓(xùn)練更大更深的(更多層)網(wǎng)絡(luò)成為可能。深度學(xué)習(xí)方法通常會(huì)在機(jī)器翻譯、照片字幕、語(yǔ)音識(shí)別等一系列具有挑戰(zhàn)性的領(lǐng)域取得最新成果。

神經(jīng)網(wǎng)絡(luò)的執(zhí)行涉及線性代數(shù)數(shù)據(jù)結(jié)構(gòu)的相乘和相加。如果擴(kuò)展到多個(gè)維度,深度學(xué)習(xí)方法可以處理向量、矩陣,甚至輸入和系數(shù)的張量,此處的張量是一個(gè)兩維以上的矩陣。

線性代數(shù)是描述深度學(xué)習(xí)方法的核心,它通過(guò)矩陣表示法來(lái)實(shí)現(xiàn)深度學(xué)習(xí)方法,例如 Google 的 TensorFlow Python 庫(kù),其名稱中包含「tensor」一詞。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

倫敦2024年8月29日 /美通社/ -- 英國(guó)汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開(kāi)發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來(lái)越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來(lái)越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對(duì)日本游戲市場(chǎng)的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開(kāi)幕式在貴陽(yáng)舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語(yǔ)權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對(duì)環(huán)境變化,經(jīng)營(yíng)業(yè)績(jī)穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤(rùn)率延續(xù)升勢(shì) 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長(zhǎng) 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競(jìng)爭(zhēng)力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競(jìng)爭(zhēng)優(yōu)勢(shì)...

關(guān)鍵字: 通信 BSP 電信運(yùn)營(yíng)商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國(guó)電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場(chǎng) NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長(zhǎng)三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡(jiǎn)稱"軟通動(dòng)力")與長(zhǎng)三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉