機器學(xué)習(xí):開啟智能創(chuàng)新之門
2.無監(jiān)督學(xué)習(xí)(Unsupervised Learning)
給學(xué)習(xí)算法提供的數(shù)據(jù)是未標(biāo)記的,并且要求算法識別輸入數(shù)據(jù)中的模式,主要是建立一個模型,用其試著對輸入的數(shù)據(jù)進行解釋,并用于下次輸入,F(xiàn)實情況下往往很多數(shù)據(jù)集都有大量的未標(biāo)記樣本,有標(biāo)記的樣本反而比較少。如果直接棄用,很大程度上會導(dǎo)致模型精度低。這種情況解決的思路往往是結(jié)合有標(biāo)記的樣本,通過估計的方法把未標(biāo)記樣本變?yōu)閭蔚挠袠?biāo)記樣本,所以無監(jiān)督學(xué)習(xí)比監(jiān)督學(xué)習(xí)更難掌握。主要用于解決聚類和降維問題,常見的算法有:
(1)聚類算法:把一組對象分組化的任務(wù),使得在同一組的對象比起其它組的對象,它們彼此更加相似。常用的聚類算法包括:
①K-means算法:這是典型的基于原型的目標(biāo)函數(shù)聚類方法的代表,它是數(shù)據(jù)點到原型的某種距離作為優(yōu)化的目標(biāo)函數(shù),利用函數(shù)求極值的方法得到迭代運算的調(diào)整規(guī)則。其優(yōu)點是算法足夠快速、簡單,并且如果預(yù)處理數(shù)據(jù)和特征工程十分有效,那么該聚類算法將擁有極高的靈活性。缺點是該算法需要指定集群的數(shù)量,而K值的選擇通常都不是那么容易確定的。另外,如果訓(xùn)練數(shù)據(jù)中的真實集群并不是類球狀的,那么K均值聚類會得出一些比較差的集群。
圖15 K-means算法
②Expectation Maximisation (EM):這是一種迭代算法,用于含有隱變量(latent variable)的概率參數(shù)模型的最大似然估計或極大后驗概率估計。EM算法的主要目的是提供一個簡單的迭代算法計算后驗密度函數(shù),它的最大優(yōu)點是簡單和穩(wěn)定,但容易陷入局部最優(yōu)。
圖16 EM算法
③Affinity Propagation 聚類:AP 聚類算法是一種相對較新的聚類算法,該聚類算法基于兩個樣本點之間的圖形距離(graph distances)確定集群。采用該聚類方法的集群擁有更小和不相等的大小。優(yōu)點:該算法不需要指出明確的集群數(shù)量。缺點:AP 聚類算法主要的缺點就是訓(xùn)練速度比較慢,并需要大量內(nèi)存,因此也就很難擴展到大數(shù)據(jù)集中。另外,該算法同樣假定潛在的集群是類球狀的。
④層次聚類(Hierarchical Clustering):層次聚類是一系列基于以下概念的聚類算法:是通過對數(shù)據(jù)集按照某種方法進行層次分解,直到滿足某種條件為止。按照分類原理的不同,可以分為凝聚和分裂兩種方法。優(yōu)點:層次聚類最主要的優(yōu)點是集群不再需要假設(shè)為類球形。另外其也可以擴展到大數(shù)據(jù)集。缺點:有點像 K 均值聚類,該算法需要設(shè)定集群的數(shù)量。
圖17 層次聚類算法
⑤DBSCAN:這是一個比較有代表性的基于密度的聚類算法。與劃分和層次聚類方法不同,它將簇定義為密度相連的點的最大集合,能夠把具有足夠高密度的區(qū)域劃分為簇,并可在噪聲的空間數(shù)據(jù)庫中發(fā)現(xiàn)任意形狀的聚類。它將樣本點的密集區(qū)域組成一個集群。優(yōu)點:DBSCAN 不需要假設(shè)集群為球狀,并且它的性能是可擴展的。此外,它不需要每個點都被分配到一個集群中,這降低了集群的異常數(shù)據(jù)。缺點:用戶必須要調(diào)整「epsilon」和「min_sample」這兩個定義了集群密度的超參數(shù)。DBSCAN 對這些超參數(shù)非常敏感。
圖18 DBSCAN算法
(2)降維算法:其主要特征是將數(shù)據(jù)從高維降低到低維層次,最大程度的保留了數(shù)據(jù)的信息。代表算法是:
①主要代表是主成分分析算法(PCA算法):主成分分析也稱主分量分析,旨在利用降維的思想,把多指標(biāo)轉(zhuǎn)化為少數(shù)幾個綜合指標(biāo)(即主成分),其中每個主成分都能夠反映原始變量的大部分信息,且所含信息互不重復(fù)。這種方法在引進多方面變量的同時將復(fù)雜因素歸結(jié)為幾個主成分,使問題簡單化,同時得到的結(jié)果更加科學(xué)有效的數(shù)據(jù)信息。
圖19 PCA算法
②局部線性嵌入(Locally linear embeddingLLE)LLE降維算法:一種非線性降維算法,它能夠使降維后的數(shù)據(jù)較好地保持原有 流形結(jié)構(gòu) 。該算法是針對非線性信號特征矢量維數(shù)的優(yōu)化方法,這種維數(shù)優(yōu)化并不是僅僅在數(shù)量上簡單的約簡,而是在保持原始數(shù)據(jù)性質(zhì)不變的情況下,將高維空間的信號映射到低維空間上,即特征值的二次提取。
圖20 LLE降維算法
3.強化學(xué)習(xí)(Reinforcement Learning)
該算法與動態(tài)環(huán)境相互作用,把環(huán)境的反饋作為輸入,通過學(xué)習(xí)選擇能達到其目標(biāo)的最優(yōu)動作。強化學(xué)習(xí)這一方法背后的數(shù)學(xué)原理與監(jiān)督/非監(jiān)督學(xué)習(xí)略有差異。監(jiān)督/非監(jiān)督學(xué)習(xí)更多地應(yīng)用了統(tǒng)計學(xué),而強化學(xué)習(xí)更多地結(jié)合了離散數(shù)學(xué)、隨機過程這些數(shù)學(xué)方法。常見的算法有:
①TD(λ)算法:TD(temporal differenee)學(xué)習(xí)是強化學(xué)習(xí)技術(shù)中最主要的學(xué)習(xí)技術(shù)之一.TD學(xué)習(xí)是蒙特卡羅思想和動態(tài)規(guī)劃思想的結(jié)合,即一方面TD算法在不需要系統(tǒng)模型情況下可以直接從agent經(jīng)驗中學(xué)習(xí);另一方面TD算法和動態(tài)規(guī)劃一樣,利用估計的值函數(shù)進行迭代。
圖21 TD(λ)算法
②Q_learning算法:Q_learning學(xué)習(xí)是一種模型無關(guān)的強化學(xué)習(xí)算法 ,又稱為離策略TD學(xué)習(xí)(off-policy TD).不同于TD算法,Q_learning迭代時采用狀態(tài)_動作對的獎賞和Q (s,a)作為估計函數(shù),在Agent每一次學(xué)習(xí)迭代時都需要考察每一個行為,可確保學(xué)習(xí)過程收斂。
圖22 Q_learning算法

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
8月5日立即報名>> 【在線會議】CAE優(yōu)化設(shè)計:醫(yī)療器械設(shè)計的應(yīng)用案例與方案解析
-
8月14日立即報名>> 【在線研討會】解析安森美(onsemi)高精度與超低功耗CGM系統(tǒng)解決方案
-
精彩回顧立即查看>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍(lán)皮書》
-
精彩回顧立即查看>> 7月30日- 8月1日 2025全數(shù)會工業(yè)芯片與傳感儀表展
-
精彩回顧立即查看>> 全數(shù)會2025(第六屆)機器人及智能工廠展
-
精彩回顧立即查看>> OFweek 2025 具身機器人動力電池技術(shù)應(yīng)用大會
推薦專題
- 1 AI產(chǎn)業(yè)的新高度!英偉達成為全球首家市值破4萬億美元的公司
- 2 傳魏建軍與賈躍亭合作,長城汽車出海美國
- 3 一文讀懂:到底什么是 “具身智能” ?
- 4 黃仁勛:與雷軍長期合作,共探AI智駕
- 5 具身智能泡沫爭議下,華映資本尋找「穿越周期者」
- 6 中國平安們欲靠AI守“陣地”
- 7 官宣:智元機器人借殼上市,A股人形機器人第一股!
- 8 華為讓渡“三界”銷售主導(dǎo)權(quán),智界高管:終于能全力奔跑了
- 9 借仿生手實現(xiàn)突圍,國產(chǎn)靈巧手破局“不可能三角”
- 10 DeepSeek R2加持,中國AI與芯片產(chǎn)業(yè)迎來新一輪協(xié)同進化