樓主肯定對機器學習了解不多才會提這種問題。這問題專業程度看起來和「機器學習工程師」這詞彙一樣。
機器學習,基礎的PCA模型理論,貝葉斯,boost,Adaboost,
模式識別中的各種特徵,諸如Hog,Haar,SIFT等
深度學習里的DBN,CNN,BP,RBM等等。
非專業出身,只是略懂一點。
沒有常用的,只是針對需求有具體的設計,或者需要自己全新設計一個合適的演算法,現在最熱門的算是CNN(convolutional neural networks)卷積神經網路了。
優點:不需要訓練獲取特徵,在學習過程中自動提取圖像中的特徵,免去了常規方法中,大量訓練樣本的時間。在樣本足夠大的情況下,能夠得到非常精確的識別結果。一般都能95%+的正確率。
缺點:硬體要求高,CUDA的並行框架算是用的很火的了。但是一般的台式機跑一個Demo花費的時間長資源佔用高。不過這也是這塊演算法的通病。
Ⅱ 機器學習中常用的方法有什麼
機器學習中常用的方法有LR,SVM,集成學習,貝葉斯
Ⅲ 經典的機器學習方法
機器學習:一種實現人工智慧的方法
機器學習最基本的做法,是使用演算法來解析數據、從中學習,然後對真實世界中的事件做出決策和預測。與傳統的為解決特定任務、硬編碼的軟體程序不同,機器學習是用大量的數據來「訓練」,通過各種演算法從數據中學習如何完成任務。
舉個簡單的例子,當我們瀏覽網上商城時,經常會出現商品推薦的信息。這是商城根據你往期的購物記錄和冗長的收藏清單,識別出這其中哪些是你真正感興趣,並且願意購買的產品。這樣的決策模型,可以幫助商城為客戶提供建議並鼓勵產品消費。
傳統的機器學習演算法包括決策樹、聚類、貝葉斯分類、支持向量機、EM、Adaboost等等。這篇文章將對常用演算法做常識性的介紹,沒有代碼,也沒有復雜的理論推導,就是圖解一下,知道這些演算法是什麼,它們是怎麼應用的。
決策樹
根據一些 feature 進行分類,每個節點提一個問題,通過判斷,將數據分為兩類,再繼續提問。這些問題是根據已有數據學習出來的,再投入新數據的時候,就可以根據這棵樹上的問題,將數據劃分到合適的葉子上。
Ⅳ 如何理解機器學習
每天都在看這些故事和文章。和大家聊聊。機器學習機器學習,網路機器學習也在努力。
機器學習(MachineLearning),在我看來就是讓機器學習人思維的過程。機器學習的宗旨就是讓機器學會「人識別事物的方法」,我們希望人從事物中了解到的東西和機器從事物中了解到的東西一樣,這就是機器學習的過程。在機器學習中有一個很經典的問題:
「假設有一張色彩豐富的油畫,畫中畫了一片茂密的森林,在森林遠處的一棵歪脖樹上,有一隻猴子坐在樹上吃東西。如果我們讓一個人找出猴子的位置,正常情況下不到一秒鍾就可以指出猴子,甚至有的人第一眼就能看到那隻猴子。」
·························
從根本上說,識別,是一個分類的結果。看到四條腿的生物,我們可能會立即把該生物歸為動物一類,因為我們常常見到的四條腿的、活的東西,九成以上是動物。這里,就牽扯出了概率的問題。我們對身邊的事物往往識別率很高,是因為人的潛意識幾乎記錄了肉眼看到的事物的所有特徵。比如,我們進入一個新的集體,剛開始大家都不認識,有的時候人和名字都對不上號,主要原因就是我們對事物的特徵把握不夠,還不能通過現有特徵對身邊的人進行分類。這個時候,我們常常會有這種意識:哎,你好像叫張三來著?哦,不對,你好像是李四。這就是分類中的概率問題,有可能是A結果,有可能是B結果,甚至是更多結果,主要原因就是我們的大腦收集的特徵不夠多,還無法進行准確分類。當大家都彼此熟悉了之後,一眼就能識別出誰是誰來,甚至極端情況下,只聽聲音不見人都能進行識別,這說明我們已經對該事物的特徵把握相當精確。
所以,我認為,人識別事物有四個基本步驟:學習、提取特徵、識別、分類。
那麼機器可不可以模仿這個過程來實現識別呢?答案是肯定的,但是沒有那麼容易。難題有三:第一,人的大腦有無數神經元進行數據交換和處理,在目前的機器中還達不到同等的處理條件;第二,人對事物特徵的提取是潛意識的,提取無意識情況下的信息,誤差很大;第三,也是最重要的一點,人的經驗來自於人每時每刻的生活中,也就是人無時無刻都處在學習中,如何讓機器進行各個方面的自主學習?因此,目前在人工智慧領域始終還沒達到類人的水平,我認為主要原因就是機器沒有潛意識。人的潛意識其實並不完全受人的意識支配,但卻可以提高人類識別事物的概率。我們無法給機器載入潛意識,因為主動載入的意識就是主觀意識,在機器里無法完成人類潛意識的功能。所以,以目前的發展情況來看,要達到完全類人,還有不短的時間。但即便如此,與人的思維差別很大的機器依然可以為我們的生活帶來幫助。比如,我們常用的在線翻譯、搜索系統、專家系統等,都是機器學習的產物。
那麼,如何實現機器學習呢?
整體上看,機器學習就是模仿人識別事物的過程,即:學習、提取特徵、識別、分類。由於機器不能跟人類思維一樣根據事物特徵自然而然的選擇分類方法,所以機器學習方法的選擇依然還需要人工選擇。目前,機器學習的方法主要有三種:監督學習、半監督學習和無監督學習。監督學習是利用一組已知類別的樣本調整分類器的參數,使其達到所要求性能的過程。白話一點,就是根據已知的,推斷未知的。代表方法有:Nave Bayes、SVM、決策樹、KNN、神經網路以及Logistic分析等;半監督方法主要考慮如何利用少量的標注樣本和大量的未標注樣本進行訓練和分類的問題,也就是根據少量已知的和大量未知的內容進行分類。代表方法有:最大期望、生成模型和圖演算法等。無監督學習是利用一組已知類別的樣本調整分類器的參數,使其達到所要求性能的過程。也就是及其自個兒學。代表方法有:Apriori、FP樹、K-means以及目前比較火的Deep Learning。從這三方面看,無監督學習是最智能的,有能實現機器主動意識的潛質,但發展還比較緩慢;監督學習是不太靠譜的,從已知的推斷未知的,就必須要把事物所有可能性全都學到,這在現實中是不可能的,人也做不到;半監督學習是「沒辦法中的辦法」,既然無監督學習很難,監督學習不靠譜,就取個折中,各取所長。目前的發展是,監督學習技術已然成熟,無監督學習還在起步,所以對監督學習方法進行修改實現半監督學習是目前的主流。但這些方法基本只能提取信息,還不能進行有效的預測(人們就想,既然沒法得到更多,就先看看手裡有什麼,於是數據挖掘出現了)。
網路機器學習也在努力。希望2017可以更牛~~~~~~~
Ⅳ 機器學習有幾種演算法
1. 線性回歸
工作原理:該演算法可以按其權重可視化。但問題是,當你無法真正衡量它時,必須通過觀察其高度和寬度來做一些猜測。通過這種可視化的分析,可以獲取一個結果。
2. 邏輯回歸
根據一組獨立變數,估計離散值。它通過將數據匹配到logit函數來幫助預測事件。
3. 決策樹
利用監督學習演算法對問題進行分類。決策樹是一種支持工具,它使用樹狀圖來決定決策或可能的後果、機會事件結果、資源成本和實用程序。根據獨立變數,將其劃分為兩個或多個同構集。
4. 支持向量機(SVM)
基本原理(以二維數據為例):如果訓練數據是分布在二維平面上的點,它們按照其分類聚集在不同的區域。基於分類邊界的分類演算法的目標是,通過訓練,找到這些分類之間的邊界(直線的――稱為線性劃分,曲線的――稱為非線性劃分)。對於多維數據(如N維),可以將它們視為N維空間中的點,而分類邊界就是N維空間中的面,稱為超面(超面比N維空間少一維)。線性分類器使用超平面類型的邊界,非線性分類器使用超曲面。
5. 樸素貝葉斯
樸素貝葉斯認為每個特徵都是獨立於另一個特徵的。即使在計算結果的概率時,它也會考慮每一個單獨的關系。
它不僅易於使用,而且能有效地使用大量的數據集,甚至超過了高度復雜的分類系統。
6. KNN(K -最近鄰)
該演算法適用於分類和回歸問題。在數據科學行業中,它更常用來解決分類問題。
這個簡單的演算法能夠存儲所有可用的案例,並通過對其k近鄰的多數投票來對任何新事件進行分類。然後將事件分配給與之匹配最多的類。一個距離函數執行這個測量過程。
7. k – 均值
這種無監督演算法用於解決聚類問題。數據集以這樣一種方式列在一個特定數量的集群中:所有數據點都是同質的,並且與其他集群中的數據是異構的。
8. 隨機森林
利用多棵決策樹對樣本進行訓練並預測的一種分類器被稱為隨機森林。為了根據其特性來分類一個新對象,每棵決策樹都被排序和分類,然後決策樹投票給一個特定的類,那些擁有最多選票的被森林所選擇。
9. 降維演算法
在存儲和分析大量數據時,識別多個模式和變數是具有挑戰性的。維數簡化演算法,如決策樹、因子分析、缺失值比、隨機森林等,有助於尋找相關數據。
10. 梯度提高和演演算法
這些演算法是在處理大量數據,以作出准確和快速的預測時使用的boosting演算法。boosting是一種組合學習演算法,它結合了幾種基本估計量的預測能力,以提高效力和功率。
綜上所述,它將所有弱或平均預測因子組合成一個強預測器。
Ⅵ 機器學習有哪些演算法
樸素貝葉斯分類器演算法是最受歡迎的學習方法之一,按照相似性分類,用流行的貝葉斯概率定理來建立機器學習模型,特別是用於疾病預測和文檔分類。 它是基於貝葉斯概率定理的單詞的內容的主觀分析的簡單分類。
什麼時候使用機器學習演算法 - 樸素貝葉斯分類器?
(1)如果您有一個中等或大的訓練數據集。
(2)如果實例具有幾個屬性。
(3)給定分類參數,描述實例的屬性應該是條件獨立的。
A.樸素貝葉斯分類器的應用
(1)這些機器學習演算法有助於在不確定性下作出決策,並幫助您改善溝通,因為他們提供了決策情況的可視化表示。
(2)決策樹機器學習演算法幫助數據科學家捕獲這樣的想法:如果採取了不同的決策,那麼情境或模型的操作性質將如何劇烈變化。
(3)決策樹演算法通過允許數據科學家遍歷前向和後向計算路徑來幫助做出最佳決策。
C.何時使用決策樹機器學習演算法
(1)決策樹對錯誤是魯棒的,並且如果訓練數據包含錯誤,則決策樹演算法將最適合於解決這樣的問題。
(2)決策樹最適合於實例由屬性值對表示的問題。
(3)如果訓練數據具有缺失值,則可以使用決策樹,因為它們可以通過查看其他列中的數據來很好地處理丟失的值。
(4)當目標函數具有離散輸出值時,決策樹是最適合的。
D.決策樹的優點
(1)決策樹是非常本能的,可以向任何人輕松解釋。來自非技術背景的人,也可以解釋從決策樹繪制的假設,因為他們是不言自明的。
(2)當使用決策樹機器學習演算法時,數據類型不是約束,因為它們可以處理分類和數值變數。
(3)決策樹機器學習演算法不需要對數據中的線性進行任何假設,因此可以在參數非線性相關的情況下使用。這些機器學習演算法不對分類器結構和空間分布做出任何假設。
(4)這些演算法在數據探索中是有用的。決策樹隱式執行特徵選擇,這在預測分析中非常重要。當決策樹適合於訓練數據集時,在其上分割決策樹的頂部的節點被認為是給定數據集內的重要變數,並且默認情況下完成特徵選擇。
(5)決策樹有助於節省數據准備時間,因為它們對缺失值和異常值不敏感。缺少值不會阻止您拆分構建決策樹的數據。離群值也不會影響決策樹,因為基於分裂范圍內的一些樣本而不是准確的絕對值發生數據分裂。
E.決策樹的缺點
(1)樹中決策的數量越多,任何預期結果的准確性越小。
(2)決策樹機器學習演算法的主要缺點是結果可能基於預期。當實時做出決策時,收益和產生的結果可能與預期或計劃不同。有機會,這可能導致不現實的決策樹導致錯誤的決策。任何不合理的期望可能導致決策樹分析中的重大錯誤和缺陷,因為並不總是可能計劃從決策可能產生的所有可能性。
(3)決策樹不適合連續變數,並導致不穩定性和分類高原。
(4)與其他決策模型相比,決策樹很容易使用,但是創建包含幾個分支的大決策樹是一個復雜和耗時的任務。
(5)決策樹機器學習演算法一次只考慮一個屬性,並且可能不是最適合於決策空間中的實際數據。
(6)具有多個分支的大尺寸決策樹是不可理解的,並且造成若干呈現困難。
F.決策樹機器學習演算法的應用
(1)決策樹是流行的機器學習演算法之一,它在財務中對期權定價有很大的用處。
(2)遙感是基於決策樹的模式識別的應用領域。
(3)銀行使用決策樹演算法按貸款申請人違約付款的概率對其進行分類。
(4)Gerber產品公司,一個流行的嬰兒產品公司,使用決策樹機器學習演算法來決定他們是否應繼續使用塑料PVC(聚氯乙烯)在他們的產品。
(5)Rush大學醫學中心開發了一個名為Guardian的工具,它使用決策樹機器學習演算法來識別有風險的患者和疾病趨勢。
Python語言中的數據科學庫實現決策樹機器學習演算法是 - SciPy和Sci-Kit學習。
R語言中的數據科學庫實現決策樹機器學習演算法是插入符號。
3.7 隨機森林機器學習演算法
讓我們繼續我們在決策樹中使用的同樣的例子,來解釋隨機森林機器學習演算法如何工作。提利昂是您的餐廳偏好的決策樹。然而,提利昂作為一個人並不總是准確地推廣你的餐廳偏好。要獲得更准確的餐廳推薦,你問一對夫婦的朋友,並決定訪問餐廳R,如果大多數人說你會喜歡它。而不是只是問Tyrion,你想問問Jon Snow,Sandor,Bronn和Bran誰投票決定你是否喜歡餐廳R或不。這意味著您已經構建了決策樹的合奏分類器 - 也稱為森林。
你不想讓所有的朋友給你相同的答案 - 所以你提供每個朋友略有不同的數據。你也不確定你的餐廳偏好,是在一個困境。你告訴提利昂你喜歡開頂屋頂餐廳,但也許,只是因為它是在夏天,當你訪問的餐廳,你可能已經喜歡它。在寒冷的冬天,你可能不是餐廳的粉絲。因此,所有的朋友不應該利用你喜歡打開的屋頂餐廳的數據點,以提出他們的建議您的餐廳偏好。
通過為您的朋友提供略微不同的餐廳偏好數據,您可以讓您的朋友在不同時間向您詢問不同的問題。在這種情況下,只是稍微改變你的餐廳偏好,你是注入隨機性在模型級別(不同於決策樹情況下的數據級別的隨機性)。您的朋友群現在形成了您的餐廳偏好的隨機森林。
隨機森林是一種機器學習演算法,它使用裝袋方法來創建一堆隨機數據子集的決策樹。模型在數據集的隨機樣本上進行多次訓練,以從隨機森林演算法中獲得良好的預測性能。在該整體學習方法中,將隨機森林中所有決策樹的輸出結合起來進行最終預測。隨機森林演算法的最終預測通過輪詢每個決策樹的結果或者僅僅通過使用在決策樹中出現最多次的預測來導出。
例如,在上面的例子 - 如果5個朋友決定你會喜歡餐廳R,但只有2個朋友決定你不會喜歡的餐廳,然後最後的預測是,你會喜歡餐廳R多數總是勝利。
A.為什麼使用隨機森林機器學習演算法?
(1)有很多好的開源,在Python和R中可用的演算法的自由實現。
(2)它在缺少數據時保持准確性,並且還能抵抗異常值。
(3)簡單的使用作為基本的隨機森林演算法可以實現只用幾行代碼。
(4)隨機森林機器學習演算法幫助數據科學家節省數據准備時間,因為它們不需要任何輸入准備,並且能夠處理數字,二進制和分類特徵,而無需縮放,變換或修改。
(5)隱式特徵選擇,因為它給出了什麼變數在分類中是重要的估計。
B.使用隨機森林機器學習演算法的優點
(1)與決策樹機器學習演算法不同,過擬合對隨機森林不是一個問題。沒有必要修剪隨機森林。
(2)這些演算法很快,但不是在所有情況下。隨機森林演算法當在具有100個變數的數據集的800MHz機器上運行時,並且50,000個案例在11分鍾內產生100個決策樹。
(3)隨機森林是用於各種分類和回歸任務的最有效和通用的機器學習演算法之一,因為它們對雜訊更加魯棒。
(4)很難建立一個壞的隨機森林。在隨機森林機器學習演算法的實現中,容易確定使用哪些參數,因為它們對用於運行演算法的參數不敏感。一個人可以輕松地建立一個體面的模型沒有太多的調整
(5)隨機森林機器學習演算法可以並行生長。
(6)此演算法在大型資料庫上高效運行。
(7)具有較高的分類精度。
C.使用隨機森林機器學習演算法的缺點
他們可能很容易使用,但從理論上分析它們是很困難的。
隨機森林中大量的決策樹可以減慢演算法進行實時預測。
如果數據由具有不同級別數量的分類變數組成,則演算法會偏好具有更多級別的那些屬性。 在這種情況下,可變重要性分數似乎不可靠。
當使用RandomForest演算法進行回歸任務時,它不會超出訓練數據中響應值的范圍。
D.隨機森林機器學習演算法的應用
(1)隨機森林演算法被銀行用來預測貸款申請人是否可能是高風險。
(2)它們用於汽車工業中以預測機械部件的故障或故障。
(3)這些演算法用於醫療保健行業以預測患者是否可能發展成慢性疾病。
(4)它們還可用於回歸任務,如預測社交媒體份額和績效分數的平均數。
(5)最近,該演算法也已經被用於預測語音識別軟體中的模式並對圖像和文本進行分類。
Python語言中的數據科學庫實現隨機森林機器學習演算法是Sci-Kit學習。
R語言的數據科學庫實現隨機森林機器學習演算法randomForest。
Ⅶ 機器學習按綜合分類法進行分類的方法
機器學習按綜合分類法進行分類的方法:樸素貝葉斯 , 邏輯回歸 , 決策樹 , 支持向量機。
不過他們的共同點是:都是data-driven的模型,都是學習一種更加abstract的方式來表達特定的數據,假設和模型都對特定數據廣泛適用。好處是,這種學習出來的表達方式可以幫助我們更好的理解和分析數據,挖掘數據隱藏的結構和關系。
機器學習輔助數據對象:
輔助數據對象也是系統服務對象,主要任務是反映和記錄系統中所使用的基礎數據和常用不變的數據,根據實際需要可以增加必要的數據對象,下面列出幾個常用的輔助數據對象。
(1)設施設備。設備對象是指與監理業務相關並且可用的設施設備實體,其屬性有:設備編號、設備名稱、功能說明、規格型號、庫存數量、購置日期、設備單價、計量單位、備注說明等。
(2)往來單位。往來單位對象是指與建設工程、監理業務相關的實體,其屬性有:單位編號、單位名稱、單位地址、單位類型、聯系人員、負責人、聯系電話、備注說明等。
Ⅷ 什麼是機器學習
機器學習(Machine Learning, ML)是一門多領域交叉學科,涉及概率論、統計學、逼近論、凸分析、演算法復雜度理論等多門學科。專門研究計算機怎樣模擬或實現人類的學習行為,以獲取新的知識或技能,重新組織已有的知識結構使之不斷改善自身的性能。
它是人工智慧的核心,是使計算機具有智能的根本途徑,其應用遍及人工智慧的各個領域,它主要使用歸納、綜合而不是演繹。
Ⅸ 機器學習的類型有哪些
基於學習策略的分類
學習策略是指學習過程中系統所採用的推理策略。一個學習系統總是由學習和環境兩部分組成。由環境(如書本或教師)提供信息,學習部分則實現信息轉換,用能夠理解的形式記憶下來,並從中獲取有用的信息。在學習過程中,學生(學習部分)使用的推理越少,他對教師(環境)的依賴就越大,教師的負擔也就越重。學習策略的分類標准就是根據學生實現信息轉換所需的推理多少和難易程度來分類的,依從簡單到復雜,從少到多的次序分為以下六種基本類型:
1)機械學習 (Rote learning)
學習者無需任何推理或其它的知識轉換,直接吸取環境所提供的信息。如塞繆爾的跳棋程序,紐厄爾和西蒙的LT系統。這類學習系統主要考慮的是如何索引存貯的知識並加以利用。系統的學習方法是直接通過事先編好、構造好的程序來學習,學習者不作任何工作,或者是通過直接接收既定的事實和數據進行學習,對輸入信息不作任何的推理。
2)示教學習 (Learning from instruction或Learning by being told)
學生從環境(教師或其它信息源如教科書等)獲取信息,把知識轉換成內部可使用的表示形式,並將新的知識和原有知識有機地結合為一體。所以要求學生有一定程度的推理能力,但環境仍要做大量的工作。教師以某種形式提出和組織知識,以使學生擁有的知識可以不斷地增加。這種學習方法和人類社會的學校教學方式相似,學習的任務就是建立一個系統,使它能接受教導和建議,並有效地存貯和應用學到的知識。不少專家系統在建立知識庫時使用這種方法去實現知識獲取。示教學習的一個典型應用例是FOO程序。
3)演繹學習 (Learning by dection)
學生所用的推理形式為演繹推理。推理從公理出發,經過邏輯變換推導出結論。這種推理是"保真"變換和特化(specialization)的過程,使學生在推理過程中可以獲取有用的知識。這種學習方法包含宏操作(macro-operation)學習、知識編輯和組塊(Chunking)技術。演繹推理的逆過程是歸納推理。
4)類比學習 (Learning by analogy)
利用二個不同領域(源域、目標域)中的知識相似性,可以通過類比,從源域的知識(包括相似的特徵和其它性質)推導出目標域的相應知識,從而實現學習。類比學習系統可以使一個已有的計算機應用系統轉變為適應於新的領域,來完成原先沒有設計的相類似的功能。
類比學習需要比上述三種學習方式更多的推理。它一般要求先從知識源(源域)中檢索出可用的知識,再將其轉換成新的形式,用到新的狀況(目標域)中去。類比學習在人類科學技術發展史上起著重要作用,許多科學發現就是通過類比得到的。例如著名的盧瑟福類比就是通過將原子結構(目標域)同太陽系(源域)作類比,揭示了原子結構的奧秘。
5)基於解釋的學習 (Explanation-based learning, EBL)
學生根據教師提供的目標概念、該概念的一個例子、領域理論及可操作準則,首先構造一個解釋來說明為什該例子滿足目標概念,然後將解釋推廣為目標概念的一個滿足可操作準則的充分條件。EBL已被廣泛應用於知識庫求精和改善系統的性能。
著名的EBL系統有迪喬恩(G.DeJong)的GENESIS,米切爾(T.Mitchell)的LEXII和LEAP, 以及明頓(S.Minton)等的PRODIGY。
6)歸納學習 (Learning from inction)
歸納學習是由教師或環境提供某概念的一些實例或反例,讓學生通過歸納推理得出該概念的一般描述。這種學習的推理工作量遠多於示教學習和演繹學習,因為環境並不提供一般性概念描述(如公理)。從某種程度上說,歸納學習的推理量也比類比學習大,因為沒有一個類似的概念可以作為"源概念"加以取用。歸納學習是最基本的,發展也較為成熟的學習方法,在人工智慧領域中已經得到廣泛的研究和應用。
基於所獲取知識的表示形式分類
學習系統獲取的知識可能有:行為規則、物理對象的描述、問題求解策略、各種分類及其它用於任務實現的知識類型。
對於學習中獲取的知識,主要有以下一些表示形式:
1)代數表達式參數
學習的目標是調節一個固定函數形式的代數表達式參數或系數來達到一個理想的性能。
2)決策樹
用決策樹來劃分物體的類屬,樹中每一內部節點對應一個物體屬性,而每一邊對應於這些屬性的可選值,樹的葉節點則對應於物體的每個基本分類。
3)形式文法
在識別一個特定語言的學習中,通過對該語言的一系列表達式進行歸納,形成該語言的形式文法。
4)產生式規則
產生式規則表示為條件—動作對,已被極為廣泛地使用。學習系統中的學習行為主要是:生成、泛化、特化(Specialization)或合成產生式規則。
5)形式邏輯表達式
形式邏輯表達式的基本成分是命題、謂詞、變數、約束變數范圍的語句,及嵌入的邏輯表達式。
6)圖和網路
有的系統採用圖匹配和圖轉換方案來有效地比較和索引知識。
7)框架和模式(schema)
每個框架包含一組槽,用於描述事物(概念和個體)的各個方面。
8)計算機程序和其它的過程編碼
獲取這種形式的知識,目的在於取得一種能實現特定過程的能力,而不是為了推斷該過程的內部結構。
9)神經網路
這主要用在聯接學習中。學習所獲取的知識,最後歸納為一個神經網路。
10)多種表示形式的組合
有時一個學習系統中獲取的知識需要綜合應用上述幾種知識表示形式。
根據表示的精細程度,可將知識表示形式分為兩大類:泛化程度高的粗粒度符號表示、??泛化程度低的精粒度亞符號(sub-symbolic)表示。像決策樹、形式文法、產生式規則、形式邏輯表達式、框架和模式等屬於符號表示類;而代數表達式參數、圖和網路、神經網路等則屬亞符號表示類。
按應用領域分類
最主要的應用領域有:專家系統、認知模擬、規劃和問題求解、數據挖掘、網路信息服務、圖象識別、故障診斷、自然語言理解、機器人和博弈等領域。
從機器學習的執行部分所反映的任務類型上看,大部分的應用研究領域基本上集中於以下兩個范疇:分類和問題求解。
(1)分類任務要求系統依據已知的分類知識對輸入的未知模式(該模式的描述)作分析,以確定輸入模式的類屬。相應的學習目標就是學慣用於分類的准則(如分類規則)。
(2)問題求解任務要求對於給定的目標狀態,??尋找一個將當前狀態轉換為目標狀態的動作序列;機器學習在這一領域的研究工作大部分集中於通過學習來獲取能提高問題求解效率的知識(如搜索控制知識,啟發式知識等)。
綜合分類
綜合考慮各種學習方法出現的歷史淵源、知識表示、推理策略、結果評估的相似性、研究人員交流的相對集中性以及應用領域等諸因素。將機器學習方法[1] 區分為以下六類:
1)經驗性歸納學習 (empirical inctive learning)
經驗性歸納學習採用一些數據密集的經驗方法(如版本空間法、ID3法,定律發現方法)對例子進行歸納學習。其例子和學習結果一般都採用屬性、謂詞、關系等符號表示。它相當於基於學習策略分類中的歸納學習,但扣除聯接學習、遺傳演算法、加強學習的部分。
2)分析學習(analytic learning)
分析學習方法是從一個或少數幾個實例出發,運用領域知識進行分析。其主要特徵為:
·推理策略主要是演繹,而非歸納;
·使用過去的問題求解經驗(實例)指導新的問題求解,或產生能更有效地運用領域知識的搜索控制規則。
分析學習的目標是改善系統的性能,而不是新的概念描述。分析學習包括應用解釋學習、演繹學習、多級結構組塊以及宏操作學習等技術。
3)類比學習
它相當於基於學習策略分類中的類比學習。在這一類型的學習中比較引人注目的研究是通過與過去經歷的具體事例作類比來學習,稱為基於範例的學習(case_based learning),或簡稱範例學習。
4)遺傳演算法(genetic algorithm)
遺傳演算法模擬生物繁殖的突變、交換和達爾文的自然選擇(在每一生態環境中適者生存)。它把問題可能的解編碼為一個向量,稱為個體,向量的每一個元素稱為基因,並利用目標函數(相應於自然選擇標准)對群體(個體的集合)中的每一個個體進行評價,根據評價值(適應度)對個體進行選擇、交換、變異等遺傳操作,從而得到新的群體。遺傳演算法適用於非常復雜和困難的環境,比如,帶有大量雜訊和無關數據、事物不斷更新、問題目標不能明顯和精確地定義,以及通過很長的執行過程才能確定當前行為的價值等。同神經網路一樣,遺傳演算法的研究已經發展為人工智慧的一個獨立分支,其代表人物為霍勒德(J.H.Holland)。
5)聯接學習
典型的聯接模型實現為人工神經網路,其由稱為神經元的一些簡單計算單元以及單元間的加權聯接組成。
6)增強學習(reinforcement learning)
增強學習的特點是通過與環境的試探性(trial and error)交互來確定和優化動作的選擇,以實現所謂的序列決策任務。在這種任務中,學習機制通過選擇並執行動作,導致系統狀態的變化,並有可能得到某種強化信號(立即回報),從而實現與環境的交互。強化信號就是對系統行為的一種標量化的獎懲。系統學習的目標是尋找一個合適的動作選擇策略,即在任一給定的狀態下選擇哪種動作的方法,使產生的動作序列可獲得某種最優的結果(如累計立即回報最大)。
在綜合分類中,經驗歸納學習、遺傳演算法、聯接學習和增強學習均屬於歸納學習,其中經驗歸納學習採用符號表示方式,而遺傳演算法、聯接學習和加強學習則採用亞符號表示方式;分析學習屬於演繹學習。
實際上,類比策略可看成是歸納和演繹策略的綜合。因而最基本的學習策略只有歸納和演繹。
從學習內容的角度看,採用歸納策略的學習由於是對輸入進行歸納,所學習的知識顯然超過原有系統知識庫所能蘊涵的范圍,所學結果改變了系統的知識演繹閉包, 因而這種類型的學習又可稱為知識級學習;而採用演繹策略的學習盡管所學的知識能提高系統的效率,但仍能被原有系統的知識庫所蘊涵,即所學的知識未能改變系統的演繹閉包,因而這種類型的學習又被稱為符號級學習。
學習形式分類
1)監督學習(supervised learning)
監督學習,即在機械學習過程中提供對錯指示。一般實在是數據組中包含最終結果(0,1)。通過演算法讓機器自我減少誤差。這一類學習主要應用於分類和預測 (regression & classify)。監督學習從給定的訓練數據集中學習出一個函數,當新的數據到來時,可以根據這個函數預測結果。監督學習的訓練集要求是包括輸入和輸出,也可以說是特徵和目標。訓練集中的目標是由人標注的。常見的監督學習演算法包括回歸分析和統計分類。
2)非監督學習(unsupervised learning)
非監督學習又稱歸納性學習(clustering)利用K方式(Kmeans),建立中心(centriole),通過循環和遞減運算(iteration&descent)來減小誤差,達到分類的目的。
Ⅹ 強化學習與其他機器學習方法有什麼不同
我們都知道,人工智慧是一個十分重要的技術,現在很多的大型科技公司都開始重視人工智慧的發展。人工智慧的發展不是空穴開風,是因為機器學習使得人工智慧有了飛躍的發展。其實機器學習的方法有很多,在這篇文章中我們就重點說一下機器學習中的強化學習。強化學習是機器學習中一個十分重要的方法,那強化學習與其他機器學習方法究竟有什麼不同呢?下面我們就給大家解答一下這個問題。
首先我們給大家介紹一下什麼是強化學習,其實強化學習又稱再勵學習、評價學習,是一種重要的機器學習方法,在智能控制機器人及分析預測等領域有許多應用。在傳統的機器學習分類中沒有提到過強化學習,而在連接主義學習中,把學習演算法分為三種類型,即非監督學習、監督學習和強化學習。
那麼強化學習與別的演算法有什麼區別呢?首先我們給大家說一下監督學習和強化學習的區別,在監督學習中,在外部有一個「監督主管」,它擁有所有環境的知識,並且與智能體一起共享這個知識,從而幫助智能體完成任務。但是這樣存在一些問題,因為在一個任務中,其中存在如此多的子任務之間的組合,智能體應該執行並且實現目標。所以,創建一個「監督主管」幾乎是不切實際的。在這些問題中,從自己的經驗中學習,並且獲得知識是更加合理可行的。這就是強化學習和監督學習的主要區別。在監督學習和強化學習中,在輸入和輸出之間都存在映射。但是在強化學習中,存在的是對智能體的獎勵反饋函數,而不是像監督學習直接告訴智能體最終的答案。
然後我們給大家說一下無監督學習與強化學習的區別,在強化學習中,有一個從輸入到輸出的映射過程,但是這個過程在無監督學習中是不存在的。在無監督學習中,主要任務是找到一個最基礎的模式,而不是一種映射關系。無監督學習就是根據自己獲得的數據去構建一個「知識圖譜」,從而去找出相似內容的數據。具體應用就是新聞頭條的適配。
其實還有第四種類型的機器學習,成為半監督學習,其本質上是監督學習和無監督學習的組合。它不同於強化學習,類似於監督學習和半監督學習具有直接的參照答案,而強化學習不具有。
關於強化學習與其他機器學習演算法的不同我們就給大家介紹到這里了,相信大家對強化學習的知識有了更深的了解了吧?希望這篇文章能夠更好的幫助大家理解強化學習。