毫無疑問,近些年機器學習和人工智能領(lǐng)域受到了越來越多的關(guān)注。隨著大數(shù)據(jù)成為當下工業(yè)界最火爆的技術(shù)趨勢,機器學習也借助大數(shù)據(jù)在預測和推薦方面取得了驚人的成績。比較有名的機器學習案例包括Netflix根據(jù)用戶歷史瀏覽行為給用戶推薦電影,亞馬遜基于用戶的歷史購買行為來推薦圖書。
那么,如果你想要學習機器學習的算法,該如何入門呢?就我而言,我的入門課程是在哥本哈根留學時選修的人工智能課程。老師是丹麥科技大學應用數(shù)學和計算機專業(yè)的全職教授,他的研究方向是邏輯學和人工智能,主要是用邏輯學的方法來建模。課程包括了理論/核心概念的探討和動手實踐兩個部分。我們使用的教材是人工智能的經(jīng)典書籍之一:Peter Norvig教授的《人工智能——一種現(xiàn)代方法》,課程涉及到了智能代理、基于搜索的求解、對抗搜索、概率論、多代理系統(tǒng)、社交化人工智能,以及人工智能的倫理和未來等話題。在課程的后期,我們?nèi)齻人還組隊做了編程項目,實現(xiàn)了基于搜索的簡單算法來解決虛擬環(huán)境下的交通運輸任務。
我從課程中學到了非常多的知識,并且打算在這個專題里繼續(xù)深入學習。在過去幾周內(nèi),我參與了舊金山地區(qū)的多場深度學習、神經(jīng)網(wǎng)絡和數(shù)據(jù)架構(gòu)的演講 —— 還有一場眾多知名教授云集的機器學習會議。最重要的是,我在六月初注冊了Udacity的《機器學習導論》在線課程,并且在幾天前學完了課程內(nèi)容。在本文中,我想分享幾個我從課程中學到的常用機器學習算法。
機器學習算法通常可以被分為三大類 —— 監(jiān)督式學習,非監(jiān)督式學習和強化學習。監(jiān)督式學習主要用于一部分數(shù)據(jù)集(訓練數(shù)據(jù))有某些可以獲取的熟悉(標簽),但剩余的樣本缺失并且需要預測的場景。非監(jiān)督式學習主要用于從未標注數(shù)據(jù)集中挖掘相互之間的隱含關(guān)系。強化學習介于兩者之間 —— 每一步預測或者行為都或多或少有一些反饋信息,但是卻沒有準確的標簽或者錯誤提示。由于這是入門級的課程,并沒有提及強化學習,但我希望監(jiān)督式學習和非監(jiān)督式學習的十個算法足夠吊起你的胃口了。
監(jiān)督式學習
1.決策樹:
決策樹是一種決策支持工具,它使用樹狀圖或者樹狀模型來表示決策過程以及后續(xù)得到的結(jié)果,包括概率事件結(jié)果等。請觀察下圖來理解決策樹的結(jié)構(gòu)。
從商業(yè)決策的角度來看,決策樹就是通過盡可能少的是非判斷問題來預測決策正確的概率。這種方法可以幫你用一種結(jié)構(gòu)性的、系統(tǒng)性的方法來得出合理的結(jié)論。
2.樸素貝葉斯分類器:
樸素貝葉斯分類器是一類基于貝葉斯理論的簡單的概率分類器,它假設特征之前是相互獨立的。下圖所示的就是公式 —— P(A|B)表示后驗概率,P(B|A)是似然值,P(A)是類別的先驗概率,P(B)代表預測器的先驗概率。
現(xiàn)實場景中的一些例子包括:
檢測垃圾電子郵件
將新聞分為科技、政治、體育等類別
判斷一段文字表達積極的情緒還是消極的情緒
用于人臉檢測軟件
3.最小平方回歸:
如果你學過統(tǒng)計課程,也許聽說過線性回歸的概念。最小平方回歸是求線性回歸的一種方法。你可以把線性回歸想成是用一條直線擬合若干個點。擬合的方法有許多種,“最小平方”的策略相當于你畫一條直線,然后計算每個點到直線的垂直距離,最后把各個距離求和;最佳擬合的直線就是距離和最小的那一條。
線性指的是用于擬合數(shù)據(jù)的模型,而最小平方指的是待優(yōu)化的損失函數(shù)。
4.邏輯回歸:
邏輯回歸模型是一種強大的統(tǒng)計建模方式,它用一個或多個解釋性變量對二值輸出結(jié)果建模。它用邏輯斯蒂函數(shù)估計概率值,以此衡量分類依賴變量和一個或多個獨立的變量之間的關(guān)系,這屬于累積的邏輯斯蒂分布。
通常來說,邏輯回歸模型在現(xiàn)實場景中的應用包括:
信用評分
預測商業(yè)活動的成功概率
預測某款產(chǎn)品的收益
預測某一天發(fā)生地震的概率
5.支持向量機:
支持向量機是一種二分類算法。在N維空間中給定兩類點,支持向量機生成一個(N-1)維的超平面將這些點分為兩類。舉個例子,比如在紙上有兩類線性可分的點。支持向量機會尋找一條直線將這兩類點區(qū)分開來,并且與這些點的距離都盡可能遠。
利用支持向量機(結(jié)合具體應用場景做了改進)解決的大規(guī)模問題包括展示廣告、人體結(jié)合部位識別、基于圖像的性別檢查、大規(guī)模圖像分類等……
6.集成方法:
集成方法是先構(gòu)建一組分類器,然后用各個分類器帶權(quán)重的投票來預測新數(shù)據(jù)的算法。最初的集成方法是貝葉斯平均,但最新的算法包括誤差糾正輸出編碼和提升算法。

那么集成模型的原理是什么,以及它為什么比獨立模型的效果好呢?
它們消除了偏置的影響:比如把民主黨的問卷和共和黨的問卷混合,從中得到的將是一個不倫不類的偏中立的信息。
它們能減小預測的方差:多個模型聚合后的預測結(jié)果比單一模型的預測結(jié)果更穩(wěn)定。在金融界,這被稱為是多樣化 —— 多個股票的混合產(chǎn)品波動總是遠小于單個股票的波動。這也解釋了為何增加訓練數(shù)據(jù),模型的效果會變得更好。
它們不容易產(chǎn)生過擬合:如果單個模型不會產(chǎn)生過擬合,那么將每個模型的預測結(jié)果簡單地組合(取均值、加權(quán)平均、邏輯回歸),沒有理由產(chǎn)生過擬合。
非監(jiān)督學習
7.聚類算法:
聚類算法的任務是將一群物體聚成多個組,分到同一個組(簇)的物體比其它組的物體更相似。
每種聚類算法都各不相同,這里列舉了幾種:
基于類心的聚類算法
基于連接的聚類算法
基于密度的聚類算法
概率型算法
降維算法
神經(jīng)網(wǎng)絡/深度學習
8.主成分分析:
主成分分析屬于統(tǒng)計學的方法,過正交變換將一組可能存在相關(guān)性的變量轉(zhuǎn)換為一組線性不相關(guān)的變量,轉(zhuǎn)換后的這組變量叫主成分。
主成分分析的一些實際應用包括數(shù)據(jù)壓縮,簡化數(shù)據(jù)表示,數(shù)據(jù)可視化等。值得一提的是需要領(lǐng)域知識來判斷是否適合使用主成分分析算法。如果數(shù)據(jù)的噪聲太大(即各個成分的方差都很大),就不適合使用主成分分析算法。
9.奇異值分解:
奇異值分解是線性代數(shù)中一種重要的矩陣分解,是矩陣分析中正規(guī)矩陣酉對角化的推廣。對于給定的m*n矩陣M,可以將其分解為M = UΣV,其中U和V是m×m階酉矩陣,Σ是半正定m×n階對角矩陣。
主成分分析其實就是一種簡單的奇異值分解算法。在計算機視覺領(lǐng)域中,第一例人臉識別算法使用了主成分分析和奇異值分解將人臉表示為一組“特征臉(eigenfaces)”的線性組合,經(jīng)過降維,然后利用簡單的方法匹配候選人臉。盡管現(xiàn)代的方法更加精細,許多技術(shù)還是于此很相似。
10.獨立成分分析:
獨立成分分析是一種利用統(tǒng)計原理進行計算來揭示隨機變量、測量值或者信號背后的隱藏因素的方法。獨立成分分析算法給所觀察到的多變量數(shù)據(jù)定義了一個生成模型,通常這些變量是大批量的樣本。在該模型中,數(shù)據(jù)變量被假定為一些未知的潛變量的線性混合,而且混合系統(tǒng)也未知。潛變量被假定是非高斯和相互獨立的,它們被稱為所觀察到的數(shù)據(jù)的獨立分量。
獨立成分分析與主成分分析有關(guān)聯(lián),但它是一個更強大的技術(shù)。它能夠在這些經(jīng)典方法失效時仍舊找到數(shù)據(jù)源的潛在因素。它的應用包括數(shù)字圖像、文檔數(shù)據(jù)庫、經(jīng)濟指標和心理測量。
現(xiàn)在,請運用你所理解的算法,去創(chuàng)造機器學習應用,改善全世界人們的生活質(zhì)量吧。
核心關(guān)注:拓步ERP系統(tǒng)平臺是覆蓋了眾多的業(yè)務領(lǐng)域、行業(yè)應用,蘊涵了豐富的ERP管理思想,集成了ERP軟件業(yè)務管理理念,功能涉及供應鏈、成本、制造、CRM、HR等眾多業(yè)務領(lǐng)域的管理,全面涵蓋了企業(yè)關(guān)注ERP管理系統(tǒng)的核心領(lǐng)域,是眾多中小企業(yè)信息化建設首選的ERP管理軟件信賴品牌。
轉(zhuǎn)載請注明出處:拓步ERP資訊網(wǎng)http://m.lukmueng.com/
本文標題:機器學習工程師需要了解的十種算法
本文網(wǎng)址:http://m.lukmueng.com/html/support/11121519969.html