sklearn和tensorflow
sklearn 和tensorflow的區(qū)別 - 知乎
sklearn 和tensorflow的區(qū)別 - 知乎切換模式寫(xiě)文章登錄/注冊(cè)sklearn 和tensorflow的區(qū)別霧夜飛鷹?西安電子科技大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)博士轉(zhuǎn)自:https://www.cnblogs.com/lixuejian/p/10562092.html1、功能不同Scikit-learn(sklearn)的定位是通用機(jī)器學(xué)習(xí)庫(kù),而TensorFlow(tf)的定位主要是深度學(xué)習(xí)庫(kù)。一個(gè)顯而易見(jiàn)的不同:tf并未提供sklearn那種強(qiáng)大的特征工程,如維度壓縮、特征選擇等。究其根本,我認(rèn)為是因?yàn)闄C(jī)器學(xué)習(xí)模型的兩種不同的處理數(shù)據(jù)的方式:傳統(tǒng)機(jī)器學(xué)習(xí):利用特征工程(feature engineering),人為對(duì)數(shù)據(jù)進(jìn)行提煉清洗深度學(xué)習(xí):利用表示學(xué)習(xí)(representation learning),機(jī)器學(xué)習(xí)模型自身對(duì)數(shù)據(jù)進(jìn)行提煉sklearn更傾向于使用者可以自行對(duì)數(shù)據(jù)進(jìn)行處理,比如選擇特征、壓縮維度、轉(zhuǎn)換格式,是傳統(tǒng)機(jī)器學(xué)習(xí)庫(kù)。而以tf為代表的深度學(xué)習(xí)庫(kù)會(huì)自動(dòng)從數(shù)據(jù)中抽取有效特征,而不需要人為的來(lái)做這件事情,因此并未提供類(lèi)似的功能。2、使用自由度不同sklearn 中的模塊都是高度抽象化的,所有的分類(lèi)器基本都可以在3-5行內(nèi)完成,所有的轉(zhuǎn)換器(如scaler和transformer)也都有固定的格式。這種抽 象化限制了使用者的自由度,但增加了模型的效率,降低了批量化、標(biāo)準(zhǔn)化的的難度(通過(guò)使用pipeline)。clf = svm.SVC() # 初始化一個(gè)分類(lèi)器
clf.fit(X_train, y_train) # 訓(xùn)練分類(lèi)器
y_predict = clf.predict(X_test) # 使用訓(xùn)練好的分類(lèi)器進(jìn)行預(yù)測(cè)而tf不同,雖然是深度學(xué)習(xí)庫(kù),但它有很高的自由度。你依然可以用它做傳統(tǒng)機(jī)器學(xué)習(xí)所做的事情,代價(jià)是你需要自己實(shí)現(xiàn)算法。因此用tf類(lèi)比sklearn不適合,封裝在tf等工具庫(kù)上的keras[2]才更像深度學(xué)習(xí)界的sklearn。從自由度角度來(lái)看,tf更高;從抽象化、封裝程度來(lái)看,sklearn更高;從易用性角度來(lái)看,sklearn更高。3、針對(duì)的群體、項(xiàng)目不同sklearn主要適合中小型的、實(shí)用機(jī)器學(xué)習(xí)項(xiàng)目,尤其是那種數(shù)據(jù)量不大且需要使用者手動(dòng)對(duì)數(shù)據(jù)進(jìn)行處理,并選擇合適模型的項(xiàng)目。這類(lèi)項(xiàng)目往往在CPU上就可以完成,對(duì)硬件要求低。tf主要適合已經(jīng)明確了解需要用深度學(xué)習(xí),且數(shù)據(jù)處理需求不高的項(xiàng)目。這類(lèi)項(xiàng)目往往數(shù)據(jù)量較大,且最終需要的精度更高,一般都需要GPU加速運(yùn)算。對(duì)于深度學(xué)習(xí)做“小樣”可以在采樣的小數(shù)據(jù)集上用keras做快速的實(shí)驗(yàn),沒(méi)了解的過(guò)朋友看一下keras的示例代碼,就可以了解為什么keras堪比深度學(xué)習(xí)上的sklearn了。model = Sequential() # 定義模型
model.add(Dense(units=64, activation='relu', input_dim=100)) # 定義網(wǎng)絡(luò)結(jié)構(gòu)
model.add(Dense(units=10, activation='softmax')) # 定義網(wǎng)絡(luò)結(jié)構(gòu)
model.compile(loss='categorical_crossentropy', # 定義loss函數(shù)、優(yōu)化方法、評(píng)估標(biāo)準(zhǔn)
optimizer='sgd',
metrics=['accuracy'])
model.fit(x_train, y_train, epochs=5, batch_size=32) # 訓(xùn)練模型
loss_and_metrics = model.evaluate(x_test, y_test, batch_size=128) # 評(píng)估模型
classes = model.predict(x_test, batch_size=128) # 使用訓(xùn)練好的數(shù)據(jù)進(jìn)行預(yù)測(cè)不難看出,sklearn和tf有很大區(qū)別。雖然sklearn中也有神經(jīng)網(wǎng)絡(luò)模塊,但做嚴(yán)肅的、大型的深度學(xué)習(xí)是不可能依靠sklearn的。雖然tf也可以用于做傳統(tǒng)的機(jī)器學(xué)習(xí)、包括清理數(shù)據(jù),但往往事倍功半。4、scikit-learn&tensorflow結(jié)合使用更常見(jiàn)的情況下,可以把sklearn和tf,甚至keras結(jié)合起來(lái)使用。sklearn肩負(fù)基本的數(shù)據(jù)清理任務(wù),keras用于對(duì)問(wèn)題進(jìn)行小規(guī)模實(shí)驗(yàn)驗(yàn)證想法,而tf用于在完整的的數(shù)據(jù)上進(jìn)行嚴(yán)肅的調(diào)參(煉丹)任務(wù)。而單獨(dú)把sklearn拿出來(lái)看的話(huà),它的文檔做的特別好,初學(xué)者跟著看一遍sklearn支持的功能大概就對(duì)機(jī)器學(xué)習(xí)包括的很多內(nèi)容有了基本的了解。舉個(gè)簡(jiǎn)單的例子,sklearn很多時(shí)候?qū)为?dú)的知識(shí)點(diǎn)有概述,比如簡(jiǎn)單的異常檢測(cè)。因此,sklearn不僅僅是簡(jiǎn)單的工具庫(kù),它的文檔更像是一份簡(jiǎn)單的新手入門(mén)指南。因此,以sklearn為代表的傳統(tǒng)機(jī)器學(xué)習(xí)庫(kù)(如瑞士軍刀般的萬(wàn)能但高度抽象),和以tf為代表的自由靈活更具有針對(duì)性的深度學(xué)習(xí)庫(kù)(如樂(lè)高般高度自由但使用繁瑣)都是機(jī)器學(xué)習(xí)者必須要了解的工具。不過(guò)sklearn 還是很有 必要學(xué)習(xí)的理論上來(lái)說(shuō),深度學(xué)習(xí)技術(shù)也是機(jī)器學(xué)習(xí)的一個(gè)組成部分,學(xué)習(xí)其他傳統(tǒng)機(jī)器學(xué)習(xí)方法對(duì)深入理解深度學(xué)習(xí)技術(shù)有很大幫助,知道模型凸的條件,才能更好的理解神 經(jīng)網(wǎng)絡(luò)的非凸。知道傳統(tǒng)模型的優(yōu)點(diǎn),才能更好的理解深度學(xué)習(xí)并不是萬(wàn)能的,也有很多問(wèn)題和場(chǎng)景直接使用深度學(xué)習(xí)方法會(huì)遇到瓶頸和問(wèn)題,需要傳統(tǒng)方法來(lái)解 決。從實(shí)踐上來(lái)說(shuō),深度學(xué)習(xí)方法一般需要大量GPU機(jī)器,工業(yè)界哪怕大公司的GPU資源也是有限的,一般只有深度學(xué)習(xí)方法效果遠(yuǎn)好于傳統(tǒng)方法并且 對(duì)業(yè)務(wù)提升很大的情況下,才會(huì)考慮使用深度學(xué)習(xí)方法,例如語(yǔ)音識(shí)別,圖像識(shí)別等任務(wù)現(xiàn)在深度學(xué)習(xí)方法用的比較多,而NLP領(lǐng)域除了機(jī)器翻譯以外,其他大部 分任務(wù)仍然更常使用傳統(tǒng)方法。傳統(tǒng)方法一般有著更好的可解釋性,這對(duì)檢查調(diào)試模型也是非常有幫助的。工業(yè)上一般喜歡招能解決問(wèn)題的人,而不是掌握最火技術(shù) 的人,因此在了解深度學(xué)習(xí)技術(shù)的同時(shí),學(xué)習(xí)一下傳統(tǒng)方法是很有好處的。結(jié)尾說(shuō)實(shí)話(huà),即使現(xiàn)在深度學(xué)習(xí)大行其道,很多時(shí)候你還是要用傳統(tǒng)機(jī)器學(xué)習(xí)方法解決問(wèn)題的。首先不是每個(gè)人都有一個(gè)彪悍的電腦/服務(wù)器,其次,大多數(shù)問(wèn)題真的不需要深度網(wǎng)絡(luò)。最后,只會(huì)調(diào)用工具包的程序員不是好的機(jī)器學(xué)習(xí)者。編輯于 2020-03-27 22:24sklearnTensorFlow 學(xué)習(xí)TensorLayer(深度學(xué)習(xí)庫(kù))?贊同 55??1 條評(píng)論?分享?喜歡?收藏?申請(qǐng)
機(jī)器學(xué)習(xí)框架的比較和選擇:TensorFlow、PyTorch和Scikit-learn的優(yōu)缺點(diǎn)和適用場(chǎng)景-騰訊云開(kāi)發(fā)者社區(qū)-騰訊云
框架的比較和選擇:TensorFlow、PyTorch和Scikit-learn的優(yōu)缺點(diǎn)和適用場(chǎng)景-騰訊云開(kāi)發(fā)者社區(qū)-騰訊云人類(lèi)群星閃耀時(shí)機(jī)器學(xué)習(xí)框架的比較和選擇:TensorFlow、PyTorch和Scikit-learn的優(yōu)缺點(diǎn)和適用場(chǎng)景原創(chuàng)關(guān)注作者騰訊云開(kāi)發(fā)者社區(qū)文檔建議反饋控制臺(tái)首頁(yè)學(xué)習(xí)活動(dòng)專(zhuān)區(qū)工具TVP最新優(yōu)惠活動(dòng)文章/答案/技術(shù)大牛搜索搜索關(guān)閉發(fā)布登錄/注冊(cè)首頁(yè)學(xué)習(xí)活動(dòng)專(zhuān)區(qū)工具TVP最新優(yōu)惠活動(dòng)返回騰訊云官網(wǎng)人類(lèi)群星閃耀時(shí)首頁(yè)學(xué)習(xí)活動(dòng)專(zhuān)區(qū)工具TVP最新優(yōu)惠活動(dòng)返回騰訊云官網(wǎng)社區(qū)首頁(yè) >專(zhuān)欄 >機(jī)器學(xué)習(xí)框架的比較和選擇:TensorFlow、PyTorch和Scikit-learn的優(yōu)缺點(diǎn)和適用場(chǎng)景機(jī)器學(xué)習(xí)框架的比較和選擇:TensorFlow、PyTorch和Scikit-learn的優(yōu)缺點(diǎn)和適用場(chǎng)景原創(chuàng)人類(lèi)群星閃耀時(shí)關(guān)注發(fā)布于 2024-02-02 13:02:062070發(fā)布于 2024-02-02 13:02:06引言在機(jī)器學(xué)習(xí)領(lǐng)域,選擇合適的框架對(duì)于項(xiàng)目的成功至關(guān)重要。TensorFlow、PyTorch和Scikit-learn是三個(gè)備受歡迎的機(jī)器學(xué)習(xí)框架,本文將深入比較它們的優(yōu)缺點(diǎn),并為讀者提供在不同場(chǎng)景下的選擇建議。第一部分:TensorFlow1.1 TensorFlow簡(jiǎn)介T(mén)ensorFlow是由Google開(kāi)發(fā)的開(kāi)源機(jī)器學(xué)習(xí)框架,廣泛應(yīng)用于深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)領(lǐng)域。1.2 TensorFlow的優(yōu)缺點(diǎn)1.2.1 優(yōu)點(diǎn):廣泛的社區(qū)支持: TensorFlow有龐大的社區(qū),提供了豐富的文檔和教程。強(qiáng)大的分布式計(jì)算支持: 適用于大規(guī)模模型的訓(xùn)練和推理。1.2.2 缺點(diǎn):相對(duì)較陡峭的學(xué)習(xí)曲線(xiàn): 對(duì)于初學(xué)者來(lái)說(shuō),TensorFlow的學(xué)習(xí)曲線(xiàn)可能相對(duì)陡峭。相對(duì)繁瑣的代碼結(jié)構(gòu): 在一些情況下,TensorFlow的代碼結(jié)構(gòu)相對(duì)繁瑣。1.3 TensorFlow的適用場(chǎng)景適用于需要大規(guī)模深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的項(xiàng)目,如圖像識(shí)別、語(yǔ)音識(shí)別等。第二部分:PyTorch2.1 PyTorch簡(jiǎn)介PyTorch是由Facebook開(kāi)發(fā)的開(kāi)源機(jī)器學(xué)習(xí)框架,以其靈活性和直觀(guān)性而受到歡迎。2.2 PyTorch的優(yōu)缺點(diǎn)2.2.1 優(yōu)點(diǎn):直觀(guān)的動(dòng)態(tài)圖計(jì)算: PyTorch使用動(dòng)態(tài)圖計(jì)算,更直觀(guān),有助于調(diào)試和理解模型。良好的社區(qū)支持: PyTorch擁有積極的社區(qū),有很多高質(zhì)量的擴(kuò)展和工具。2.2.2 缺點(diǎn):分布式計(jì)算相對(duì)不成熟: 相對(duì)于TensorFlow,PyTorch在分布式計(jì)算方面的支持較為不成熟。相對(duì)較小的生態(tài)系統(tǒng): 雖然在增長(zhǎng),但相比于TensorFlow,PyTorch的生態(tài)系統(tǒng)相對(duì)較小。2.3 PyTorch的適用場(chǎng)景適用于需要直觀(guān)性和靈活性,以及較小規(guī)模項(xiàng)目的機(jī)器學(xué)習(xí)任務(wù)。第三部分:Scikit-learn3.1 Scikit-learn簡(jiǎn)介Scikit-learn是一個(gè)簡(jiǎn)單而高效的機(jī)器學(xué)習(xí)庫(kù),適用于各種統(tǒng)計(jì)和機(jī)器學(xué)習(xí)任務(wù)。3.2 Scikit-learn的優(yōu)缺點(diǎn)3.2.1 優(yōu)點(diǎn):易于學(xué)習(xí)和使用: Scikit-learn的API設(shè)計(jì)簡(jiǎn)單,容易上手。豐富的算法和工具: 提供了大量的經(jīng)典機(jī)器學(xué)習(xí)算法和工具。3.2.2 缺點(diǎn):不支持深度學(xué)習(xí): 由于設(shè)計(jì)目標(biāo),Scikit-learn并不支持深度學(xué)習(xí)任務(wù)。適用于相對(duì)簡(jiǎn)單的任務(wù): 對(duì)于復(fù)雜的深度學(xué)習(xí)任務(wù),Scikit-learn可能顯得力不從心。3.3 Scikit-learn的適用場(chǎng)景適用于傳統(tǒng)的機(jī)器學(xué)習(xí)任務(wù),如分類(lèi)、回歸和聚類(lèi)等,對(duì)深度學(xué)習(xí)需求不高的項(xiàng)目。第四部分:如何選擇?4.1 項(xiàng)目需求和規(guī)模大規(guī)模深度學(xué)習(xí)項(xiàng)目: TensorFlow可能是更好的選擇。中小規(guī)模深度學(xué)習(xí)項(xiàng)目: PyTorch提供更靈活和直觀(guān)的解決方案。傳統(tǒng)機(jī)器學(xué)習(xí)任務(wù): Scikit-learn是一個(gè)簡(jiǎn)單而高效的選擇。4.2 學(xué)習(xí)曲線(xiàn)和團(tuán)隊(duì)經(jīng)驗(yàn)學(xué)習(xí)曲線(xiàn)陡峭: 如果團(tuán)隊(duì)有深度學(xué)習(xí)經(jīng)驗(yàn),TensorFlow可能更合適。直觀(guān)性和靈活性: 如果更注重直觀(guān)性和靈活性,PyTorch可能更合適。結(jié)論在選擇機(jī)器學(xué)習(xí)框架時(shí),需要根據(jù)項(xiàng)目需求、規(guī)模、團(tuán)隊(duì)經(jīng)驗(yàn)和學(xué)習(xí)曲線(xiàn)等多方面因素進(jìn)行綜合考慮。TensorFlow、PyTorch和Scikit-learn各有優(yōu)劣,選擇適合自己項(xiàng)目的框架將有助于提高開(kāi)發(fā)效率和模型性能。希望本文對(duì)讀者在選擇機(jī)器學(xué)習(xí)框架時(shí)提供了一些建議和指導(dǎo)。我正在參與2024騰訊技術(shù)創(chuàng)作特訓(xùn)營(yíng)第五期有獎(jiǎng)?wù)魑?,快?lái)和我瓜分大獎(jiǎng)!原創(chuàng)聲明:本文系作者授權(quán)騰訊云開(kāi)發(fā)者社區(qū)發(fā)表,未經(jīng)許可,不得轉(zhuǎn)載。如有侵權(quán),請(qǐng)聯(lián)系 [email protected] 刪除。2024騰訊·技術(shù)創(chuàng)作特訓(xùn)營(yíng) 第五期原創(chuàng)聲明:本文系作者授權(quán)騰訊云開(kāi)發(fā)者社區(qū)發(fā)表,未經(jīng)許可,不得轉(zhuǎn)載。如有侵權(quán),請(qǐng)聯(lián)系 [email protected] 刪除。2024騰訊·技術(shù)創(chuàng)作特訓(xùn)營(yíng) 第五期評(píng)論登錄后參與評(píng)論0 條評(píng)論熱度最新登錄 后參與評(píng)論推薦閱讀LV.關(guān)注文章0獲贊0目錄引言第一部分:TensorFlow1.1 TensorFlow簡(jiǎn)介1.2 TensorFlow的優(yōu)缺點(diǎn)1.2.1 優(yōu)點(diǎn):1.2.2 缺點(diǎn):1.3 TensorFlow的適用場(chǎng)景第二部分:PyTorch2.1 PyTorch簡(jiǎn)介2.2 PyTorch的優(yōu)缺點(diǎn)2.2.1 優(yōu)點(diǎn):2.2.2 缺點(diǎn):2.3 PyTorch的適用場(chǎng)景第三部分:Scikit-learn3.1 Scikit-learn簡(jiǎn)介3.2 Scikit-learn的優(yōu)缺點(diǎn)3.2.1 優(yōu)點(diǎn):第四部分:如何選擇?4.1 項(xiàng)目需求和規(guī)模4.2 學(xué)習(xí)曲線(xiàn)和團(tuán)隊(duì)經(jīng)驗(yàn)結(jié)論相關(guān)產(chǎn)品與服務(wù)灰盒安全測(cè)試騰訊知識(shí)圖譜(Tencent Knowledge Graph,TKG)是一個(gè)集成圖數(shù)據(jù)庫(kù)、圖計(jì)算引擎和圖可視化分析的一站式平臺(tái)。支持抽取和融合異構(gòu)數(shù)據(jù),支持千億級(jí)節(jié)點(diǎn)關(guān)系的存儲(chǔ)和計(jì)算,支持規(guī)則匹配、機(jī)器學(xué)習(xí)、圖嵌入等圖數(shù)據(jù)挖掘算法,擁有豐富的圖數(shù)據(jù)渲染和展現(xiàn)的可視化方案。產(chǎn)品介紹產(chǎn)品文檔2024新春采購(gòu)節(jié)領(lǐng)券社區(qū)專(zhuān)欄文章閱讀清單互動(dòng)問(wèn)答技術(shù)沙龍技術(shù)視頻團(tuán)隊(duì)主頁(yè)騰訊云TI平臺(tái)活動(dòng)自媒體分享計(jì)劃邀請(qǐng)作者入駐自薦上首頁(yè)技術(shù)競(jìng)賽資源技術(shù)周刊社區(qū)標(biāo)簽開(kāi)發(fā)者手冊(cè)開(kāi)發(fā)者實(shí)驗(yàn)室關(guān)于社區(qū)規(guī)范免責(zé)聲明聯(lián)系我們友情鏈接騰訊云開(kāi)發(fā)者掃碼關(guān)注騰訊云開(kāi)發(fā)者領(lǐng)取騰訊云代金券熱門(mén)產(chǎn)品域名注冊(cè)云服務(wù)器區(qū)塊鏈服務(wù)消息隊(duì)列網(wǎng)絡(luò)加速云數(shù)據(jù)庫(kù)域名解析云存儲(chǔ)視頻直播熱門(mén)推薦人臉識(shí)別騰訊會(huì)議企業(yè)云CDN加速視頻通話(huà)圖像分析MySQL 數(shù)據(jù)庫(kù)SSL 證書(shū)語(yǔ)音識(shí)別更多推薦數(shù)據(jù)安全負(fù)載均衡短信文字識(shí)別云點(diǎn)播商標(biāo)注冊(cè)小程序開(kāi)發(fā)網(wǎng)站監(jiān)控?cái)?shù)據(jù)遷移Copyright ? 2013 - 2024 Tencent Cloud. All Rights Reserved. 騰訊云 版權(quán)所有?深圳市騰訊計(jì)算機(jī)系統(tǒng)有限公司 ICP備案/許可證號(hào):粵B2-20090059?深公網(wǎng)安備號(hào) 44030502008569騰訊云計(jì)算(北京)有限責(zé)任公司 京ICP證150476號(hào) | ?京ICP備11018762號(hào) | 京公網(wǎng)安備號(hào)11010802020287問(wèn)題歸檔專(zhuān)欄文章快訊文章歸檔關(guān)鍵詞歸檔開(kāi)發(fā)者手冊(cè)歸檔開(kāi)發(fā)者手冊(cè) Section 歸檔Copyright ? 2013 - 2024 Tencent Cloud.All Rights Reserved. 騰訊云 版權(quán)所有登錄 后參與評(píng)論002019年初,應(yīng)該選擇scikit-learn還是pytorch還是tensorflow2.0入門(mén)? - 知乎
2019年初,應(yīng)該選擇scikit-learn還是pytorch還是tensorflow2.0入門(mén)? - 知乎首頁(yè)知乎知學(xué)堂發(fā)現(xiàn)等你來(lái)答?切換模式登錄/注冊(cè)機(jī)器學(xué)習(xí)深度學(xué)習(xí)(Deep Learning)TensorFlow 學(xué)習(xí)PyTorch2019年初,應(yīng)該選擇scikit-learn還是pytorch還是tensorflow2.0入門(mén)?關(guān)注者27被瀏覽94,252關(guān)注問(wèn)題?寫(xiě)回答?邀請(qǐng)回答?好問(wèn)題 1?添加評(píng)論?分享?5 個(gè)回答默認(rèn)排序懶懶懶算法工程師一枚? 關(guān)注sklearn是機(jī)器學(xué)習(xí)算法包,有很多數(shù)據(jù)處理方法,目前在使用tf或者pytorch的過(guò)程中都會(huì)結(jié)合sklearn進(jìn)行數(shù)據(jù)處理的,所以不沖突。在工業(yè)界用tf的比較多,學(xué)術(shù)界基本都是pytorch,入門(mén)的話(huà),肯定pytorch簡(jiǎn)單好用,如果只是服務(wù)端部署,建議pytorch,移動(dòng)端部署tflite還是支持的比較好一些編輯于 2019-04-10 10:17?贊同 32??添加評(píng)論?分享?收藏?喜歡收起?落落小方地發(fā)卡? 關(guān)注sklearn是機(jī)器學(xué)習(xí)的包,pytorch和TensorFlow是深度學(xué)習(xí)的包。并不清楚你是問(wèn)什么。但我可以說(shuō)的是,即便是你用pytorch擼深度學(xué)習(xí)算法,前面的預(yù)處理部分有時(shí)候還是要用sklearn的。編輯于 2019-03-12 00:01?贊同 20??添加評(píng)論?分享?收藏?喜歡
Scikit-learn 與 TensorFlow不是一回事:詳細(xì)對(duì)比 - 知乎
Scikit-learn 與 TensorFlow不是一回事:詳細(xì)對(duì)比 - 知乎切換模式寫(xiě)文章登錄/注冊(cè)Scikit-learn 與 TensorFlow不是一回事:詳細(xì)對(duì)比圣普倫數(shù)字技術(shù)課程 Simplilearn中國(guó)數(shù)字技術(shù)教育,美好未來(lái)!什么是 Scikit-Learn?Scikit-learn 是一個(gè)開(kāi)源 Python 庫(kù),包括各種無(wú)監(jiān)督和監(jiān)督學(xué)習(xí)技術(shù)。它基于 Matplotlib、Pandas 和 NumPy 等技術(shù)和庫(kù),有助于簡(jiǎn)化編碼任務(wù)。Scikit-learn 的功能包括:分類(lèi)(包括 K-Nearest Neighbors)預(yù)處理(包括最小最大歸一化)聚類(lèi)(包括 K-Means++ 和 K-Means)回歸(包括邏輯回歸和線(xiàn)性回歸)Scikit-learn是使用最廣泛的Python機(jī)器學(xué)習(xí)庫(kù)之一。它擁有標(biāo)準(zhǔn)簡(jiǎn)單的界面,可用于預(yù)處理數(shù)據(jù)以及模型的訓(xùn)練、優(yōu)化和評(píng)估。該項(xiàng)目最初始自David Cournapeau在Google Summer of Code活動(dòng)中開(kāi)發(fā)的項(xiàng)目,并于2010年首次公開(kāi)發(fā)布。自創(chuàng)建以來(lái),該庫(kù)已發(fā)展成為了一個(gè)豐富的生態(tài)系統(tǒng),可用于開(kāi)發(fā)機(jī)器學(xué)習(xí)模型。Scikit-learn的優(yōu)點(diǎn)想要將算法連接到他們的平臺(tái)的用戶(hù)可以在 scikit-learn 網(wǎng)站上找到詳細(xì)的 API 文檔。社區(qū)用戶(hù)量大,有很多貢獻(xiàn)者、提供大型國(guó)際在線(xiàn)社區(qū)支持。使用起來(lái)很簡(jiǎn)單。只需最基本的許可和法律限制即可免費(fèi)使用。scikit-learn 包具有極強(qiáng)的適應(yīng)性和實(shí)用性,可用于各種現(xiàn)實(shí)世界的任務(wù),例如開(kāi)發(fā)神經(jīng)圖像、預(yù)測(cè)消費(fèi)者行為等。Scikit-learn的缺點(diǎn)如果你更喜歡深度學(xué)習(xí),scikit-learn就不是那么合適你學(xué)習(xí)。因?yàn)樗褂闷饋?lái)比較簡(jiǎn)單,所以可能會(huì)導(dǎo)致一些初級(jí)數(shù)據(jù)科學(xué)家懶得去學(xué)習(xí)基礎(chǔ)知識(shí)而蠻干。什么是 TensorFlow?TensorFlow 是一個(gè)由 Google 維護(hù)的開(kāi)源框架,用于對(duì)機(jī)器學(xué)習(xí)模型(主要是神經(jīng)網(wǎng)絡(luò))進(jìn)行原型設(shè)計(jì)和評(píng)估。TensorFlow 采用用多種語(yǔ)言編寫(xiě),包括 Swift、Python、Go、Javascript、Java 和 C++等,并包括對(duì)各種其他語(yǔ)言的社區(qū)構(gòu)建支持。TensorFlow允許應(yīng)用程序在無(wú)需修改的前提下也能夠在標(biāo)準(zhǔn) CPU 上運(yùn)行的庫(kù)。Linux、Android、macOS 和 Windows 是 TensorFlow 支持的系統(tǒng)。谷歌云機(jī)器學(xué)習(xí)引擎也可以在不使用傳統(tǒng)計(jì)算平臺(tái)的情況下運(yùn)TensorFlow 模型。TensorFlow 通常與神經(jīng)網(wǎng)絡(luò)相關(guān)聯(lián),它的吸引力源于其速度和神經(jīng)網(wǎng)絡(luò)優(yōu)化。很少有框架能夠與 TensorFlow 在 GPU、CPU、GPU 和 TPU 上運(yùn)行模型的能力相匹敵。TensorFlow的優(yōu)點(diǎn)它可以快速輕松地計(jì)算數(shù)學(xué)表達(dá)式。TensorFlow 可以生成大量序列模型并訓(xùn)練用于數(shù)字分類(lèi)的深度神經(jīng)網(wǎng)絡(luò)。TensorFlow 提供了一項(xiàng)獨(dú)特的功能,可以同時(shí)提高內(nèi)存和數(shù)據(jù)的使用率。它有谷歌的支持。它提供定期的新功能發(fā)布、快速升級(jí)和流暢的性能。TensorFlow 旨在與各種后端軟件(ASIC、GPU 等)一起使用,并且具有極高的并行性。TensorFlow 背后有一個(gè)強(qiáng)大的社區(qū)。與 Theano 和 Torch 等內(nèi)在庫(kù)相比,TensorFlow 的計(jì)算圖可視化更加出色。它使用了一種新穎的方法,使我們能夠跟蹤許多指標(biāo)并監(jiān)控模型的訓(xùn)練進(jìn)度。它的性能非常出色,與行業(yè)中的佼佼者不相上下。TensorFlow的缺點(diǎn)目前,NVIDIA 是唯一支持TensorFlow的 GPU,而 Python 是唯一支持的完整語(yǔ)言,這是一個(gè)劣勢(shì),因?yàn)橛性絹?lái)越多的其他深度學(xué)習(xí)語(yǔ)言。有很多用戶(hù)更喜歡在 Windows 環(huán)境中工作而不是在 Linux 上工作,很遺憾TensorFlow 并不能滿(mǎn)足他們的需求。如果實(shí)在想裝,Windows 用戶(hù)也可以通過(guò) Python 包庫(kù) (pip) 或 conda 安裝它。不支持 OpenCL。由于 TensorFlow 的獨(dú)特結(jié)構(gòu),很難發(fā)現(xiàn)和排除錯(cuò)誤。要求學(xué)習(xí)者擁有扎實(shí)的高等數(shù)學(xué)和線(xiàn)性代數(shù)基礎(chǔ),對(duì)機(jī)器學(xué)習(xí)有透徹的了解,學(xué)習(xí)門(mén)檻高??偟膩?lái)說(shuō),Scikit-learn 和 TensorFlow 旨在幫助開(kāi)發(fā)人員創(chuàng)建和基準(zhǔn)測(cè)試新模型,因此它們的功能實(shí)現(xiàn)非常相似,不同之處在于 Scikit-learn 在實(shí)踐中用于更廣泛的模型,而 TensorFlow 更適用于神經(jīng)網(wǎng)絡(luò)。TensorFlow深度學(xué)習(xí)Simplilearn圣普倫的TensorFlow認(rèn)證培訓(xùn)計(jì)劃由行業(yè)領(lǐng)軍人物開(kāi)發(fā)的,并與最前沿的優(yōu)質(zhì)實(shí)踐保持一致性。在這份學(xué)習(xí)計(jì)劃中,你將掌握Deep Learning、TensorFlow,卷積網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、PyTorch以及圖像分類(lèi)等多項(xiàng)技能。編輯于 2022-05-01 19:34Python深度學(xué)習(xí)(Deep Learning)TensorFlow 學(xué)習(xí)?贊同 1??添加評(píng)論?分享?喜歡?收藏?申請(qǐng)
有TensorFlow了還需要學(xué)習(xí)sklearn嗎? - 知乎
有TensorFlow了還需要學(xué)習(xí)sklearn嗎? - 知乎首頁(yè)知乎知學(xué)堂發(fā)現(xiàn)等你來(lái)答?切換模式登錄/注冊(cè)機(jī)器學(xué)習(xí)深度學(xué)習(xí)(Deep Learning)TensorFlow 學(xué)習(xí)sklearn有TensorFlow了還需要學(xué)習(xí)sklearn嗎?如題。兩者的功能是否有重合。有工作經(jīng)驗(yàn)的人能不能聊聊你們工作的時(shí)候一般是怎樣用的顯示全部 ?關(guān)注者57被瀏覽77,402關(guān)注問(wèn)題?寫(xiě)回答?邀請(qǐng)回答?好問(wèn)題 2?添加評(píng)論?分享?12 個(gè)回答默認(rèn)排序半個(gè)馮博士機(jī)器學(xué)習(xí)和數(shù)學(xué)? 關(guān)注如果是實(shí)際應(yīng)用看具體需求,如果是為了提升競(jìng)爭(zhēng)力為了畢業(yè)后就業(yè)自然是都學(xué)一學(xué)。問(wèn)題是2019年的,而目前pytorch已經(jīng)明顯占了上風(fēng),并且也有不少人認(rèn)為未來(lái)的趨勢(shì)也是Pytorch占優(yōu),畢竟連Google自己的人寫(xiě)文章都用pytorch。說(shuō)幾句正經(jīng)的:1、sklearn和tensorflow、Pytorch一類(lèi)的框架本就大不相同首先tf,torch的定位是framework,意思有點(diǎn)類(lèi)似腳手架。而sklearn的定位則更傾向于工具箱,這種東西拿著就用,入門(mén)的門(mén)檻相對(duì)較低。從功能上講,二者差異巨大。sklearn主要還是傳統(tǒng)的機(jī)器學(xué)習(xí)模型,比如knn、svm等等; 而tf,torch是則是針對(duì)深度學(xué)習(xí)的框架。二者有那么一點(diǎn)點(diǎn)的重疊就是在簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)上。2、工業(yè)界目前的應(yīng)用小量級(jí)上用sklearn的還是挺多,但大量級(jí)、尤其圖形圖象、語(yǔ)音視頻、nlp等用tf、pytorch的就更多了這個(gè)現(xiàn)象的主要原因還是在于sklearn對(duì)應(yīng)的模型本身的適用場(chǎng)景的問(wèn)題。從2006年之后,深度學(xué)習(xí)的技術(shù)突飛猛進(jìn),在諸多工業(yè)應(yīng)用中獲得了傳統(tǒng)方法幾乎無(wú)法企及的成績(jī)。工業(yè)界使用傳統(tǒng)機(jī)器學(xué)習(xí)模型來(lái)處理問(wèn)題也不是一兩天了,得到了不少好的效果,上限仍然肉眼可見(jiàn)。就個(gè)人的感受而言,目前在工業(yè)界都對(duì)深度學(xué)習(xí)的興趣越高,最近幾年成功的應(yīng)用也越來(lái)越多。因此要想跟上前沿應(yīng)用,掌握一個(gè)深度學(xué)習(xí)的框架是有必要的。3、盡管深度學(xué)習(xí)風(fēng)頭正勁,但傳統(tǒng)機(jī)器學(xué)習(xí)模型的作用也難以被取代這一點(diǎn)在個(gè)人技術(shù)成長(zhǎng)上猶為明顯。如果不懂得機(jī)器學(xué)習(xí)中的基本模型,比如線(xiàn)性回歸、knn,不了解這些思想,不明白這些算法本身,直接去上深度學(xué)習(xí)通常就真會(huì)有一種“煉丹”的感覺(jué)。在實(shí)際應(yīng)用中,會(huì)出現(xiàn)無(wú)數(shù)的模型不適用、稀疏性不夠、收斂性太差、魯棒性不夠等等奇怪的現(xiàn)象。而要想處理這些問(wèn)題,就必須要了解背后的機(jī)理。試圖去解釋其中的原因,從而找到有效的改進(jìn)方法?,F(xiàn)實(shí)的工作中搭模型跑數(shù)據(jù)玩得飛起,但對(duì)置信區(qū)間、高斯分布等基礎(chǔ)概念不清楚的新手大有人在。編輯于 2021-08-25 22:41?贊同 24??2 條評(píng)論?分享?收藏?喜歡收起?BBuf?? 關(guān)注從打機(jī)器比賽堆pipline來(lái)講(不考慮cnn模型),sklearn比用tensorflow的速度快到不知道哪里去了。發(fā)布于 2019-11-22 14:28?贊同 6??添加評(píng)論?分享?收藏?喜歡
機(jī)器學(xué)習(xí)庫(kù)的比較 - 知乎
機(jī)器學(xué)習(xí)庫(kù)的比較 - 知乎切換模式寫(xiě)文章登錄/注冊(cè)機(jī)器學(xué)習(xí)庫(kù)的比較飛天游俠??中國(guó)科學(xué)院計(jì)算技術(shù)研究所 計(jì)算機(jī)系統(tǒng)結(jié)構(gòu)博士在讀框架比較深度學(xué)習(xí)的庫(kù)有很多,這里主要分析pytorch、tensorflow、keras、sklearn四個(gè)機(jī)器學(xué)習(xí)或深度學(xué)習(xí)框架。一個(gè)不同于其它框架的庫(kù)對(duì)上述四個(gè)框架進(jìn)行基本的分類(lèi),雖然他們都是可以進(jìn)行數(shù)據(jù)的分析和預(yù)測(cè),在我看來(lái),sklearn并不屬于框架的一種。嚴(yán)格說(shuō),一個(gè)深度學(xué)習(xí)框架應(yīng)該是一種具有以計(jì)算圖為語(yǔ)義模型的內(nèi)部領(lǐng)域特定語(yǔ)言(DSL)。sklearn屬于一個(gè)機(jī)器學(xué)習(xí)庫(kù),它沒(méi)有語(yǔ)義模型,僅僅提供了對(duì)于統(tǒng)計(jì)機(jī)器學(xué)習(xí)任務(wù)(如:分類(lèi)、回歸等)的封裝,使用者可以通過(guò)fit等函數(shù)去擬合實(shí)際數(shù)據(jù)。它建立在numpy和scipy基礎(chǔ)上,提供了一系列可用的運(yùn)算模型,比如SVM,線(xiàn)性回歸模型。使用者在fit后使用predict方法就可以在擬合好的基礎(chǔ)上對(duì)新的輸入數(shù)據(jù)進(jìn)行預(yù)測(cè)。然而,sklearn不支持gpu。最熱門(mén)的深度學(xué)習(xí)框架最先興起的深度學(xué)習(xí)框架tensorflow是谷歌在2015年發(fā)布的。tensorflow最大的優(yōu)勢(shì)就是在于文檔全面,社區(qū)規(guī)模大。這對(duì)于初學(xué)者是很大的優(yōu)勢(shì)。我主要關(guān)注框架的科研和工程兩方面。工程方面計(jì)算機(jī)工程主要看重的是運(yùn)行速度。tensorflow的運(yùn)行速度比pytorch要快一些。而且由于使用的人數(shù)多,生態(tài)環(huán)境也比較完善,出現(xiàn)bug時(shí)容易尋找原因。科研方面科研領(lǐng)域主要關(guān)注易用性,tensorflow 1.0的易用性和pytorch相比顯然不高。對(duì)api 1.0而言,采用靜態(tài)計(jì)算圖,不能動(dòng)態(tài)建圖,運(yùn)行時(shí)還要?jiǎng)?chuàng)建session十分不便。去年發(fā)布的tf 2.0版本改進(jìn)了許多,使得tensorflow本身可以不用特別多的placeholder這些復(fù)雜概念就可以運(yùn)行,也加入了動(dòng)態(tài)圖機(jī)制,但是要借助于內(nèi)置的keras。抽象程度更高的框架最初的keras是一個(gè)易懂的多后端的框架,可以用tf為底層。后來(lái)谷歌為了完善tf,在tf中加入了keras,使得api 2.0更易用了一些。工程方面keras因?yàn)椴捎昧藅f作為后端,整體的性能要比pytorch好一些。科研方面在tf api 2.0中,由于引入了keras的易用后端,我相信科研工作者會(huì)慢慢喜歡上tf api 2.0 的。科研工作的常用框架pytorch是在2016年由facebook發(fā)布的,支持動(dòng)態(tài)計(jì)算圖,這是它最大的優(yōu)勢(shì)。工程方面雖然pytorch可以代替tf,然而tf的速度依然有優(yōu)勢(shì)。近幾年tvm等一系列深度學(xué)習(xí)編譯器的出現(xiàn)把深度學(xué)習(xí)框架的速度優(yōu)勢(shì)磨平了。tvm的前端可以是pytorch模型,也可以是tensorflow模型。所以部署時(shí)兩者編譯出的計(jì)算圖如果都用tvm優(yōu)化,速度基本等同??蒲蟹矫鎝ytorch出現(xiàn)后,由于torch的api更加清晰,許多論文的實(shí)現(xiàn)都有pytorch版本,可以代替tensorflow。發(fā)布于 2020-08-03 20:52機(jī)器學(xué)習(xí)TensorFlow 學(xué)習(xí)TensorLayer(深度學(xué)習(xí)庫(kù))?贊同 3??添加評(píng)論?分享?喜歡?收藏?申請(qǐng)
scikit-learn和tensorflow的區(qū)別 - 簡(jiǎn)書(shū)
it-learn和tensorflow的區(qū)別 - 簡(jiǎn)書(shū)登錄注冊(cè)寫(xiě)文章首頁(yè)下載APP會(huì)員IT技術(shù)scikit-learn和tensorflow的區(qū)別阿基米敬關(guān)注贊賞支持scikit-learn和tensorflow的區(qū)別1、功能不同Scikit-learn(sklearn)的定位是通用機(jī)器學(xué)習(xí)庫(kù),而TensorFlow(tf)的定位主要是深度學(xué)習(xí)庫(kù)。一個(gè)顯而易見(jiàn)的不同:tf并未提供sklearn那種強(qiáng)大的特征工程,如維度壓縮、特征選擇等。究其根本,我認(rèn)為是因?yàn)闄C(jī)器學(xué)習(xí)模型的兩種不同的處理數(shù)據(jù)的方式:
傳統(tǒng)機(jī)器學(xué)習(xí):利用特征工程(feature engineering),人為對(duì)數(shù)據(jù)進(jìn)行提煉清洗
深度學(xué)習(xí):利用表示學(xué)習(xí)(representation learning),機(jī)器學(xué)習(xí)模型自身對(duì)數(shù)據(jù)進(jìn)行提煉
sklearn更傾向于使用者可以自行對(duì)數(shù)據(jù)進(jìn)行處理,比如選擇特征、壓縮維度、轉(zhuǎn)換格式,是傳統(tǒng)機(jī)器學(xué)習(xí)庫(kù)。而以tf為代表的深度學(xué)習(xí)庫(kù)會(huì)自動(dòng)從數(shù)據(jù)中抽取有效特征,而不需要人為的來(lái)做這件事情,因此并未提供類(lèi)似的功能。
2、使用自由度不同
sklearn 中的模塊都是高度抽象化的,所有的分類(lèi)器基本都可以在3-5行內(nèi)完成,所有的轉(zhuǎn)換器(如scaler和transformer)也都有固定的格式。這種抽 象化限制了使用者的自由度,但增加了模型的效率,降低了批量化、標(biāo)準(zhǔn)化的的難度(通過(guò)使用pipeline)。
clf = svm.SVC() # 初始化一個(gè)分類(lèi)器
clf.fit(X_train, y_train) # 訓(xùn)練分類(lèi)器
y_predict = clf.predict(X_test) # 使用訓(xùn)練好的分類(lèi)器進(jìn)行預(yù)測(cè)
而tf不同,雖然是深度學(xué)習(xí)庫(kù),但它有很高的自由度。你依然可以用它做傳統(tǒng)機(jī)器學(xué)習(xí)所做的事情,代價(jià)是你需要自己實(shí)現(xiàn)算法。因此用tf類(lèi)比sklearn不適合,封裝在tf等工具庫(kù)上的keras[2]才更像深度學(xué)習(xí)界的sklearn。
從自由度角度來(lái)看,tf更高;從抽象化、封裝程度來(lái)看,sklearn更高;從易用性角度來(lái)看,sklearn更高。
3、針對(duì)的群體、項(xiàng)目不同
sklearn主要適合中小型的、實(shí)用機(jī)器學(xué)習(xí)項(xiàng)目,尤其是那種數(shù)據(jù)量不大且需要使用者手動(dòng)對(duì)數(shù)據(jù)進(jìn)行處理,并選擇合適模型的項(xiàng)目。這類(lèi)項(xiàng)目往往在CPU上就可以完成,對(duì)硬件要求低。
tf主要適合已經(jīng)明確了解需要用深度學(xué)習(xí),且數(shù)據(jù)處理需求不高的項(xiàng)目。這類(lèi)項(xiàng)目往往數(shù)據(jù)量較大,且最終需要的精度更高,一般都需要GPU加速運(yùn)算。對(duì)于深度學(xué)習(xí)做“小樣”可以在采樣的小數(shù)據(jù)集上用keras做快速的實(shí)驗(yàn),沒(méi)了解的過(guò)朋友看一下keras的示例代碼,就可以了解為什么keras堪比深度學(xué)習(xí)上的sklearn了。
model = Sequential() # 定義模型
model.add(Dense(units=64, activation='relu', input_dim=100)) # 定義網(wǎng)絡(luò)結(jié)構(gòu)
model.add(Dense(units=10, activation='softmax')) # 定義網(wǎng)絡(luò)結(jié)構(gòu)
model.compile(loss='categorical_crossentropy', # 定義loss函數(shù)、優(yōu)化方法、評(píng)估標(biāo)準(zhǔn)
optimizer='sgd',
metrics=['accuracy'])
model.fit(x_train, y_train, epochs=5, batch_size=32) # 訓(xùn)練模型
loss_and_metrics = model.evaluate(x_test, y_test, batch_size=128) # 評(píng)估模型
classes = model.predict(x_test, batch_size=128) # 使用訓(xùn)練好的數(shù)據(jù)進(jìn)行預(yù)測(cè)
不難看出,sklearn和tf有很大區(qū)別。雖然sklearn中也有神經(jīng)網(wǎng)絡(luò)模塊,但做嚴(yán)肅的、大型的深度學(xué)習(xí)是不可能依靠sklearn的。雖然tf也可以用于做傳統(tǒng)的機(jī)器學(xué)習(xí)、包括清理數(shù)據(jù),但往往事倍功半。
4、scikit-learn&tensorflow結(jié)合使用
更常見(jiàn)的情況下,可以把sklearn和tf,甚至keras結(jié)合起來(lái)使用。sklearn肩負(fù)基本的數(shù)據(jù)清理任務(wù),keras用于對(duì)問(wèn)題進(jìn)行小規(guī)模實(shí)驗(yàn)驗(yàn)證想法,而tf用于在完整的的數(shù)據(jù)上進(jìn)行嚴(yán)肅的調(diào)參(煉丹)任務(wù)。
而單獨(dú)把sklearn拿出來(lái)看的話(huà),它的文檔做的特別好,初學(xué)者跟著看一遍sklearn支持的功能大概就對(duì)機(jī)器學(xué)習(xí)包括的很多內(nèi)容有了基本的了解。舉個(gè)簡(jiǎn)單的例子,sklearn很多時(shí)候?qū)为?dú)的知識(shí)點(diǎn)有概述,比如簡(jiǎn)單的異常檢測(cè)。因此,sklearn不僅僅是簡(jiǎn)單的工具庫(kù),它的文檔更像是一份簡(jiǎn)單的新手入門(mén)指南。
因此,以sklearn為代表的傳統(tǒng)機(jī)器學(xué)習(xí)庫(kù)(如瑞士軍刀般的萬(wàn)能但高度抽象),和以tf為代表的自由靈活更具有針對(duì)性的深度學(xué)習(xí)庫(kù)(如樂(lè)高般高度自由但使用繁瑣)都是機(jī)器學(xué)習(xí)者必須要了解的工具。
不過(guò)sklearn 還是很有 必要學(xué)習(xí)的
理論上來(lái)說(shuō),深度學(xué)習(xí)技術(shù)也是機(jī)器學(xué)習(xí)的一個(gè)組成部分,學(xué)習(xí)其他傳統(tǒng)機(jī)器學(xué)習(xí)方法對(duì)深入理解深度學(xué)習(xí)技術(shù)有很大幫助,知道模型凸的條件,才能更好的理解神 經(jīng)網(wǎng)絡(luò)的非凸。知道傳統(tǒng)模型的優(yōu)點(diǎn),才能更好的理解深度學(xué)習(xí)并不是萬(wàn)能的,也有很多問(wèn)題和場(chǎng)景直接使用深度學(xué)習(xí)方法會(huì)遇到瓶頸和問(wèn)題,需要傳統(tǒng)方法來(lái)解 決。
從實(shí)踐上來(lái)說(shuō),深度學(xué)習(xí)方法一般需要大量GPU機(jī)器,工業(yè)界哪怕大公司的GPU資源也是有限的,一般只有深度學(xué)習(xí)方法效果遠(yuǎn)好于傳統(tǒng)方法并且 對(duì)業(yè)務(wù)提升很大的情況下,才會(huì)考慮使用深度學(xué)習(xí)方法,例如語(yǔ)音識(shí)別,圖像識(shí)別等任務(wù)現(xiàn)在深度學(xué)習(xí)方法用的比較多,而NLP領(lǐng)域除了機(jī)器翻譯以外,其他大部 分任務(wù)仍然更常使用傳統(tǒng)方法。傳統(tǒng)方法一般有著更好的可解釋性,這對(duì)檢查調(diào)試模型也是非常有幫助的。工業(yè)上一般喜歡招能解決問(wèn)題的人,而不是掌握最火技術(shù) 的人,因此在了解深度學(xué)習(xí)技術(shù)的同時(shí),學(xué)習(xí)一下傳統(tǒng)方法是很有好處的。
結(jié)尾
說(shuō)實(shí)話(huà),即使現(xiàn)在深度學(xué)習(xí)大行其道,很多時(shí)候你還是要用傳統(tǒng)機(jī)器學(xué)習(xí)方法解決問(wèn)題的。首先不是每個(gè)人都有一個(gè)彪悍的電腦/服務(wù)器,其次,大多數(shù)問(wèn)題真的不需要深度網(wǎng)絡(luò)。最后,只會(huì)調(diào)用工具包的程序員不是好的機(jī)器學(xué)習(xí)者。
最后編輯于 :2018.05.03 14:37:37?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者人面猴序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...沈念sama閱讀 148,057評(píng)論 1贊 315死咒序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...沈念sama閱讀 63,232評(píng)論 1贊 263救了他兩次的神仙讓他今天三更去死文/潘曉璐 我一進(jìn)店門(mén),熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人,你說(shuō)我怎么就攤上這事。” “怎么了?”我有些...開(kāi)封第一講書(shū)人閱讀 98,663評(píng)論 0贊 217道士緝兇錄:失蹤的賣(mài)姜人 文/不壞的土叔 我叫張陵,是天一觀(guān)的道長(zhǎng)。 經(jīng)常有香客問(wèn)我,道長(zhǎng),這世上最難降的妖魔是什么? 我笑而不...開(kāi)封第一講書(shū)人閱讀 41,992評(píng)論 0贊 188?港島之戀(遺憾婚禮)正文 為了忘掉前任,我火速辦了婚禮,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當(dāng)我...茶點(diǎn)故事閱讀 49,949評(píng)論 1贊 266惡毒庶女頂嫁案:這布局不是一般人想出來(lái)的文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上,一...開(kāi)封第一講書(shū)人閱讀 39,305評(píng)論 1贊 183城市分裂傳說(shuō)那天,我揣著相機(jī)與錄音,去河邊找鬼。 笑死,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播,決...沈念sama閱讀 30,849評(píng)論 2贊 282雙鴛鴦連環(huán)套:你想象不到人心有多黑文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起,我...開(kāi)封第一講書(shū)人閱讀 29,611評(píng)論 0贊 175萬(wàn)榮殺人案實(shí)錄序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...沈念sama閱讀 33,059評(píng)論 0贊 222?護(hù)林員之死正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...茶點(diǎn)故事閱讀 29,695評(píng)論 2贊 226?白月光啟示錄正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...茶點(diǎn)故事閱讀 31,056評(píng)論 1贊 236活死人序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...沈念sama閱讀 27,495評(píng)論 2贊 220?日本核電站爆炸內(nèi)幕正文 年R本政府宣布,位于F島的核電站,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜,卻給世界環(huán)境...茶點(diǎn)故事閱讀 31,967評(píng)論 3贊 216男人毒藥:我在死后第九天來(lái)索命文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...開(kāi)封第一講書(shū)人閱讀 25,753評(píng)論 0贊 9一樁弒父案,背后竟有這般陰謀文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背。 一陣腳步聲響...開(kāi)封第一講書(shū)人閱讀 26,255評(píng)論 0贊 175情欲美人皮我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個(gè)月前我還...沈念sama閱讀 34,086評(píng)論 2贊 239代替公主和親正文 我出身青樓,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...茶點(diǎn)故事閱讀 34,227評(píng)論 2贊 241評(píng)論9贊7979贊80贊贊賞更
機(jī)器學(xué)習(xí)工具 sklearn與tensorflow優(yōu)劣勢(shì)_python sklearn 和tensor flow哪個(gè)更好-CSDN博客
>機(jī)器學(xué)習(xí)工具 sklearn與tensorflow優(yōu)劣勢(shì)_python sklearn 和tensor flow哪個(gè)更好-CSDN博客
機(jī)器學(xué)習(xí)工具 sklearn與tensorflow優(yōu)劣勢(shì)
最新推薦文章于?2023-12-20 02:40:15?發(fā)布
SDRAG0N
最新推薦文章于?2023-12-20 02:40:15?發(fā)布
閱讀量2.1k
收藏
8
點(diǎn)贊數(shù)
1
文章標(biāo)簽:
機(jī)器學(xué)習(xí)
深度學(xué)習(xí)
原文鏈接:http://www.elecfans.com/d/1204113.html
版權(quán)
什么是sklearn
Sklearn原稱(chēng)是Scikit learn,是機(jī)器學(xué)習(xí)領(lǐng)域中最知名的python模塊之一,是基于Python語(yǔ)言的機(jī)器學(xué)習(xí)的工具。他主要建立在NumPy,SciPy,matplotlib之上,提供簡(jiǎn)單高效,用于數(shù)據(jù)挖掘,數(shù)據(jù)分析等的工具,最重要的是,他是開(kāi)源的,基于BSD許可證,可以商業(yè)使用。這樣子,就給了我們無(wú)限的想象。
sklearn與tensorflow優(yōu)劣勢(shì)
目前,在社區(qū)中,tensorflow會(huì)比較火,很多同學(xué)會(huì)問(wèn),為什么不用tensorflow,這兩個(gè)有什么區(qū)別,我想,主要從以下這方面來(lái)做對(duì)比
1、sklearn主要定位是一種通用的機(jī)器學(xué)習(xí)的學(xué)習(xí)庫(kù),tf主要定位還是深度學(xué)習(xí)。
2、特征工程上,sklearn提供了例如維度壓縮、特征選擇等,但是這樣子并不代表這tf就比sklearn弱。在傳統(tǒng)的機(jī)器學(xué)習(xí)中,sklearn需要使用者自行對(duì)數(shù)據(jù)進(jìn)行數(shù)據(jù)處理,例如進(jìn)行特征選擇,維度壓縮,轉(zhuǎn)換格式等,但是tf可以在開(kāi)始進(jìn)行數(shù)據(jù)訓(xùn)練的過(guò)程中,自行從數(shù)據(jù)中提取有效的特征,從而減少人為的干預(yù)。
3、易用性及封裝度上,sklearn更高,這點(diǎn)上,我想很多用過(guò)的人都清楚,不做累贅描述。
4、面對(duì)項(xiàng)目的不同,sklearn更適合中小型,特別是數(shù)據(jù)量不大的項(xiàng)目,此時(shí)更需要手動(dòng)者對(duì)數(shù)據(jù)進(jìn)行處理,并且選擇合適模型的項(xiàng)目,這些計(jì)算是可以在CPU直接計(jì)算的,沒(méi)有什么硬件要求。相對(duì)的,tf的應(yīng)用領(lǐng)域上,往往更加注重?cái)?shù)據(jù)量較大,一般情況下需要GPU進(jìn)行加速運(yùn)算。目前很多公司并沒(méi)有很大量的數(shù)據(jù),在選擇上,可以作為參考。
機(jī)器學(xué)習(xí)有幾種方式 針對(duì)sklearn來(lái)講,經(jīng)常用到的主要有:數(shù)據(jù)預(yù)處理、分類(lèi)、回歸、分監(jiān)督分類(lèi)(聚類(lèi)),模型選擇,數(shù)據(jù)降維
應(yīng)用領(lǐng)域有哪些
目前,sklearn在應(yīng)用中,主要有四類(lèi)算法:聚類(lèi),分類(lèi),回歸,降維
聚類(lèi):即非監(jiān)督學(xué)習(xí)的方式,例如我有一堆人,這堆數(shù)據(jù)是沒(méi)有男孩或者女孩這些標(biāo)簽的,此時(shí)我需要給這堆數(shù)據(jù)進(jìn)行聚類(lèi),根據(jù)一些身體特征,分成兩類(lèi),并標(biāo)記為男孩,女孩。
分類(lèi)/回歸:監(jiān)督學(xué)習(xí)的方式,還是那堆人,但是已經(jīng)分好類(lèi)了,男孩,女孩,此時(shí)來(lái)了一個(gè)新人,我根據(jù)這個(gè)新人的特征,給他歸類(lèi)。
降維:如果按照字面意思來(lái)理解,那就有問(wèn)題,當(dāng)數(shù)據(jù)集有很多屬性的時(shí)候,我們此時(shí)需要把100個(gè)屬性變成10個(gè),并不是挑出10個(gè),而是壓縮成10個(gè),這10個(gè)屬性,就集合了100個(gè)屬性特征,簡(jiǎn)單理解,就是重要的特征就拿起來(lái),不重要的就吸收了。
優(yōu)惠劵
SDRAG0N
關(guān)注
關(guān)注
1
點(diǎn)贊
踩
8
收藏
覺(jué)得還不錯(cuò)?
一鍵收藏
知道了
0
評(píng)論
機(jī)器學(xué)習(xí)工具 sklearn與tensorflow優(yōu)劣勢(shì)
什么是sklearnSklearn原稱(chēng)是Scikit learn,是機(jī)器學(xué)習(xí)領(lǐng)域中最知名的python模塊之一,是基于Python語(yǔ)言的機(jī)器學(xué)習(xí)的工具。他主要建立在NumPy,SciPy,matplotlib之上,提供簡(jiǎn)單高效,用于數(shù)據(jù)挖掘,數(shù)據(jù)分析等的工具,最重要的是,他是開(kāi)源的,基于BSD許可證,可以商業(yè)使用。這樣子,就給了我們無(wú)限的想象。sklearn與tensorflow優(yōu)劣勢(shì)目前,在社區(qū)中,tensorflow會(huì)比較火,很多同學(xué)會(huì)問(wèn),為什么不用tensorflow,這兩個(gè)有什么區(qū)別,我想,主
復(fù)制鏈接
掃一掃
機(jī)器學(xué)習(xí)教程,本教程包含基于numpy、sklearn與tensorflow機(jī)器學(xué)習(xí),也會(huì)包含利用spark、flink加快模型
01-07
機(jī)器學(xué)習(xí)教程,本教程包含基于numpy、sklearn與tensorflow機(jī)器學(xué)習(xí),也會(huì)包含利用spark、flink加快模型訓(xùn)練等用法。本著能夠較全的引導(dǎo)讀者入門(mén)機(jī)器學(xué)習(xí)。
本項(xiàng)目將按照具體的類(lèi)庫(kù)、平臺(tái)進(jìn)行區(qū)分,當(dāng)前主要包含如下目錄。
cnn: 卷積神經(jīng)網(wǎng)絡(luò)相關(guān)算法
featureengineering: 特征工程相關(guān)
frequentltemsets: 頻繁項(xiàng)集挖掘相關(guān)算法
raw:基于numpy實(shí)現(xiàn)的原始算法
sklearn:基于scikit-learn庫(kù)快速實(shí)現(xiàn)
spark:基于Spark ML的機(jī)器學(xué)習(xí)實(shí)現(xiàn)
scipy: 基于SciPy的科學(xué)計(jì)算使用,具體說(shuō)明
utils:項(xiàng)目額外補(bǔ)充的工具類(lèi)
利用python、tensorflow、opencv實(shí)現(xiàn)人臉識(shí)別(包會(huì))!
熱門(mén)推薦
就是這個(gè)七昂的博客
07-25
21萬(wàn)+
?
一,前言
本人是機(jī)械專(zhuān)業(yè)在讀碩士,在完成暑假實(shí)踐的時(shí)候接觸到了人臉識(shí)別,對(duì)這一實(shí)現(xiàn)很感興趣,所以花了大概十天時(shí)間做出了自己的人臉識(shí)別。這篇文章應(yīng)該是很詳細(xì)的了所以幫你實(shí)現(xiàn)人臉識(shí)別應(yīng)該沒(méi)什么問(wèn)題。
先說(shuō)本博文的最終要達(dá)到的效果:通過(guò)一系列操作,在攝像頭的視頻流中識(shí)別特定人的人臉,并且予以標(biāo)記。
本人通過(guò)網(wǎng)上資料的查詢(xún)發(fā)現(xiàn)這類(lèi)人臉識(shí)別,大多參考了一位日本程序員小哥的文章。
鏈接:http...
參與評(píng)論
您還未登錄,請(qǐng)先
登錄
后發(fā)表或查看評(píng)論
sklearn和tensorflow的理解
最新發(fā)布
影子
12-20
839
深度神經(jīng)網(wǎng)絡(luò)(DNN)是一種多層無(wú)監(jiān)督神經(jīng)網(wǎng)絡(luò),并且將上一層的輸出特征作為下一層的輸入進(jìn)行特征學(xué)習(xí),通過(guò)逐層特征映射后,將現(xiàn)有空間樣本的特征映射到另一個(gè)特征空間,以此來(lái)學(xué)習(xí)對(duì)現(xiàn)有輸入具有更好的特征表達(dá)。每一層之前是完全連接的,整體上看是復(fù)雜的,但從局部來(lái)看,實(shí)質(zhì)上還是感知機(jī)模型。,比如選擇特征、壓縮維度、轉(zhuǎn)換格式,是傳統(tǒng)機(jī)器學(xué)習(xí)庫(kù),SKLearn中,因?yàn)樽隽松蠈拥姆庋b,分類(lèi)模型、回歸模型、聚類(lèi)與降維模型、預(yù)處理器等等都叫做估計(jì)器(estimator)的訓(xùn)練機(jī)制,而不是采用傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的。
機(jī)器學(xué)習(xí)sklearn 和tensorflow 的資料總結(jié)
11-23
機(jī)器學(xué)習(xí)大佬總結(jié)的資料,其中包括sklearn 和tensorflow 框架的介紹,和常見(jiàn)算法的介紹,歡迎下載。
Python 機(jī)器學(xué)習(xí)工具包SKlearn的安裝與使用
04-14
Python 機(jī)器學(xué)習(xí)工具包SKlearn的安裝與使用
Sklearn 與 TensorFlow 機(jī)器學(xué)習(xí)實(shí)用指南_機(jī)器學(xué)習(xí)_
09-30
Sklearn 與 TensorFlow 機(jī)器學(xué)習(xí)實(shí)用指南
sklearn和tensorflow
qq_43544736的博客
01-08
786
sklearn是python中的一個(gè)機(jī)器學(xué)習(xí)庫(kù),封裝了大量機(jī)器學(xué)習(xí)算法,同時(shí)也內(nèi)置了數(shù)據(jù)集;tensorflow是一個(gè)編程系統(tǒng),是一種計(jì)算圖模型,即用圖的形式來(lái)表示運(yùn)算過(guò)程的一種模型,在Python語(yǔ)言中,返回的tensor是NumPy中的ndarray對(duì)象。
【轉(zhuǎn)載】scikit-learn和tensorflow的區(qū)別
mxs1123的博客
10-18
1234
https://www.jianshu.com/p/0837b7c6ce10
1、功能不同
Scikit-learn(sklearn)的定位是通用機(jī)器學(xué)習(xí)庫(kù),而TensorFlow(tf)的定位主要是深度學(xué)習(xí)庫(kù)。一個(gè)顯而易見(jiàn)的不同:tf并未提供sklearn那種強(qiáng)大的特征工程,如維度壓縮、特征選擇等。究其根本,我認(rèn)為是因?yàn)闄C(jī)器學(xué)習(xí)模型的兩種不同的處理數(shù)據(jù)的方式:
傳統(tǒng)機(jī)器學(xué)習(xí):利用特征工程(...
Tensorflow2項(xiàng)目實(shí)戰(zhàn)課程
03-14
Tensorflow2.0介紹: tensorflow是GOOGLE在2015年底發(fā)布的一款深度學(xué)習(xí)框架,也是目前全世界用得最多,發(fā)展最好的深度學(xué)習(xí)框架。2019年3月8日,GOOGLE發(fā)布最新tensorflow2版本。新版本的tensorflow有很多新特征,更快更容易使用更人性化。但是老版的tensorflow程序在新版本中幾乎都無(wú)法繼續(xù)使用,所以我們有必要學(xué)習(xí)新版tensorflow2的新用法。課程介紹: 我們的這門(mén)課程適合小白學(xué)習(xí),也適合有基礎(chǔ)的同學(xué)學(xué)習(xí)。課程會(huì)從0開(kāi)始學(xué)習(xí),從python環(huán)境安裝,python入門(mén),numpy,pandas,matplotlib使用,深度學(xué)習(xí)基礎(chǔ),一直講到tensorflow基礎(chǔ),進(jìn)階,項(xiàng)目實(shí)戰(zhàn)。不管你是0基礎(chǔ)小白,想進(jìn)入AI行業(yè),還是有一定基礎(chǔ),想學(xué)習(xí)最新的tensorflow2的使用,都適合我們這門(mén)課程。講師介紹: 覃秉豐,物理系畢業(yè)轉(zhuǎn)AI行業(yè),想轉(zhuǎn)行同學(xué)可以找我聊聊。機(jī)器學(xué)習(xí)、深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)領(lǐng)域多年研究開(kāi)發(fā)授課經(jīng)驗(yàn),精通算法原理與編程實(shí)踐;曾完成過(guò)多項(xiàng)圖像識(shí)別、目標(biāo)識(shí)別、語(yǔ)音識(shí)別等企業(yè)項(xiàng)目,一線(xiàn)實(shí)戰(zhàn)經(jīng)驗(yàn)豐富;長(zhǎng)期為多家包括世界五百?gòu)?qiáng)在內(nèi)的大型企業(yè)總部做人工智能技術(shù)內(nèi)訓(xùn)服務(wù)(中國(guó)移動(dòng)、中國(guó)銀行,華夏銀行,中國(guó)太平洋,國(guó)家電網(wǎng)、中海油等)。上課特點(diǎn):公式盡量一個(gè)一個(gè)符號(hào)推,代碼盡量一行一行講,希望所有人都能學(xué)有所得。
sklearn與TensorFlow區(qū)別
Kseven的筆記
12-22
1994
sklearn與TensorFlow
Scikit-learn的優(yōu)點(diǎn)
weixin_35751412的博客
01-11
1323
Scikit-learn是一個(gè)基于Python的機(jī)器學(xué)習(xí)庫(kù),它有以下優(yōu)點(diǎn):
易于使用: scikit-learn提供了一個(gè)統(tǒng)一的界面,可以簡(jiǎn)化機(jī)器學(xué)習(xí)任務(wù)的實(shí)現(xiàn)。
高效: scikit-learn內(nèi)部使用了大量?jī)?yōu)化過(guò)的算法, 它可以高效地處理大規(guī)模數(shù)據(jù).
可擴(kuò)展性: scikit-learn提供了大量的可擴(kuò)展性選項(xiàng),如并行計(jì)算, 可以滿(mǎn)足大規(guī)模學(xué)習(xí)的需求.
豐富的文檔和社區(qū)支持: scik...
機(jī)器學(xué)習(xí)筆記
kaku812814843的博客
05-03
3258
機(jī)器學(xué)習(xí)(machine learning):用已有的數(shù)據(jù)訓(xùn)練某種模型,利用模型預(yù)測(cè)未來(lái)
Python機(jī)器學(xué)習(xí)庫(kù)官網(wǎng)https://scikit-learn.org/stable/
機(jī)器學(xué)習(xí)分為有監(jiān)督的機(jī)器學(xué)習(xí)和無(wú)監(jiān)督的機(jī)器學(xué)習(xí)
有監(jiān)督的機(jī)器學(xué)習(xí):回歸、分類(lèi)
無(wú)監(jiān)督的機(jī)器學(xué)習(xí):聚類(lèi)、降維
numpy數(shù)學(xué)計(jì)算框架
scipy物理計(jì)算框架
pandas數(shù)據(jù)分析框架
matplotlib...
“機(jī)器學(xué)習(xí)與深度學(xué)習(xí)”簡(jiǎn)要介紹與深度學(xué)習(xí)Hello World
zcc450959507的博客
07-10
954
前言
博主也是自己從零開(kāi)始自學(xué)的,因?yàn)楦信d趣,所以使用工作外的零散時(shí)間堅(jiān)持學(xué)了下來(lái),大概一年時(shí)間了,博主主要工作是工程相關(guān)的。認(rèn)為自己還是嘍啰,整理這篇博客的目的是為了整理一下自己之前學(xué)的一些東西,也希望能對(duì)感興趣想自學(xué)的同學(xué)們有一點(diǎn)點(diǎn)幫助,里面可能有謬誤地方,也望指正。
機(jī)器學(xué)習(xí)定義
機(jī)器學(xué)習(xí)研究的是計(jì)算機(jī)怎樣模擬人類(lèi)的學(xué)習(xí)行為,以獲取新的知識(shí)或技能,并重新組織已有的知識(shí)結(jié)構(gòu)使之不斷改善自身。簡(jiǎn)...
機(jī)器學(xué)習(xí)實(shí)戰(zhàn)(用Scikit-learn和TensorFlow進(jìn)行機(jī)器學(xué)習(xí))(一)
fjl_CSDN的博客
12-31
1萬(wàn)+
一、簡(jiǎn)介??Scikit-learn集成了很多機(jī)器學(xué)習(xí)需要使用的函數(shù),學(xué)習(xí)Scikit-learn能簡(jiǎn)潔、快速寫(xiě)出機(jī)器學(xué)習(xí)程序。本文章主要是對(duì)真實(shí)數(shù)據(jù)進(jìn)行實(shí)戰(zhàn),手把手帶你走一遍使用機(jī)器學(xué)習(xí)對(duì)真實(shí)數(shù)據(jù)進(jìn)行處理的全過(guò)程。并且通過(guò)代碼更加深入的了解機(jī)器學(xué)習(xí)模型,學(xué)習(xí)如何處理數(shù)據(jù),如何選擇模型,如何選擇和調(diào)整模型參數(shù)。
二、配置必要的環(huán)境1、推薦安裝Anaconda(集成Python和很多有用的P
【翻譯】Sklearn與TensorFlow機(jī)器學(xué)習(xí)實(shí)用指南 —— 第16章 強(qiáng)化學(xué)習(xí)(下)
weixin_33716941的博客
07-10
249
時(shí)間差分學(xué)習(xí)與 Q 學(xué)習(xí)
具有離散動(dòng)作的強(qiáng)化學(xué)習(xí)問(wèn)題通??梢员唤轳R爾可夫決策過(guò)程,但是智能體最初不知道轉(zhuǎn)移概率是什么(它不知道T),并且它不知道獎(jiǎng)勵(lì)會(huì)是什么(它不知道R)。它必須經(jīng)歷每一個(gè)狀態(tài)和每一次轉(zhuǎn)變并且至少知道一次獎(jiǎng)勵(lì),并且如果要對(duì)轉(zhuǎn)移概率進(jìn)行合理的估計(jì),就必須經(jīng)歷多次。
時(shí)間差分學(xué)習(xí)(TD 學(xué)習(xí))算法與數(shù)值迭代算法非常類(lèi)似,但考慮到智能體僅具...
#第18篇分享:python機(jī)器學(xué)習(xí)-sklearn簡(jiǎn)介(初識(shí)0)
weixin_46008828的博客
12-28
477
#python機(jī)器學(xué)習(xí)-sklearn學(xué)習(xí)筆記:
1.sklearn做什么的:
2.與其他模塊的區(qū)別:
3.了解一下各個(gè)部分:
#持續(xù)更,,,,,,,
Sklearn 與 TensorFlow 機(jī)器學(xué)習(xí)實(shí)用指南——第七章總結(jié)
yanying1113的博客
01-12
680
Sklearn 與 TensorFlow 機(jī)器學(xué)習(xí)實(shí)用指南——第七章總結(jié)投票分類(lèi)Bagging 和 Pasting在 sklearn 中的 Bagging 和 PastingOut-of-Bag 評(píng)價(jià)隨機(jī)森林特征重要度提升(boosting)Adaboost梯度提升Stacking習(xí)題
本章主要講解了幾種集成方法,包括 bagging, boosting, stacking,和其他一些算法。參考地...
Python機(jī)器學(xué)習(xí):Scikit-learn和TensorFlow的應(yīng)用和模型設(shè)計(jì)
baidu_38876334的博客
05-14
1047
本文介紹了Python機(jī)器學(xué)習(xí)中的一些常用算法和技術(shù),包括Scikit-learn和TensorFlow的應(yīng)用、數(shù)據(jù)預(yù)處理、模型訓(xùn)練和評(píng)估、模型設(shè)計(jì)等。Scikit-learn和TensorFlow是Python中應(yīng)用最廣泛的兩個(gè)機(jī)器學(xué)習(xí)庫(kù),它們提供了豐富的機(jī)器學(xué)習(xí)算法和工具,幫助開(kāi)發(fā)人員輕松地構(gòu)建和訓(xùn)練機(jī)器學(xué)習(xí)模型。數(shù)據(jù)增強(qiáng)是一種通過(guò)對(duì)原始數(shù)據(jù)進(jìn)行一系列變換來(lái)生成新的訓(xùn)練數(shù)據(jù)的方法,它可以擴(kuò)充數(shù)據(jù)集的規(guī)模,從而提高模型的性能。一個(gè)好的模型可以提高算法的性能,而一個(gè)不好的模型則會(huì)影響算法的表現(xiàn)。
TensorFlow2.0入門(mén)到進(jìn)階2.17 —— 超參數(shù)搜索sklearn封裝keras模型及超參數(shù)搜索
caoyuan666的博客
05-05
969
文章目錄1、理論原理2、sklearn封裝keras模型3、sklearn超參數(shù)搜索4、結(jié)果顯示
1、理論原理
超參數(shù)搜索:
https://blog.csdn.net/caoyuan666/article/details/105933836
2、sklearn封裝keras模型
1、轉(zhuǎn)化為sklearn的model
2、定義參數(shù)集合
3、搜索參數(shù)
def build_model(hidden...
python中的深度學(xué)習(xí)庫(kù)sklearn、tensorflow、pytorch有什么關(guān)聯(lián)和區(qū)別
04-29
sklearn、tensorflow、pytorch都是Python中的深度學(xué)習(xí)庫(kù),但是它們的職責(zé)和功能各不相同。
sklearn是Python中最常用的機(jī)器學(xué)習(xí)庫(kù)之一,它提供了各種各樣的機(jī)器學(xué)習(xí)算法,包括分類(lèi)、回歸、聚類(lèi)、降維等,同時(shí)也提供了數(shù)據(jù)預(yù)處理、特征提取等功能,可以說(shuō)是一個(gè)較為全面的機(jī)器學(xué)習(xí)庫(kù)。
TensorFlow是由Google開(kāi)發(fā)的一個(gè)開(kāi)源的深度學(xué)習(xí)庫(kù),它的主要功能是搭建、訓(xùn)練和部署深度學(xué)習(xí)模型。TensorFlow的最大優(yōu)勢(shì)是它的計(jì)算圖模型,可以高效地運(yùn)行大規(guī)模的深度學(xué)習(xí)模型,也提供了各種各樣的神經(jīng)網(wǎng)絡(luò)層和優(yōu)化算法,可以幫助開(kāi)發(fā)者輕松地構(gòu)建深度學(xué)習(xí)模型。
PyTorch是由Facebook開(kāi)發(fā)的深度學(xué)習(xí)框架,它的主要特點(diǎn)是動(dòng)態(tài)圖模型,在模型構(gòu)建的過(guò)程中可以進(jìn)行動(dòng)態(tài)計(jì)算,這使得模型的構(gòu)建和調(diào)試更加方便。PyTorch也提供了各種各樣的神經(jīng)網(wǎng)絡(luò)層和優(yōu)化算法,同時(shí)也支持分布式訓(xùn)練和部署。
總的來(lái)說(shuō),sklearn主要是機(jī)器學(xué)習(xí)方面的庫(kù),TensorFlow和PyTorch則是深度學(xué)習(xí)方面的庫(kù),它們的職責(zé)和功能各不相同,開(kāi)發(fā)者需要根據(jù)自己的需求來(lái)選擇合適的庫(kù)。
“相關(guān)推薦”對(duì)你有幫助么?
非常沒(méi)幫助
沒(méi)幫助
一般
有幫助
非常有幫助
提交
SDRAG0N
CSDN認(rèn)證博客專(zhuān)家
CSDN認(rèn)證企業(yè)博客
碼齡6年
暫無(wú)認(rèn)證
38
原創(chuàng)
11萬(wàn)+
周排名
160萬(wàn)+
總排名
5萬(wàn)+
訪(fǎng)問(wèn)
等級(jí)
504
積分
6
粉絲
59
獲贊
16
評(píng)論
202
收藏
私信
關(guān)注
熱門(mén)文章
安裝 scikit-learn之先安裝numpy、SciPy、joblib之各種跳坑
5420
Hadoop的三種運(yùn)行模式(啟動(dòng)模式)
4288
matlab GUI設(shè)置背景圖及添加logo
4203
解決pip安裝scikit-learn 速度慢的問(wèn)題
3939
JAVA實(shí)現(xiàn)接口創(chuàng)建對(duì)象時(shí),為什么用接口來(lái)引用對(duì)象而不是類(lèi)
3729
分類(lèi)專(zhuān)欄
Python
2篇
matlab
3篇
LeetCode
11篇
JAVA
26篇
NOSQL
1篇
大數(shù)據(jù)
2篇
小妙招
1篇
Debug
1篇
人工智能
1篇
最新評(píng)論
idea new無(wú)Servlet 詳解
qq_30513217:
安裝新版idea的用這個(gè)辦法解決不了的,需要在editor-》file and code templates里新增模板
JAVA實(shí)現(xiàn)接口創(chuàng)建對(duì)象時(shí),為什么用接口來(lái)引用對(duì)象而不是類(lèi)
MyY_DO:
接口對(duì)象 接受 實(shí)現(xiàn)方法
利于只調(diào)用接口方法
更換方法的時(shí)候可以直接修改 接口實(shí)現(xiàn)
利于復(fù)用
解決pip安裝scikit-learn 速度慢的問(wèn)題
Jan Ford:
pip install scikit-learn -i http://pypi.douban.com/simple --trusted-host pypi.douban.com
idea new無(wú)Servlet 詳解
張飛南昌分飛:
pom xml在哪里
安裝 scikit-learn之先安裝numpy、SciPy、joblib之各種跳坑
Any.952:
先安裝sklearn然后再安裝SciPy會(huì)怎么樣啊
您愿意向朋友推薦“博客詳情頁(yè)”嗎?
強(qiáng)烈不推薦
不推薦
一般般
推薦
強(qiáng)烈推薦
提交
最新文章
MATLAB 讀取mysql中文亂碼
JAVA翻轉(zhuǎn)鏈表
移除鏈表元素
2022年14篇
2021年23篇
2020年4篇
目錄
目錄
分類(lèi)專(zhuān)欄
Python
2篇
matlab
3篇
LeetCode
11篇
JAVA
26篇
NOSQL
1篇
大數(shù)據(jù)
2篇
小妙招
1篇
Debug
1篇
人工智能
1篇
目錄
評(píng)論
被折疊的??條評(píng)論
為什么被折疊?
到【灌水樂(lè)園】發(fā)言
查看更多評(píng)論
添加紅包
祝福語(yǔ)
請(qǐng)?zhí)顚?xiě)紅包祝福語(yǔ)或標(biāo)題
紅包數(shù)量
個(gè)
紅包個(gè)數(shù)最小為10個(gè)
紅包總金額
元
紅包金額最低5元
余額支付
當(dāng)前余額3.43元
前往充值 >
需支付:10.00元
取消
確定
下一步
知道了
成就一億技術(shù)人!
領(lǐng)取后你會(huì)自動(dòng)成為博主和紅包主的粉絲
規(guī)則
hope_wisdom 發(fā)出的紅包
實(shí)付元
使用余額支付
點(diǎn)擊重新獲取
掃碼支付
錢(qián)包余額
0
抵扣說(shuō)明:
1.余額是錢(qián)包充值的虛擬貨幣,按照1:1的比例進(jìn)行支付金額的抵扣。 2.余額無(wú)法直接購(gòu)買(mǎi)下載,可以購(gòu)買(mǎi)VIP、付費(fèi)專(zhuān)欄及課程。
余額充值
sklearn 和tensorflow的區(qū)別_tensorflow和sklearn區(qū)別-CSDN博客
>sklearn 和tensorflow的區(qū)別_tensorflow和sklearn區(qū)別-CSDN博客
sklearn 和tensorflow的區(qū)別
最新推薦文章于?2023-12-20 02:40:15?發(fā)布
Mingsheng Zhang
最新推薦文章于?2023-12-20 02:40:15?發(fā)布
閱讀量1.8w
收藏
95
點(diǎn)贊數(shù)
41
轉(zhuǎn)自:https://www.cnblogs.com/lixuejian/p/10562092.html
1、功能不同
Scikit-learn(sklearn)的定位是通用機(jī)器學(xué)習(xí)庫(kù),而TensorFlow(tf)的定位主要是深度學(xué)習(xí)庫(kù)。一個(gè)顯而易見(jiàn)的不同:tf并未提供sklearn那種強(qiáng)大的特征工程,如維度壓縮、特征選擇等。究其根本,我認(rèn)為是因?yàn)闄C(jī)器學(xué)習(xí)模型的兩種不同的處理數(shù)據(jù)的方式:
傳統(tǒng)機(jī)器學(xué)習(xí):利用特征工程(feature engineering),人為對(duì)數(shù)據(jù)進(jìn)行提煉清洗深度學(xué)習(xí):利用表示學(xué)習(xí)(representation learning),機(jī)器學(xué)習(xí)模型自身對(duì)數(shù)據(jù)進(jìn)行提煉
sklearn更傾向于使用者可以自行對(duì)數(shù)據(jù)進(jìn)行處理,比如選擇特征、壓縮維度、轉(zhuǎn)換格式,是傳統(tǒng)機(jī)器學(xué)習(xí)庫(kù)。而以tf為代表的深度學(xué)習(xí)庫(kù)會(huì)自動(dòng)從數(shù)據(jù)中抽取有效特征,而不需要人為的來(lái)做這件事情,因此并未提供類(lèi)似的功能。
2、使用自由度不同
sklearn 中的模塊都是高度抽象化的,所有的分類(lèi)器基本都可以在3-5行內(nèi)完成,所有的轉(zhuǎn)換器(如scaler和transformer)也都有固定的格式。這種抽 象化限制了使用者的自由度,但增加了模型的效率,降低了批量化、標(biāo)準(zhǔn)化的的難度(通過(guò)使用pipeline)。
clf = svm.SVC() # 初始化一個(gè)分類(lèi)器
clf.fit(X_train, y_train) # 訓(xùn)練分類(lèi)器
y_predict = clf.predict(X_test) # 使用訓(xùn)練好的分類(lèi)器進(jìn)行預(yù)測(cè)
?
而tf不同,雖然是深度學(xué)習(xí)庫(kù),但它有很高的自由度。你依然可以用它做傳統(tǒng)機(jī)器學(xué)習(xí)所做的事情,代價(jià)是你需要自己實(shí)現(xiàn)算法。因此用tf類(lèi)比sklearn不適合,封裝在tf等工具庫(kù)上的keras[2]才更像深度學(xué)習(xí)界的sklearn。 從自由度角度來(lái)看,tf更高;從抽象化、封裝程度來(lái)看,sklearn更高;從易用性角度來(lái)看,sklearn更高。
3、針對(duì)的群體、項(xiàng)目不同
sklearn主要適合中小型的、實(shí)用機(jī)器學(xué)習(xí)項(xiàng)目,尤其是那種數(shù)據(jù)量不大且需要使用者手動(dòng)對(duì)數(shù)據(jù)進(jìn)行處理,并選擇合適模型的項(xiàng)目。這類(lèi)項(xiàng)目往往在CPU上就可以完成,對(duì)硬件要求低。tf主要適合已經(jīng)明確了解需要用深度學(xué)習(xí),且數(shù)據(jù)處理需求不高的項(xiàng)目。這類(lèi)項(xiàng)目往往數(shù)據(jù)量較大,且最終需要的精度更高,一般都需要GPU加速運(yùn)算。對(duì)于深度學(xué)習(xí)做“小樣”可以在采樣的小數(shù)據(jù)集上用keras做快速的實(shí)驗(yàn),沒(méi)了解的過(guò)朋友看一下keras的示例代碼,就可以了解為什么keras堪比深度學(xué)習(xí)上的sklearn了。
model = Sequential() # 定義模型
model.add(Dense(units=64, activation='relu', input_dim=100)) # 定義網(wǎng)絡(luò)結(jié)構(gòu)
model.add(Dense(units=10, activation='softmax')) # 定義網(wǎng)絡(luò)結(jié)構(gòu)
model.compile(loss='categorical_crossentropy', # 定義loss函數(shù)、優(yōu)化方法、評(píng)估標(biāo)準(zhǔn)
optimizer='sgd',
metrics=['accuracy'])
model.fit(x_train, y_train, epochs=5, batch_size=32) # 訓(xùn)練模型
loss_and_metrics = model.evaluate(x_test, y_test, batch_size=128) # 評(píng)估模型
classes = model.predict(x_test, batch_size=128) # 使用訓(xùn)練好的數(shù)據(jù)進(jìn)行預(yù)測(cè)
?
不難看出,sklearn和tf有很大區(qū)別。雖然sklearn中也有神經(jīng)網(wǎng)絡(luò)模塊,但做嚴(yán)肅的、大型的深度學(xué)習(xí)是不可能依靠sklearn的。雖然tf也可以用于做傳統(tǒng)的機(jī)器學(xué)習(xí)、包括清理數(shù)據(jù),但往往事倍功半。
4、scikit-learn&tensorflow結(jié)合使用
更常見(jiàn)的情況下,可以把sklearn和tf,甚至keras結(jié)合起來(lái)使用。sklearn肩負(fù)基本的數(shù)據(jù)清理任務(wù),keras用于對(duì)問(wèn)題進(jìn)行小規(guī)模實(shí)驗(yàn)驗(yàn)證想法,而tf用于在完整的的數(shù)據(jù)上進(jìn)行嚴(yán)肅的調(diào)參(煉丹)任務(wù)。 而單獨(dú)把sklearn拿出來(lái)看的話(huà),它的文檔做的特別好,初學(xué)者跟著看一遍sklearn支持的功能大概就對(duì)機(jī)器學(xué)習(xí)包括的很多內(nèi)容有了基本的了解。舉個(gè)簡(jiǎn)單的例子,sklearn很多時(shí)候?qū)为?dú)的知識(shí)點(diǎn)有概述,比如簡(jiǎn)單的異常檢測(cè)。因此,sklearn不僅僅是簡(jiǎn)單的工具庫(kù),它的文檔更像是一份簡(jiǎn)單的新手入門(mén)指南。 因此,以sklearn為代表的傳統(tǒng)機(jī)器學(xué)習(xí)庫(kù)(如瑞士軍刀般的萬(wàn)能但高度抽象),和以tf為代表的自由靈活更具有針對(duì)性的深度學(xué)習(xí)庫(kù)(如樂(lè)高般高度自由但使用繁瑣)都是機(jī)器學(xué)習(xí)者必須要了解的工具。
不過(guò)sklearn 還是很有 必要學(xué)習(xí)的
理論上來(lái)說(shuō),深度學(xué)習(xí)技術(shù)也是機(jī)器學(xué)習(xí)的一個(gè)組成部分,學(xué)習(xí)其他傳統(tǒng)機(jī)器學(xué)習(xí)方法對(duì)深入理解深度學(xué)習(xí)技術(shù)有很大幫助,知道模型凸的條件,才能更好的理解神 經(jīng)網(wǎng)絡(luò)的非凸。知道傳統(tǒng)模型的優(yōu)點(diǎn),才能更好的理解深度學(xué)習(xí)并不是萬(wàn)能的,也有很多問(wèn)題和場(chǎng)景直接使用深度學(xué)習(xí)方法會(huì)遇到瓶頸和問(wèn)題,需要傳統(tǒng)方法來(lái)解 決。 從實(shí)踐上來(lái)說(shuō),深度學(xué)習(xí)方法一般需要大量GPU機(jī)器,工業(yè)界哪怕大公司的GPU資源也是有限的,一般只有深度學(xué)習(xí)方法效果遠(yuǎn)好于傳統(tǒng)方法并且 對(duì)業(yè)務(wù)提升很大的情況下,才會(huì)考慮使用深度學(xué)習(xí)方法,例如語(yǔ)音識(shí)別,圖像識(shí)別等任務(wù)現(xiàn)在深度學(xué)習(xí)方法用的比較多,而NLP領(lǐng)域除了機(jī)器翻譯以外,其他大部 分任務(wù)仍然更常使用傳統(tǒng)方法。傳統(tǒng)方法一般有著更好的可解釋性,這對(duì)檢查調(diào)試模型也是非常有幫助的。工業(yè)上一般喜歡招能解決問(wèn)題的人,而不是掌握最火技術(shù) 的人,因此在了解深度學(xué)習(xí)技術(shù)的同時(shí),學(xué)習(xí)一下傳統(tǒng)方法是很有好處的。
結(jié)尾
說(shuō)實(shí)話(huà),即使現(xiàn)在深度學(xué)習(xí)大行其道,很多時(shí)候你還是要用傳統(tǒng)機(jī)器學(xué)習(xí)方法解決問(wèn)題的。首先不是每個(gè)人都有一個(gè)彪悍的電腦/服務(wù)器,其次,大多數(shù)問(wèn)題真的不需要深度網(wǎng)絡(luò)。最后,只會(huì)調(diào)用工具包的程序員不是好的機(jī)器學(xué)習(xí)者。
優(yōu)惠劵
Mingsheng Zhang
關(guān)注
關(guān)注
41
點(diǎn)贊
踩
95
收藏
覺(jué)得還不錯(cuò)?
一鍵收藏
知道了
2
評(píng)論
sklearn 和tensorflow的區(qū)別
轉(zhuǎn)自:https://www.cnblogs.com/lixuejian/p/10562092.html1、功能不同Scikit-learn(sklearn)的定位是通用機(jī)器學(xué)習(xí)庫(kù),而TensorFlow(tf)的定位主要是深度學(xué)習(xí)庫(kù)。一個(gè)顯而易見(jiàn)的不同:tf并未提供sklearn那種強(qiáng)大的特征工程,如維度壓縮、特征選擇等。究其根本,我認(rèn)為是因?yàn)闄C(jī)器學(xué)習(xí)模型的兩種不同的處理數(shù)據(jù)的方式:...
復(fù)制鏈接
掃一掃
Sklearn 與 TensorFlow 機(jī)器學(xué)習(xí)實(shí)用指南_機(jī)器學(xué)習(xí)_
09-30
Sklearn 與 TensorFlow 機(jī)器學(xué)習(xí)實(shí)用指南
Python-數(shù)據(jù)科學(xué)筆記本分類(lèi)任務(wù)使用sklearn和Tensorflow實(shí)現(xiàn)
08-10
數(shù)據(jù)科學(xué)筆記本分類(lèi)任務(wù),使用sklearn和Tensorflow實(shí)現(xiàn)
2?條評(píng)論
您還未登錄,請(qǐng)先
登錄
后發(fā)表或查看評(píng)論
sklearn和tensorflow的理解
最新發(fā)布
影子
12-20
839
深度神經(jīng)網(wǎng)絡(luò)(DNN)是一種多層無(wú)監(jiān)督神經(jīng)網(wǎng)絡(luò),并且將上一層的輸出特征作為下一層的輸入進(jìn)行特征學(xué)習(xí),通過(guò)逐層特征映射后,將現(xiàn)有空間樣本的特征映射到另一個(gè)特征空間,以此來(lái)學(xué)習(xí)對(duì)現(xiàn)有輸入具有更好的特征表達(dá)。每一層之前是完全連接的,整體上看是復(fù)雜的,但從局部來(lái)看,實(shí)質(zhì)上還是感知機(jī)模型。,比如選擇特征、壓縮維度、轉(zhuǎn)換格式,是傳統(tǒng)機(jī)器學(xué)習(xí)庫(kù),SKLearn中,因?yàn)樽隽松蠈拥姆庋b,分類(lèi)模型、回歸模型、聚類(lèi)與降維模型、預(yù)處理器等等都叫做估計(jì)器(estimator)的訓(xùn)練機(jī)制,而不是采用傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的。
機(jī)器學(xué)習(xí)sklearn 和tensorflow 的資料總結(jié)
11-23
機(jī)器學(xué)習(xí)大佬總結(jié)的資料,其中包括sklearn 和tensorflow 框架的介紹,和常見(jiàn)算法的介紹,歡迎下載。
hands on machine learning with sklearn and tensorflow
04-10
機(jī)器學(xué)習(xí)sklearn 與tensorflow使用的入門(mén)教程
機(jī)器學(xué)習(xí)sklearn 與tensorflow使用的入門(mén)教程機(jī)器學(xué)習(xí)sklearn 與tensorflow使用的入門(mén)教程機(jī)器學(xué)習(xí)sklearn 與tensorflow使用的入門(mén)教程
sklearn、TensorFlow以及自編函數(shù)(AnFany)的ML算法程序
01-02
sklearn、TensorFlow以及自編函數(shù)(AnFany)的ML算法程序
Tensorflow2項(xiàng)目實(shí)戰(zhàn)課程
03-14
Tensorflow2.0介紹: tensorflow是GOOGLE在2015年底發(fā)布的一款深度學(xué)習(xí)框架,也是目前全世界用得最多,發(fā)展最好的深度學(xué)習(xí)框架。2019年3月8日,GOOGLE發(fā)布最新tensorflow2版本。新版本的tensorflow有很多新特征,更快更容易使用更人性化。但是老版的tensorflow程序在新版本中幾乎都無(wú)法繼續(xù)使用,所以我們有必要學(xué)習(xí)新版tensorflow2的新用法。課程介紹: 我們的這門(mén)課程適合小白學(xué)習(xí),也適合有基礎(chǔ)的同學(xué)學(xué)習(xí)。課程會(huì)從0開(kāi)始學(xué)習(xí),從python環(huán)境安裝,python入門(mén),numpy,pandas,matplotlib使用,深度學(xué)習(xí)基礎(chǔ),一直講到tensorflow基礎(chǔ),進(jìn)階,項(xiàng)目實(shí)戰(zhàn)。不管你是0基礎(chǔ)小白,想進(jìn)入AI行業(yè),還是有一定基礎(chǔ),想學(xué)習(xí)最新的tensorflow2的使用,都適合我們這門(mén)課程。講師介紹: 覃秉豐,物理系畢業(yè)轉(zhuǎn)AI行業(yè),想轉(zhuǎn)行同學(xué)可以找我聊聊。機(jī)器學(xué)習(xí)、深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)領(lǐng)域多年研究開(kāi)發(fā)授課經(jīng)驗(yàn),精通算法原理與編程實(shí)踐;曾完成過(guò)多項(xiàng)圖像識(shí)別、目標(biāo)識(shí)別、語(yǔ)音識(shí)別等企業(yè)項(xiàng)目,一線(xiàn)實(shí)戰(zhàn)經(jīng)驗(yàn)豐富;長(zhǎng)期為多家包括世界五百?gòu)?qiáng)在內(nèi)的大型企業(yè)總部做人工智能技術(shù)內(nèi)訓(xùn)服務(wù)(中國(guó)移動(dòng)、中國(guó)銀行,華夏銀行,中國(guó)太平洋,國(guó)家電網(wǎng)、中海油等)。上課特點(diǎn):公式盡量一個(gè)一個(gè)符號(hào)推,代碼盡量一行一行講,希望所有人都能學(xué)有所得。
【轉(zhuǎn)載】scikit-learn和tensorflow的區(qū)別
mxs1123的博客
10-18
1234
https://www.jianshu.com/p/0837b7c6ce10
1、功能不同
Scikit-learn(sklearn)的定位是通用機(jī)器學(xué)習(xí)庫(kù),而TensorFlow(tf)的定位主要是深度學(xué)習(xí)庫(kù)。一個(gè)顯而易見(jiàn)的不同:tf并未提供sklearn那種強(qiáng)大的特征工程,如維度壓縮、特征選擇等。究其根本,我認(rèn)為是因?yàn)闄C(jī)器學(xué)習(xí)模型的兩種不同的處理數(shù)據(jù)的方式:
傳統(tǒng)機(jī)器學(xué)習(xí):利用特征工程(...
sklearn和tensorflow
qq_43544736的博客
01-08
786
sklearn是python中的一個(gè)機(jī)器學(xué)習(xí)庫(kù),封裝了大量機(jī)器學(xué)習(xí)算法,同時(shí)也內(nèi)置了數(shù)據(jù)集;tensorflow是一個(gè)編程系統(tǒng),是一種計(jì)算圖模型,即用圖的形式來(lái)表示運(yùn)算過(guò)程的一種模型,在Python語(yǔ)言中,返回的tensor是NumPy中的ndarray對(duì)象。
ML/DL科普向:從Sklearn到TensorFlow
木東居士
07-08
575
本文為數(shù)據(jù)茶水間群友原創(chuàng),經(jīng)授權(quán)在本公眾號(hào)發(fā)表。關(guān)于作者:Japson,職場(chǎng)新人。某人工智能公司AI平臺(tái)研發(fā)工程師,專(zhuān)注于A(yíng)I工程化及場(chǎng)景落地。持續(xù)學(xué)習(xí)中,期望與大家多多...
sklearn與TensorFlow區(qū)別
Kseven的筆記
12-22
1994
sklearn與TensorFlow
caffe安裝_深度框架比較TensorFlow,Theano,Caffe,Sklearn,Keras(少走彎路
weixin_39642998的博客
11-02
149
TheanoTheano在深度學(xué)習(xí)框架中是祖師級(jí)的存在。Theano基于Python語(yǔ)言開(kāi)發(fā)的,是一個(gè)擅長(zhǎng)處理多維數(shù)組的庫(kù),這一點(diǎn)和numpy很像。當(dāng)與其他深度學(xué)習(xí)庫(kù)結(jié)合起來(lái),它十分適合數(shù)據(jù)探索。它為執(zhí)行深度學(xué)習(xí)中大規(guī)模神經(jīng)網(wǎng)絡(luò)算法的運(yùn)算所設(shè)計(jì)。其實(shí),它可以被更好的理解為一個(gè)數(shù)學(xué)表達(dá)式的編輯器:用符號(hào)式語(yǔ)言定義你想要的結(jié)果,該框架會(huì)對(duì)你的程序進(jìn)行編譯,來(lái)高效運(yùn)行于GPU或CPU。它與后來(lái)出現(xiàn)的Te...
機(jī)器學(xué)習(xí)工具 sklearn與tensorflow優(yōu)劣勢(shì)
qq_41359254的博客
03-27
2133
什么是sklearn
Sklearn原稱(chēng)是Scikit learn,是機(jī)器學(xué)習(xí)領(lǐng)域中最知名的python模塊之一,是基于Python語(yǔ)言的機(jī)器學(xué)習(xí)的工具。他主要建立在NumPy,SciPy,matplotlib之上,提供簡(jiǎn)單高效,用于數(shù)據(jù)挖掘,數(shù)據(jù)分析等的工具,最重要的是,他是開(kāi)源的,基于BSD許可證,可以商業(yè)使用。這樣子,就給了我們無(wú)限的想象。
sklearn與tensorflow優(yōu)劣勢(shì)
目前,在社區(qū)中,tensorflow會(huì)比較火,很多同學(xué)會(huì)問(wèn),為什么不用tensorflow,這兩個(gè)有什么區(qū)別,我想,主
Python機(jī)器學(xué)習(xí):Scikit-learn和TensorFlow的應(yīng)用和模型設(shè)計(jì)
baidu_38876334的博客
05-14
1047
本文介紹了Python機(jī)器學(xué)習(xí)中的一些常用算法和技術(shù),包括Scikit-learn和TensorFlow的應(yīng)用、數(shù)據(jù)預(yù)處理、模型訓(xùn)練和評(píng)估、模型設(shè)計(jì)等。Scikit-learn和TensorFlow是Python中應(yīng)用最廣泛的兩個(gè)機(jī)器學(xué)習(xí)庫(kù),它們提供了豐富的機(jī)器學(xué)習(xí)算法和工具,幫助開(kāi)發(fā)人員輕松地構(gòu)建和訓(xùn)練機(jī)器學(xué)習(xí)模型。數(shù)據(jù)增強(qiáng)是一種通過(guò)對(duì)原始數(shù)據(jù)進(jìn)行一系列變換來(lái)生成新的訓(xùn)練數(shù)據(jù)的方法,它可以擴(kuò)充數(shù)據(jù)集的規(guī)模,從而提高模型的性能。一個(gè)好的模型可以提高算法的性能,而一個(gè)不好的模型則會(huì)影響算法的表現(xiàn)。
#第18篇分享:python機(jī)器學(xué)習(xí)-sklearn簡(jiǎn)介(初識(shí)0)
weixin_46008828的博客
12-28
477
#python機(jī)器學(xué)習(xí)-sklearn學(xué)習(xí)筆記:
1.sklearn做什么的:
2.與其他模塊的區(qū)別:
3.了解一下各個(gè)部分:
#持續(xù)更,,,,,,,
機(jī)器學(xué)習(xí)實(shí)戰(zhàn)(用Scikit-learn和TensorFlow進(jìn)行機(jī)器學(xué)習(xí))(一)
熱門(mén)推薦
fjl_CSDN的博客
12-31
1萬(wàn)+
一、簡(jiǎn)介??Scikit-learn集成了很多機(jī)器學(xué)習(xí)需要使用的函數(shù),學(xué)習(xí)Scikit-learn能簡(jiǎn)潔、快速寫(xiě)出機(jī)器學(xué)習(xí)程序。本文章主要是對(duì)真實(shí)數(shù)據(jù)進(jìn)行實(shí)戰(zhàn),手把手帶你走一遍使用機(jī)器學(xué)習(xí)對(duì)真實(shí)數(shù)據(jù)進(jìn)行處理的全過(guò)程。并且通過(guò)代碼更加深入的了解機(jī)器學(xué)習(xí)模型,學(xué)習(xí)如何處理數(shù)據(jù),如何選擇模型,如何選擇和調(diào)整模型參數(shù)。
二、配置必要的環(huán)境1、推薦安裝Anaconda(集成Python和很多有用的P
Sklearn 與 TensorFlow 機(jī)器學(xué)習(xí)實(shí)用指南——第七章總結(jié)
yanying1113的博客
01-12
680
Sklearn 與 TensorFlow 機(jī)器學(xué)習(xí)實(shí)用指南——第七章總結(jié)投票分類(lèi)Bagging 和 Pasting在 sklearn 中的 Bagging 和 PastingOut-of-Bag 評(píng)價(jià)隨機(jī)森林特征重要度提升(boosting)Adaboost梯度提升Stacking習(xí)題
本章主要講解了幾種集成方法,包括 bagging, boosting, stacking,和其他一些算法。參考地...
【翻譯】Sklearn與TensorFlow機(jī)器學(xué)習(xí)實(shí)用指南 —— 第16章 強(qiáng)化學(xué)習(xí)(下)
weixin_33716941的博客
07-10
249
時(shí)間差分學(xué)習(xí)與 Q 學(xué)習(xí)
具有離散動(dòng)作的強(qiáng)化學(xué)習(xí)問(wèn)題通??梢员唤轳R爾可夫決策過(guò)程,但是智能體最初不知道轉(zhuǎn)移概率是什么(它不知道T),并且它不知道獎(jiǎng)勵(lì)會(huì)是什么(它不知道R)。它必須經(jīng)歷每一個(gè)狀態(tài)和每一次轉(zhuǎn)變并且至少知道一次獎(jiǎng)勵(lì),并且如果要對(duì)轉(zhuǎn)移概率進(jìn)行合理的估計(jì),就必須經(jīng)歷多次。
時(shí)間差分學(xué)習(xí)(TD 學(xué)習(xí))算法與數(shù)值迭代算法非常類(lèi)似,但考慮到智能體僅具...
TensorFlow2.0入門(mén)到進(jìn)階2.17 —— 超參數(shù)搜索sklearn封裝keras模型及超參數(shù)搜索
caoyuan666的博客
05-05
969
文章目錄1、理論原理2、sklearn封裝keras模型3、sklearn超參數(shù)搜索4、結(jié)果顯示
1、理論原理
超參數(shù)搜索:
https://blog.csdn.net/caoyuan666/article/details/105933836
2、sklearn封裝keras模型
1、轉(zhuǎn)化為sklearn的model
2、定義參數(shù)集合
3、搜索參數(shù)
def build_model(hidden...
sklearn和tensorflow區(qū)別
03-16
scikit-learn(簡(jiǎn)稱(chēng)sklearn)和TensorFlow是兩個(gè)不同的機(jī)器學(xué)習(xí)庫(kù)。sklearn主要用于傳統(tǒng)機(jī)器學(xué)習(xí)算法,如線(xiàn)性回歸、邏輯回歸、決策樹(shù)、支持向量機(jī)等。而TensorFlow則主要用于深度學(xué)習(xí)算法,如卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、自編碼器等。sklearn的API相對(duì)簡(jiǎn)單易用,適合初學(xué)者入門(mén);而TensorFlow則需要一定的編程基礎(chǔ)和數(shù)學(xué)知識(shí),適合有一定經(jīng)驗(yàn)的開(kāi)發(fā)者。此外,TensorFlow還支持GPU加速,可以大大提高深度學(xué)習(xí)算法的訓(xùn)練速度。
“相關(guān)推薦”對(duì)你有幫助么?
非常沒(méi)幫助
沒(méi)幫助
一般
有幫助
非常有幫助
提交
Mingsheng Zhang
CSDN認(rèn)證博客專(zhuān)家
CSDN認(rèn)證企業(yè)博客
碼齡6年
暫無(wú)認(rèn)證
80
原創(chuàng)
3萬(wàn)+
周排名
76萬(wàn)+
總排名
75萬(wàn)+
訪(fǎng)問(wèn)
等級(jí)
5739
積分
195
粉絲
596
獲贊
102
評(píng)論
2242
收藏
私信
關(guān)注
分類(lèi)專(zhuān)欄
進(jìn)化算法
3篇
數(shù)學(xué)
5篇
python技術(shù)
6篇
SQL
7篇
機(jī)器學(xué)習(xí)算法
6篇
計(jì)算機(jī)操作基礎(chǔ)
6篇
數(shù)據(jù)結(jié)構(gòu)
2篇
離散優(yōu)化
1篇
工具
7篇
大數(shù)據(jù)
25篇
Java
6篇
GO
最新評(píng)論
LSTM/GRU 出現(xiàn)預(yù)測(cè)值滯后現(xiàn)象
PersistWp:
可以試試多特征單步,單特征多步,遞歸預(yù)測(cè)
激活函數(shù)以0為中心的好處
勇敢牛牛,不怕困難801:
太清晰了
LSTM/GRU 出現(xiàn)預(yù)測(cè)值滯后現(xiàn)象
lo233:
大佬你好,受你啟發(fā)我將數(shù)據(jù)先取對(duì)數(shù)ln之后預(yù)測(cè)曲線(xiàn)變“平滑”了,但是滯后現(xiàn)象依舊存在,是否說(shuō)明滯后是由于數(shù)據(jù)本身的波動(dòng)帶來(lái)的,幾乎不可避免呢
激活函數(shù)以0為中心的好處
Koi523:
太清晰了!
歸并排序的非遞歸實(shí)現(xiàn)——python
妥妥滴137:
那如果要是他是奇數(shù)個(gè)值是不是就不能分組了呀?
您愿意向朋友推薦“博客詳情頁(yè)”嗎?
強(qiáng)烈不推薦
不推薦
一般般
推薦
強(qiáng)烈推薦
提交
最新文章
通俗理解yield、yield from、async
蟻群算法原理及python實(shí)現(xiàn)
進(jìn)化算法簡(jiǎn)單介紹
2022年2篇
2021年36篇
2020年32篇
2019年100篇
2018年22篇
目錄
目錄
分類(lèi)專(zhuān)欄
進(jìn)化算法
3篇
數(shù)學(xué)
5篇
python技術(shù)
6篇
SQL
7篇
機(jī)器學(xué)習(xí)算法
6篇
計(jì)算機(jī)操作基礎(chǔ)
6篇
數(shù)據(jù)結(jié)構(gòu)
2篇
離散優(yōu)化
1篇
工具
7篇
大數(shù)據(jù)
25篇
Java
6篇
GO
目錄
評(píng)論?2
被折疊的??條評(píng)論
為什么被折疊?
到【灌水樂(lè)園】發(fā)言
查看更多評(píng)論
添加紅包
祝福語(yǔ)
請(qǐng)?zhí)顚?xiě)紅包祝福語(yǔ)或標(biāo)題
紅包數(shù)量
個(gè)
紅包個(gè)數(shù)最小為10個(gè)
紅包總金額
元
紅包金額最低5元
余額支付
當(dāng)前余額3.43元
前往充值 >
需支付:10.00元
取消
確定
下一步
知道了
成就一億技術(shù)人!
領(lǐng)取后你會(huì)自動(dòng)成為博主和紅包主的粉絲
規(guī)則
hope_wisdom 發(fā)出的紅包
實(shí)付元
使用余額支付
點(diǎn)擊重新獲取
掃碼支付
錢(qián)包余額
0
抵扣說(shuō)明:
1.余額是錢(qián)包充值的虛擬貨幣,按照1:1的比例進(jìn)行支付金額的抵扣。 2.余額無(wú)法直接購(gòu)買(mǎi)下載,可以購(gòu)買(mǎi)VIP、付費(fèi)專(zhuān)欄及課程。
余額充值