檢測到您已登錄華為云國際站賬號,為了您更好的體驗,建議您訪問國際站服務網(wǎng)站 http://www.cqfng.cn/intl/zh-cn
不再顯示此消息
0那一節(jié)開始看起,環(huán)境呢就不用自己搭建了,直接用modelarts里的開發(fā)環(huán)境Notebook里的jupyterLab,免費使用只是每小時會停止一下,對于學習來說沒有關(guān)系?;靖拍睿瑃ensorflow=tensor張量 + flow 流張量具體是啥意思之前不是很明白,只知道張力的概念,比如在亞
隨著人工智能技術(shù)的快速發(fā)展,深度學習(Deep Learning, DL)和強化學習(Reinforcement Learning, RL)已成為兩大核心驅(qū)動力。兩者各有優(yōu)勢:深度學習擅長從數(shù)據(jù)中提取復雜模式和特征,而強化學習擅長在動態(tài)環(huán)境中通過試錯學習最優(yōu)策略。兩者的結(jié)合,即深度強化學習(Deep
特征選擇 f. 重新定義問題2. 從算法上提升性能 a. 算法的篩選 b. 從文獻中學習 c. 重采樣的方法3. 從算法調(diào)優(yōu)上提升性能 a. 模型可診斷性 b. 權(quán)重的初始化 c. 學習率 d. 激活函數(shù) e. 網(wǎng)絡結(jié)構(gòu) f. batch和epoch g. 正則項 h. 優(yōu)化目標
這個房價預測的例子基本就結(jié)束了,下面是用TensorBoard來將算法,和模型訓練過程的一些信息進行可視化。可視化是一件有意見的工作,有助于信息的理解和推廣??梢暬趍odelarts的老版的訓練作業(yè)下,是收費的,但這個服務在新版的訓練作業(yè)里已經(jīng)沒有了,也行是因為這個可視化服務的
終于進了一步,看到了MNIST手寫數(shù)字識別,使用一個神經(jīng)元。 MNIST數(shù)據(jù)集來自于NIST 美國國家標準和技術(shù)研究所。 找學生和工作人員手寫的。 規(guī)模:訓練集55000,驗證集5000,測試集10000。大小約10M。 數(shù)據(jù)集可以在網(wǎng)站上去下載,同時tf自己里面已經(jīng)集成了這個數(shù)據(jù)集。
機器學習和深度學習的未來蘊含著無窮的可能!越來越多的機器人不僅用在制造業(yè),而且在一些其他方面可以改善我們的日常生活方式。醫(yī)療行業(yè)也可能會發(fā)生變化,因為深度學習有助于醫(yī)生更早地預測或發(fā)現(xiàn)癌癥,從而挽救生命。在金融領域,機器學習和深度學習可以幫助公司甚至個人節(jié)省資金,更聰明地投資,更
數(shù)據(jù)不是收集的,是自己生成的,好吧~一個簡單的例子學習用的沒關(guān)系%matplotlib inline這個是為了讓在jupyter在瀏覽器里能夠顯示圖像。生成y=2x+1的隨機數(shù)據(jù),數(shù)據(jù)加背景噪聲限值0.4生成等差數(shù)列,100個x_data=np.linspace(-1,1,100)y_data=2*x_data+1
深度學習是機器學習算法的子類,其特殊性是有更高的復雜度。因此,深度學習屬于機器學習,但它們絕對不是相反的概念。我們將淺層學習稱為不是深層的那些機器學習技術(shù)。讓我們開始將它們放到我們的世界中:這種高度復雜性基于什么?在實踐中,深度學習由神經(jīng)網(wǎng)絡中的多個隱藏層組成。我們在《從神經(jīng)元到
訓練模型跑出來了后,要使用,但是我們沒有數(shù)據(jù)了,因為數(shù)據(jù)都拿去訓練了。 所以課程中,隨機挑了一條訓練數(shù)據(jù)來應用到模型里來使用。 這樣是不好的,因為就像學習訓練時將考試題都讓你做過一遍,再讓你考試就不公平了,類似于作弊了。 應該是考你運用學到的知識,來做沒做過的題。 那比較好的做法呢,是有一些數(shù)據(jù),把這些數(shù)據(jù)分一分,
從人的角度來看,12個特征比1個特征要復雜了很多, 但對計算機來說,無所謂。 在tf里,12元的線性回歸方程的實現(xiàn),比1元的線性方程的實現(xiàn),代碼上也只是多了一點點復雜度而已。 這就是計算機的優(yōu)勢。 只是最后訓練的結(jié)果,為什么都是nan,像老師說的,臉都黑了哦~ 這次先到這里,請聽下回分解~
落了很長時間沒學,撿起來繼續(xù)。編號也忘了從哪里接上,就從20開始吧。 前面弄完了一元線性回歸,現(xiàn)在是波士頓房價預測-多元線性回歸。 數(shù)據(jù)方面,12+1共13個指標,506行數(shù)據(jù)。 前面12個是多個維度的數(shù)據(jù),維度還是比較全面的,是輸入值/特征。 比如:城鎮(zhèn)人均犯罪率、師生比例、住宅比例、邊界是否為河流等
難易程度也可以看出,圍棋是最強調(diào)系統(tǒng)性思維的,所以 AI想要戰(zhàn)勝人類也是最難的。第一講到這里就結(jié)束了,第二講看了一點,其中關(guān)于人工智能機器學習概念,除了公式的定義之外,用類比的方法講的非常的簡單易懂
事實上,提出“深度學習”概念的Hinton教授加入了google,而Alpha go也是google家的。在一個新興的行業(yè),領軍人才是多么的重要??! 總結(jié):人工智能是一個很老的概念,機器學習是人工智能的一個子集,深度學習又是機器學習的一個子集。機器學習與深度學習都是需要大量數(shù)據(jù)
房價的tf2版本,有一些變化。 1是直接使用sklearn.preprocessing里的scale來做歸一化,更簡單便捷 2不是一股腦將數(shù)據(jù)全用于訓練,劃分了分別用于訓練、驗證、測試的數(shù)據(jù) 3損失函數(shù),優(yōu)化器方面,代碼有變化,頭疼~ 4對訓練數(shù)據(jù)沒有做打散的操作 代碼如下: 最
機器學習的主要挑戰(zhàn)是我們的算法必須能夠在先前未觀測的新輸入上表現(xiàn)良好,而不只是在訓練集上效果好。在先前未觀測到的輸入上表現(xiàn)良好的能力被稱為泛化(generalization)。通常情況下,當我們訓練機器學習模型時,我們可以訪問訓練集,在訓練集上計算一些度量誤差,被稱為訓練誤差(training
機器學習的主要挑戰(zhàn)是我們的算法必須能夠在先前未觀測的新輸入上表現(xiàn)良好,而不只是在訓練集上效果好。在先前未觀測到的輸入上表現(xiàn)良好的能力被稱為泛化(generalization)。通常情況下,當我們訓練機器學習模型時,我們可以訪問訓練集,在訓練集上計算一些度量誤差,被稱為訓練誤差(training
還有一個是vggnet,他的問題是參數(shù)太大。深度學習的問題:1面向任務單一,依賴于大規(guī)模有標簽數(shù)據(jù),幾乎是個黑箱模型?,F(xiàn)在人工智能基本由深度學習代表了,但人工智能還有更多。。。然后就開始講深度學習的開發(fā)框架。先整了了Theano,開始于2007年的加拿大的蒙特利爾大學。隨著ten
那怎么做歸一化呢,方法比較簡單,就是 (特征值 - 特征值最小者)/(特征值最大值 - 特征值最小者) 這樣歸一化后的值,范圍在 [0,1]之間。 標簽值是不需要做歸一化的哦 放一下有修改的代碼,以及訓練的結(jié)果: ```python #做歸一化,對列index是0到11的特征值做歸一化
說道:矩陣運算,是機器學習的基本手段,必須要掌握。 所以后面有線性代數(shù)、矩陣運算的基本介紹。 標量是一個特殊的向量(行向量、列向量),向量是一個特殊的矩陣;這樣說來,標量,也是一個特殊的矩陣,一行一列的矩陣。 看代碼吧 ```python import numpy as np ```
Variable來聲明來創(chuàng)建變量,它是會變的,在訓練中學習到的,所以給它的初值是多少是無所謂的然后就是怎么樣來訓練模型了訓練模型就是一個不斷迭代不斷改進的過程首先是訓練參數(shù),也就是超參,一個是迭代次數(shù)train_epochs,這里設置為10,根據(jù)復雜情況,可能上萬次都可能的。一個是學習率learning_rate,這里默認為0