深度學習

簡單易懂的講解深度學習(六)

“損失函式減肥用,神經網路調權重” 在上一講中,由於感知機不能解決“異或”問題,明斯基並無惡意卻把AI冷藏了二十載。但是 解決“異或”問題,其實就是能否解決非線性可分問題。如何來解決這個問題呢???

深度學習第二週

# 學習目標,實現一個二分類具有一個隱藏層的神經網路,使用一個例如tanh的非線性啟用函式 # 計算交叉熵損失函式,實現前向和反向傳播 # 首先我們匯入需要的包 import numpyas

深度學習和幾何(演講提要)

感恩節來臨,生活節奏終於緩慢下來。紐約長島天空一片湛藍,豔陽高照,滿地碎金。這一階段,老顧收到很多讀者來信,大多詢問深度學習和最優傳輸理論的關係,很多問題反映出讀者的深度思考和獨特見解。恰逢老顧也在研究生課堂

來源自rnnoise,但非rnn

很快又一年過去了。 自學音訊演算法也近一年了。 不記得有多少個日日夜夜, 半夜醒來,就為驗證演算法思路。 一次又一次地改進和突破。 傻逼樣的堅持,必然得到牛逼樣的結果。 這一年,主要扎音

如何評價亞馬遜的新書《動手學深度學習》

最近,亞馬遜的AI專家阿斯頓·張,李沐等合著的新書《動手學深度學習》引起了人工智慧領域的諸多關注,該書的線上預覽版本已經公開,因此能夠提前拜讀。感興趣的讀者可以直接下載對應的 PDF 版本,也可通過其在Git

簡單易懂的講解深度學習(五)

5.1 網之初,感知機 我們知道,《三字經》裡開篇第一句就是:“人之初,性本善”。那麼對於神經網路來說,這句話就要改為:“網之初,感知機”。感知機(  Perceptrons

1716201119.3581