tag 激活函數

標籤
貢獻8
58
02:18 AM · Nov 19 ,2025

@激活函數 / 博客 RSS 訂閱

編程小達人 - 深層神經網絡的優點 神經網絡淺層和深層

深層神經網絡 淺層神經網絡和深層神經網絡的主要區別在於隱藏層的多少。隱藏層的層數越多,神經網絡越深。 深層神經網絡的一些符號定義: L L : 神經網絡的層數 n[l]n[l]: 第l l 層的神經單元個數 a[l]=g[l](z[l])a[l]=g[l](z[l]): 第l l 層的激活

deeplearning.ai , 神經網絡 , 激活函數 , 第1課 , 人工智能 , 深層神經網絡的優點

收藏 評論

代碼探險家 - 《PyTorch深度學習》筆記(1)_51CTO博客

目錄 摘要 激活函數 1.階躍函數 2.sigmod函數 3.Tanh函數 4.ReLu函數 代碼實踐 1.階躍函數 2.sigmod函數 3.tanh函數 4.ReLu函數 摘要 本篇文章學習尚硅谷深度學習教程,學習內容是激活函數的代碼部分包括階躍函數

激活函數 , pytorch , 深度學習 , Css , 階躍函數 , 筆記 , 前端開發 , HTML

收藏 評論

mob64ca13fe1aa6 - 人工智能學習筆記----01_hhh江月的技術博客

Deep Learning 基礎知識 Loss Function: MSE(mean square error loss)(均方誤差) CEE(cross entropy error loss)(交叉熵誤差) Backward: Sigmoid: ReLU:(分

卷積 , 大數據 , 激活函數 , hadoop , 全連接

收藏 評論

編程夢想編織者 - 神經網絡至少要多少數據 神經網絡有

目錄 迷人的神經網絡——機器學習筆記1 第1章 神經元模型及網絡結構 1.1 神經元模型 1.1.1 單輸入神經元 1.1.2 激活函數 1.1.3 多輸入神經元 1.2 網絡結構 1.2.1 單層神經網絡 1.2.2 多層神經網絡

神經網絡 , 激活函數 , 權值矩陣 , 神經網絡至少要多少數據 , 感知機 , 人工智能

收藏 評論

技術極客俠 - LSTM解決了RNN的侷限性

引入LSTM 儘管RNN被設計成可以利用歷史的信息來輔助當前的決策,但是由於在上節提到的梯度消失或者梯度爆炸問題,RNN主要還是學習短期的依賴關係。所以RNN新的技術挑戰就是-長期依賴。 長短時記憶網絡(Long Short Term Memory Network, LSTM),是一種改進之後的循環神經網絡,可以解決RNN無法處理長距離的依賴

機器學習 , 神經網絡 , 激活函數 , 循環神經網絡 , 人工智能 , 深度學習 , LSTM解決了RNN的侷限性

收藏 評論

技術領航博主 - Leaky ReLU和ReLU的關係

論文提出了動態ReLU,能夠根據輸入動態地調整對應的分段激活函數,與ReLU及其變種對比,僅需額外的少量計算即可帶來大幅的性能提升,能無縫嵌入到當前的主流模型中   論文: Dynamic ReLU 論文地址:https://arxiv.org/abs/2003.10027 論文代碼:https://githu

歸一化 , Dynamic , Leaky ReLU和ReLU的關係 , 激活函數 , 人工智能 , 深度學習

收藏 評論

WangLanguager - GraphSAGE介紹和代碼示例

GraphSAGE 介紹 GraphSAGE(Graph Sample and Aggregation)是一種用於大規模圖數據的圖神經網絡模型。與傳統的圖神經網絡不同,GraphSAGE 採用了一種採樣和聚合的方法,使其能夠處理動態和大規模的圖,特別是在節點數目非常大的情況下。 基本原理 GraphSAGE 的核心思想是通過採樣鄰居節點

卷積 , yyds乾貨盤點 , data , 激活函數 , 後端開發 , harmonyos

收藏 評論

步步為瑩 - 不用懂數學!Python+Keras 快速搭建第一個神經網絡

引言 神經網絡是人工智能和深度學習的核心技術之一,它模擬了人腦的工作方式,通過大量的訓練數據和計算來解決複雜的任務,如圖像分類、語音識別、自然語言處理等。今天,我們將帶你快速搭建一個簡單的神經網絡,使用 Python 和 Keras 庫,完全不需要理解複雜的數學公式和推導。只要跟着步驟走,你就能順利完成自己的第一個神經網絡! 什麼是 Keras? Keras 是

數據 , 神經網絡 , 激活函數 , 後端開發 , Python

收藏 評論