1樓:匿名使用者
functions 定義函式,然後直接呼叫就行
例如:functions [輸出變數]=hs(輸入變數) 其中,hs為函式名,可以自己定義
在搭建神經網路的時候,如何選擇合適的轉移函式(
2樓:匿名使用者
一般來說,神經網bai絡的激勵函式有du以下幾種:zhi階躍函式 ,準線性函式,dao雙曲正切函
專數,sigmoid函式等等,其屬中sigmoid函式就是你所說的s型函式。以我看來,在你訓練神經網路時,激勵函式是不輕易換的,通常設定為s型函式。如果你的神經網路訓練效果不好,應從你所選擇的演算法上和你的資料上找原因。
演算法上bp神經網路主要有自適應學習速率動量梯度下降反向傳播演算法(traingdx),levenberg-marquardt反向傳播演算法(trainlm)等等,我列出的這兩種是最常用的,其中bp預設的是後一種。資料上,看看是不是有誤差資料,如果有及其剔除,否則也會影響**或識別的效果。
人工神經網路函式的傳遞函式怎樣確定的
3樓:匿名使用者
也是憑經驗選出來的,一般隱含層用tansig函式,輸出層用purelin函式,不過也有特殊情況,要是輸出不能為負就用非負的tansig函式
bp神經網路的傳遞函式選擇有什麼特定要求?我使用高斯函式作為其傳遞函式(啟用函式)可行麼
4樓:匿名使用者
既然是bp神經網路,當然激勵函式就已經基本確定,因為,bp神經網路的隱含層一般是logsig函式,而輸出層為線性函式。
bp神經網路的幾個簡單問題
5樓:
1.一般你可以自己嘗試下,我最近也在嘗試,隱層用tansig是比較理想的,輸出層要自專
己嘗試的,如屬用purlin是輸出任意值,logsig很多書也是推崇的,將輸出值限定在【0,1】中,我一般都用tansig.
2.trainlm是一種訓練方法,使用的話收斂很快很快,相比的話traingd收斂很慢很慢。優勢traingd要訓練1000epochs,而trainlm只要訓練5epochs就夠了
神經網路的啟用函式和傳遞函式有什麼區別? 5
6樓:匿名使用者
理論上講任何一個連續的非多項式、常數函式都可以做為bp的啟用函式
而且這都是已經在數學上證明過的問題。
那麼為什麼一般是要選作sigmoidal函式
我認為是sigmoid函式相對其他函式有它自身的優點
比如說光滑性,魯棒性,以及在求導的時候可以用它自身的某種形式來表示
這一點在做數值試驗的時候很重要,因為權值的反向傳播,要求啟用函式的導數
多層就有多個導數,如果用一般的連續函式,這對計算機的儲存和運算都是一個問題
此外還要考慮整個模型的收斂速度,我上面提到連續函式都可以做啟用函式
但是相應的sigmoidal型函式的收斂速度還是比較快的,(相同的結構前提下)
還有就是bp在做分類問題的時候,sigmoidal函式能比較好的執行這一條件
關於連續函式可以做啟用函式的證明,可以在ieee trans. on neural networks
和 neural networks以及neural computating 和neural computation上找到
這類問題在上個世紀90年代就已經基本解決
7樓:匿名使用者
啟用函式就是傳遞函式
神經網路傳遞函式選取不同會有特別大差別嘛?
8樓:積木易搭
線性與非線性函式,實際運用中差別還挺大的。
神經網路的啟用函式和傳遞函式有什麼區別
理論上講任何一個連續的非多項式 常數函式都可以做為bp的啟用函式 而且這都是已經在數學上證明過的問題。那麼為什麼一般是要選作sigmoidal函式 我認為是sigmoid函式相對其他函式有它自身的優點 比如說光滑性,魯棒性,以及在求導的時候可以用它自身的某種形式來表示 這一點在做數值試驗的時候很重要...
關於神經網路的newrb 函式問題
spread 是一個標量 表示徑向基函式的擴充套件速度 預設值為1 goal也是一個標量 是指定的均方誤差 預設值0 mn指定隱含節點的最大個數 預設值是 輸入訓練樣本的個數 哇塞,一般人沒法聽懂的問題 用matlab的newrb函式建立的神經網路,怎麼檢視網路引數 newrb設計了徑向基網路,呼叫...
matlab中建立bp神經網路的函式newff的引數的
1.newff雖然沒有規定輸入層神經元個數,那輸入層神經元個數是如何確定的?輸入層是根據你讀入資料的維度,自動生成的。2.我現在讀入了10張 把每張 歸一化成了50 20的,並轉換成1 1000的行向量,最後生成了10 1000的二維矩陣,然後,我再用eye 10,10 函式製造了一個單位矩陣,那麼...