前馈神经网络

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

前饋式類神經網路

1前言

前饋式類神經網路是第一個也是最簡單的類神經網路,它是由多層的神經元所組成,其訊息傳遞的方式是從輸入層經由隱藏層往輸出層的方向傳送,每一層神經元只會接受上層神經元所傳送過來的輸出值,不同於循環式網路(Recurrent network)。

2神經元

類神經網路最基本單位的是神經元(如圖1),神經元主要負責對資料的處理行為。在類神經網路中的某個神經元,可能接收一個到數個不等的輸入變數,變數的多寡取決於傳送到該神經元的輸入值個數。神經元接收輸入變數(I)後,視輸入變數的重要性,給予一個改變比重的參數,這些參數稱為配重值(Weight, ω),神經元會將所有輸入變數經由配重值的加權後累加,然後再與神經元中的偏移量(Bias, B)相加,會產生一個淨值(n),這個淨值將經由轉換函數的轉換,轉換出來的數值當成該神經元的輸出值。神經元的輸出值可以傳送到一個以上的神經元當作該神經元的輸入變數,或是當成網路的輸出值,一切依網路結構的情況而定。雖然,每個神經元可以同時接收一至多個不等的輸入變數,卻只有一個輸出值。神經元的計算公式如式(1)、(2)所示,

∑=

+⋅

=

R

j

j

j

B I

n

1

ω(1)

)

(n

f

Y=(2)式中R為神經元輸入變數的個數,I1,I2,⋯,I R為神經元的輸入變數,ω1,ω2,⋯,ωR為神經元各個輸入變數的配重值,B為該神經元的偏移量,)

(∙

f為神經元的轉換函數。

1

Y

輸入值單位神經元

Y=f(Wp+b)

圖.1神經元

神經元的轉換函數可能是線性函數或是非線性函數,依問題的需求不同所選擇的轉換函數也會不同,選擇一個適合特定問題的轉換函數,對描述輸入變數與輸出值之關係,是非常重要的。可是,轉換函數的種類有很多,要選擇一個最適合特定問題的轉換函數,需要藉由不斷的嘗試才能獲得。以下列出本研究所使用的十種轉換函數:

1. 硬限制函數(Hard Limit transfer function)

<

=

1

)

(

n

if

n

if

n

f

2. 對稱硬限制函數(Symmetrical Hard Limit transfer function)

<

-

=

1

1

)

(

n

if

n

if

n

f

3. 飽和線性函數(Saturating Linear transfer function)

>

<

=

1

1

1

)

(

n

if

n

if

n

n

if

n

f

4. 對稱飽和線性函數(Symmetrical Saturating Linear transfer function)

>

-

-

<

-

=

1

1

1

1

1

1

)

(

n

if

n

if

n

n

if

n

f

5. 正線性函數(Positive Linear transfer function)

<

=

)

(

n

if

n

n

if

n

f

6. 線性函數(Linear transfer function)

n

n

f=

)

(

7. S形函數(Sigmoid transfer function)

n

e n

f -+=

11

)( 8. 雙曲正切函數(Hyperbolic Tangent transfer function)

n

n n

n e e e e n f --+-=)(

9. 三角基函數(Triangular basis transfer function)

⎪⎪⎪⎩⎪⎪⎪⎨⎧>≤<-=<≤-+-<=101010

101110

)(n if n if n n if n if n n if n f 10. 高斯函數(Gaussian transfer function)

2

2

)(n e n f -=

3 網路組織架構

前饋式類神經網路結構如圖12所示,數個接收相同輸入變數的神經元並聯組成網路的基礎結構 − 層,再由數個層串聯組成一個前饋式類神經網路。同一層的神經元接收前一層所有神經元的輸出,並將輸出送至下一層做為下一層每個神經元的輸入變數。依各層的特質又可以區分為輸入層、輸出層和隱藏層三種。

1. 輸入層:輸入層每個神經元只接受一個輸入變數作為其輸入值,並將輸出送

至下一層的每個神經元,所以輸入層神經元的個數等於輸入變數的個數。輸入層有兩種類型,第一種輸入層中的神經元具有配重值與偏移量,且具有轉換函數;第二種輸入層中的神經元只有接收輸入變數的功能,輸出值便是輸入變數,不具有運算的功能,本研究採用第二種類型的輸入層。一般若採用第二種類型的輸入層,不將此層當成一層。

2. 輸出層:輸出層每個神經元的輸出值便是網路的輸出值,所以輸出層神經元

的個數等於網路的輸出值個數。

3. 隱藏層:介於輸入層與輸出層之間的層便是隱藏層,隱藏層的層數可以是

零,也可以很多層,不過最常見的為一層,隱藏層神經元的個數也沒有一定,使用者視資料的複雜度調整隱藏層的層數與該隱藏層神經元的個數。

相关文档
最新文档