久久久久久久999_99精品久久精品一区二区爱城_成人欧美一区二区三区在线播放_国产精品日本一区二区不卡视频_国产午夜视频_欧美精品在线观看免费

 找回密碼
 立即注冊(cè)

QQ登錄

只需一步,快速開始

搜索
查看: 6960|回復(fù): 1
打印 上一主題 下一主題
收起左側(cè)

java代碼實(shí)現(xiàn)深度神經(jīng)網(wǎng)絡(luò)算法

[復(fù)制鏈接]
跳轉(zhuǎn)到指定樓層
樓主
對(duì)于現(xiàn)在流行的深度學(xué)習(xí),保持學(xué)習(xí)精神是必要的——程序員尤其是架構(gòu)師永遠(yuǎn)都要對(duì)核心技術(shù)和關(guān)鍵算法保持關(guān)注和敏感,必要時(shí)要?jiǎng)邮謱懸粚懻莆障聛,先不用關(guān)心什么時(shí)候用到——用不用是管理問題,會(huì)不會(huì)寫是技術(shù)問題,就像軍人不關(guān)心打不打的問題,而要關(guān)心如何打贏的問題。

程序員如何學(xué)習(xí)機(jī)器學(xué)習(xí)

對(duì)程序員來說,機(jī)器學(xué)習(xí)是有一定門檻的(這個(gè)門檻也是其核心競(jìng)爭(zhēng)力),相信很多人在學(xué)習(xí)機(jī)器學(xué)習(xí)時(shí)都會(huì)為滿是數(shù)學(xué)公式的英文論文而頭疼,甚至可能知難而退。但實(shí)際上機(jī)器學(xué)習(xí)算法落地程序并不難寫,下面是70行代碼實(shí)現(xiàn)的反向多層(BP)神經(jīng)網(wǎng)絡(luò)算法,也就是深度學(xué)習(xí)。其實(shí)不光是神經(jīng)網(wǎng)絡(luò),邏輯回歸、決策樹C45/ID3、隨機(jī)森林、貝葉斯、協(xié)同過濾、圖計(jì)算、Kmeans、PageRank等大部分機(jī)器學(xué)習(xí)算法都能在100行單機(jī)程序內(nèi)實(shí)現(xiàn)(以后考慮分享出來)。
機(jī)器學(xué)習(xí)的真正難度在于它為什么要這么計(jì)算,它背后的數(shù)學(xué)原理是什么,怎么推導(dǎo)得來的公式,網(wǎng)上大部分的資料都在介紹這部分理論知識(shí),卻很少告訴你該算法的計(jì)算過程和程序落地是怎么樣的,對(duì)于程序員來說,你需要做的僅是工程化應(yīng)用,而不需要證明出一項(xiàng)新的數(shù)學(xué)計(jì)算方法。實(shí)際大部分機(jī)器學(xué)習(xí)工程師都是利用別人寫好的開源包或者工具軟件,輸入數(shù)據(jù)和調(diào)整計(jì)算系數(shù)來訓(xùn)練結(jié)果,甚至很少自己實(shí)現(xiàn)算法過程。但是掌握每個(gè)算法的計(jì)算過程仍然非常重要,這樣你才能理解該算法讓數(shù)據(jù)產(chǎn)生了什么樣的變化,理解算法的目的是為了達(dá)到什么樣的效果。
本文重點(diǎn)探討反向神經(jīng)網(wǎng)絡(luò)的單機(jī)實(shí)現(xiàn),關(guān)于神經(jīng)網(wǎng)絡(luò)的多機(jī)并行化, Fourinone 提供非常靈活完善的并行計(jì)算框架,我們只需要理解透單機(jī)程序?qū)崿F(xiàn),就能構(gòu)思和設(shè)計(jì)出分布式并行化方案,如果不理解算法計(jì)算過程,一切思路將無法展開。另外,還有卷積神經(jīng)網(wǎng)絡(luò),主要是一種降維思想,用于圖像處理,不在本文討論范圍。
延伸閱讀:
  • 機(jī)器學(xué)習(xí)開發(fā)者的現(xiàn)代化路徑:不需要從統(tǒng)計(jì)學(xué)微積分開始
  • 開發(fā)者成功使用機(jī)器學(xué)習(xí)的十大訣竅
  • 機(jī)器學(xué)習(xí)溫和指南
神經(jīng)網(wǎng)絡(luò)的計(jì)算過程
神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示,最左邊的是輸入層,最右邊的是輸出層,中間是多個(gè)隱含層,隱含層和輸出層的每個(gè)神經(jīng)節(jié)點(diǎn),都是由上一層節(jié)點(diǎn)乘以其權(quán)重累加得到,標(biāo)上“+1”的圓圈為截距項(xiàng)b,對(duì)輸入層外每個(gè)節(jié)點(diǎn):Y=w0*x0+w1*x1+…+wn*xn+b,由此我們可以知道神經(jīng)網(wǎng)絡(luò)相當(dāng)于一個(gè)多層邏輯回歸的結(jié)構(gòu)。
(圖片來自 UFLDL Tutorial )
算法計(jì)算過程:輸入層開始,從左往右計(jì)算,逐層往前直到輸出層產(chǎn)生結(jié)果。如果結(jié)果值和目標(biāo)值有差距,再從右往左算,逐層向后計(jì)算每個(gè)節(jié)點(diǎn)的誤差,并且調(diào)整每個(gè)節(jié)點(diǎn)的所有權(quán)重,反向到達(dá)輸入層后,又重新向前計(jì)算,重復(fù)迭代以上步驟,直到所有權(quán)重參數(shù)收斂到一個(gè)合理值。由于計(jì)算機(jī)程序求解方程參數(shù)和數(shù)學(xué)求法不一樣,一般是先隨機(jī)選取參數(shù),然后不斷調(diào)整參數(shù)減少誤差直到逼近正確值,所以大部分的機(jī)器學(xué)習(xí)都是在不斷迭代訓(xùn)練,下面我們從程序上詳細(xì)看看該過程實(shí)現(xiàn)就清楚了。
神經(jīng)網(wǎng)絡(luò)的算法程序?qū)崿F(xiàn)
神經(jīng)網(wǎng)絡(luò)的算法程序?qū)崿F(xiàn)分為初始化、向前計(jì)算結(jié)果,反向修改權(quán)重三個(gè)過程。
1. 初始化過程
由于是n層神經(jīng)網(wǎng)絡(luò),我們用二維數(shù)組layer記錄節(jié)點(diǎn)值,第一維為層數(shù),第二維為該層節(jié)點(diǎn)位置,數(shù)組的值為節(jié)點(diǎn)值;同樣,節(jié)點(diǎn)誤差值layerErr也是相似方式記錄。用三維數(shù)組layer_weight記錄各節(jié)點(diǎn)權(quán)重,第一維為層數(shù),第二維為該層節(jié)點(diǎn)位置,第三維為下層節(jié)點(diǎn)位置,數(shù)組的值為某節(jié)點(diǎn)到達(dá)下層某節(jié)點(diǎn)的權(quán)重值,初始值為0-1之間的隨機(jī)數(shù)。為了優(yōu)化收斂速度,這里采用動(dòng)量法權(quán)值調(diào)整,需要記錄上一次權(quán)值調(diào)整量,用三維數(shù)組layer_weight_delta來記錄,截距項(xiàng)處理:程序里將截距的值設(shè)置為1,這樣只需要計(jì)算它的權(quán)重就可以了,
2. 向前計(jì)算結(jié)果
采用S函數(shù)1/(1+Math.exp(-z))將每個(gè)節(jié)點(diǎn)的值統(tǒng)一到0-1之間,再逐層向前計(jì)算直到輸出層,對(duì)于輸出層,實(shí)際上是不需要再用S函數(shù)的,我們這里將輸出結(jié)果視為0到1之間的概率值,所以也采用了S函數(shù),這樣也有利于程序?qū)崿F(xiàn)的統(tǒng)一性。
3. 反向修改權(quán)重
神經(jīng)網(wǎng)絡(luò)如何計(jì)算誤差,一般采用平方型誤差函數(shù)E,如下:
也就是將多個(gè)輸出項(xiàng)和對(duì)應(yīng)目標(biāo)值的誤差的平方累加起來,再除以2。實(shí)際上邏輯回歸的誤差函數(shù)也是這個(gè),至于為什么要用這個(gè)函數(shù)來計(jì)算誤差,它從數(shù)學(xué)上的合理性是什么,怎么得來的,這個(gè)我建議程序員們不想當(dāng)數(shù)學(xué)家的話,先不去深究了,現(xiàn)在我們要做的是如何把這個(gè)函數(shù)E誤差取它的最小值,需要對(duì)其進(jìn)行求導(dǎo),如果有些求導(dǎo)數(shù)學(xué)基礎(chǔ)的話,倒可以嘗試去推導(dǎo)下如何從函數(shù)E對(duì)權(quán)重求導(dǎo)得到下面這個(gè)公式的:
不會(huì)推導(dǎo)也沒有關(guān)系,我們只需要運(yùn)用結(jié)果公式就可以了,在我們的程序里用layerErr記錄了E對(duì)權(quán)重求導(dǎo)后的最小化誤差,再根據(jù)最小化誤差去調(diào)整權(quán)重。
注意這里采用動(dòng)量法調(diào)整,將上一次調(diào)整的經(jīng)驗(yàn)考慮進(jìn)來,避免陷入局部最小值,下面的k代表迭代次數(shù),mobp為動(dòng)量項(xiàng),rate為學(xué)習(xí)步長(zhǎng):
Δw(k+1) = mobp*Δw(k)+rate*Err*Layer
也有很多使用下面的公式,效果上的差別不是太大:
Δw(k+1) = mobp*Δw(k)+(1-mobp)rate*Err*Layer
為了提升性能,注意程序?qū)崿F(xiàn)是在一個(gè)while里面同時(shí)計(jì)算誤差和調(diào)整權(quán)重,先將位置定位到倒數(shù)第二層(也就是最后一層隱含層)上,然后逐層反向調(diào)整,根據(jù)L+1層算好的誤差來調(diào)整L層的權(quán)重,同時(shí)計(jì)算好L層的誤差,用于下一次循環(huán)到L-1層時(shí)計(jì)算權(quán)重,以此循環(huán)下去直到倒數(shù)第一層(輸入層)結(jié)束。
小結(jié)
在整個(gè)計(jì)算過程中,節(jié)點(diǎn)的值是每次計(jì)算都在變化的,不需要保存,而權(quán)重參數(shù)和誤差參數(shù)是需要保存的,需要為下一次迭代提供支持,因此,如果我們構(gòu)思一個(gè)分布式的多機(jī)并行計(jì)算方案,就能理解其他框架中為什么會(huì)有一個(gè)Parameter Server的概念。
多層神經(jīng)網(wǎng)絡(luò)完整程序?qū)崿F(xiàn)
下面的實(shí)現(xiàn)程序BpDeep.java可以直接拿去使用,也很容易修改為C、C#、Python等其他任何語言實(shí)現(xiàn),因?yàn)槎际鞘褂玫幕菊Z句,沒有用到其他Java庫(除了Random函數(shù))。以下為原創(chuàng)程序,轉(zhuǎn)載引用時(shí)請(qǐng)注明作者和出處。

  1. import java.util.Random;
  2. public class BpDeep{
  3.     public double[][] layer;//神經(jīng)網(wǎng)絡(luò)各層節(jié)點(diǎn)
  4.     public double[][] layerErr;//神經(jīng)網(wǎng)絡(luò)各節(jié)點(diǎn)誤差
  5.     public double[][][] layer_weight;//各層節(jié)點(diǎn)權(quán)重
  6.     public double[][][] layer_weight_delta;//各層節(jié)點(diǎn)權(quán)重動(dòng)量
  7.     public double mobp;//動(dòng)量系數(shù)
  8.     public double rate;//學(xué)習(xí)系數(shù)

  9.     public BpDeep(int[] layernum, double rate, double mobp){
  10.         this.mobp = mobp;
  11.         this.rate = rate;
  12.         layer = new double[layernum.length][];
  13.         layerErr = new double[layernum.length][];
  14.         layer_weight = new double[layernum.length][][];
  15.         layer_weight_delta = new double[layernum.length][][];
  16.         Random random = new Random();
  17.         for(int l=0;l<layernum.length;l++){
  18.             layer[l]=new double[layernum[l]];
  19.             layerErr[l]=new double[layernum[l]];
  20.             if(l+1<layernum.length){
  21.                 layer_weight[l]=new double[layernum[l]+1][layernum[l+1]];
  22.                 layer_weight_delta[l]=new double[layernum[l]+1][layernum[l+1]];
  23.                 for(int j=0;j<layernum[l]+1;j++)
  24.                     for(int i=0;i<layernum[l+1];i++)
  25.                         layer_weight[l][j][i]=random.nextDouble();//隨機(jī)初始化權(quán)重
  26.             }   
  27.         }
  28.     }
  29.     //逐層向前計(jì)算輸出
  30.     public double[] computeOut(double[] in){
  31.         for(int l=1;l<layer.length;l++){
  32.             for(int j=0;j<layer[l].length;j++){
  33.                 double z=layer_weight[l-1][layer[l-1].length][j];
  34.                 for(int i=0;i<layer[l-1].length;i++){
  35.                     layer[l-1][i]=l==1?in[i]:layer[l-1][i];
  36.                     z+=layer_weight[l-1][i][j]*layer[l-1][i];
  37.                 }
  38.                 layer[l][j]=1/(1+Math.exp(-z));
  39.             }
  40.         }
  41.         return layer[layer.length-1];
  42.     }
  43.     //逐層反向計(jì)算誤差并修改權(quán)重
  44.     public void updateWeight(double[] tar){
  45.         int l=layer.length-1;
  46.         for(int j=0;j<layerErr[l].length;j++)
  47.             layerErr[l][j]=layer[l][j]*(1-layer[l][j])*(tar[j]-layer[l][j]);

  48.         while(l-->0){
  49.             for(int j=0;j<layerErr[l].length;j++){
  50.                 double z = 0.0;
  51.                 for(int i=0;i<layerErr[l+1].length;i++){
  52.                     z=z+l>0?layerErr[l+1][i]*layer_weight[l][j][i]:0;
  53.                     layer_weight_delta[l][j][i]= mobp*layer_weight_delta[l][j][i]+rate*layerErr[l+1][i]*layer[l][j];//隱含層動(dòng)量調(diào)整
  54.                     layer_weight[l][j][i]+=layer_weight_delta[l][j][i];//隱含層權(quán)重調(diào)整
  55.                     if(j==layerErr[l].length-1){
  56.                         layer_weight_delta[l][j+1][i]= mobp*layer_weight_delta[l][j+1][i]+rate*layerErr[l+1][i];//截距動(dòng)量調(diào)整
  57.                         layer_weight[l][j+1][i]+=layer_weight_delta[l][j+1][i];//截距權(quán)重調(diào)整
  58.                     }
  59.                 }
  60.                 layerErr[l][j]=z*layer[l][j]*(1-layer[l][j]);//記錄誤差
  61.             }
  62.         }
  63.     }

  64.     public void train(double[] in, double[] tar){
  65.         double[] out = computeOut(in);
  66.         updateWeight(tar);
  67.     }
  68. }
復(fù)制代碼

一個(gè)運(yùn)用神經(jīng)網(wǎng)絡(luò)的例子
最后我們找個(gè)簡(jiǎn)單例子來看看神經(jīng)網(wǎng)絡(luò)神奇的效果。為了方便觀察數(shù)據(jù)分布,我們選用一個(gè)二維坐標(biāo)的數(shù)據(jù),下面共有4個(gè)數(shù)據(jù),方塊代表數(shù)據(jù)的類型為1,三角代表數(shù)據(jù)的類型為0,可以看到屬于方塊類型的數(shù)據(jù)有(1,2)和(2,1),屬于三角類型的數(shù)據(jù)有(1,1),(2,2),現(xiàn)在問題是需要在平面上將4個(gè)數(shù)據(jù)分成1和0兩類,并以此來預(yù)測(cè)新的數(shù)據(jù)的類型。
我們可以運(yùn)用邏輯回歸算法來解決上面的分類問題,但是邏輯回歸得到一個(gè)線性的直線做為分界線,可以看到上面的紅線無論怎么擺放,總是有一個(gè)樣本被錯(cuò)誤地劃分到不同類型中,所以對(duì)于上面的數(shù)據(jù),僅僅一條直線不能很正確地劃分他們的分類,如果我們運(yùn)用神經(jīng)網(wǎng)絡(luò)算法,可以得到下圖的分類效果,相當(dāng)于多條直線求并集來劃分空間,這樣準(zhǔn)確性更高。
下面是這個(gè)測(cè)試程序BpDeepTest.java的源碼:
  1. import java.util.Arrays;
  2. public class BpDeepTest{
  3.     public static void main(String[] args){
  4.         //初始化神經(jīng)網(wǎng)絡(luò)的基本配置
  5.         //第一個(gè)參數(shù)是一個(gè)整型數(shù)組,表示神經(jīng)網(wǎng)絡(luò)的層數(shù)和每層節(jié)點(diǎn)數(shù),比如{3,10,10,10,10,2}表示輸入層是3個(gè)節(jié)點(diǎn),輸出層是2個(gè)節(jié)點(diǎn),中間有4層隱含層,每層10個(gè)節(jié)點(diǎn)
  6.         //第二個(gè)參數(shù)是學(xué)習(xí)步長(zhǎng),第三個(gè)參數(shù)是動(dòng)量系數(shù)
  7.         BpDeep bp = new BpDeep(new int[]{2,10,2}, 0.15, 0.8);

  8.         //設(shè)置樣本數(shù)據(jù),對(duì)應(yīng)上面的4個(gè)二維坐標(biāo)數(shù)據(jù)
  9.         double[][] data = new double[][]{{1,2},{2,2},{1,1},{2,1}};
  10.         //設(shè)置目標(biāo)數(shù)據(jù),對(duì)應(yīng)4個(gè)坐標(biāo)數(shù)據(jù)的分類
  11.         double[][] target = new double[][]{{1,0},{0,1},{0,1},{1,0}};

  12.         //迭代訓(xùn)練5000次
  13.         for(int n=0;n<5000;n++)
  14.             for(int i=0;i<data.length;i++)
  15.                 bp.train(data[i], target[i]);

  16.         //根據(jù)訓(xùn)練結(jié)果來檢驗(yàn)樣本數(shù)據(jù)
  17.         for(int j=0;j<data.length;j++){
  18.             double[] result = bp.computeOut(data[j]);
  19.             System.out.println(Arrays.toString(data[j])+":"+Arrays.toString(result));
  20.         }

  21.         //根據(jù)訓(xùn)練結(jié)果來預(yù)測(cè)一條新數(shù)據(jù)的分類
  22.         double[] x = new double[]{3,1};
  23.         double[] result = bp.computeOut(x);
  24.         System.out.println(Arrays.toString(x)+":"+Arrays.toString(result));
  25.     }
  26. }
復(fù)制代碼

小結(jié)
以上測(cè)試程序顯示神經(jīng)網(wǎng)絡(luò)有很神奇的分類效果,實(shí)際上神經(jīng)網(wǎng)絡(luò)有一定優(yōu)勢(shì),但也不是接近人腦的萬能算法,很多時(shí)候它可能會(huì)讓我們失望,還需要結(jié)合各種場(chǎng)景的數(shù)據(jù)大量運(yùn)用去觀察其效果。我們可以把1層隱含層改成n層,并調(diào)整每層節(jié)點(diǎn)數(shù)、迭代次數(shù)、學(xué)習(xí)步長(zhǎng)和動(dòng)量系數(shù),以獲得一個(gè)最優(yōu)化的結(jié)果。但是很多時(shí)候n層隱含層的效果并不比1層有明顯提升,反而計(jì)算更復(fù)雜耗時(shí),我們對(duì)神經(jīng)網(wǎng)絡(luò)的認(rèn)識(shí)還需要多實(shí)踐多體會(huì)。
作者簡(jiǎn)介:彭淵,在Java技術(shù)領(lǐng)域從業(yè)十多年,曾撰寫多款開源軟件,歷任淘寶高級(jí)專家和華為中間件首席架構(gòu)師。開源代表作有Fourinone(四不像)分布式核心技術(shù)框架、CoolHash并行數(shù)據(jù)庫引擎等,曾出版書籍《大規(guī)模分布式系統(tǒng)架構(gòu)與設(shè)計(jì)實(shí)戰(zhàn)》。

分享到:  QQ好友和群QQ好友和群 QQ空間QQ空間 騰訊微博騰訊微博 騰訊朋友騰訊朋友
收藏收藏 分享淘帖 頂 踩
回復(fù)

使用道具 舉報(bào)

沙發(fā)
ID:196521 發(fā)表于 2017-5-4 15:28 | 只看該作者
求指導(dǎo),我用你的代碼運(yùn)行一個(gè)不一樣的東西,結(jié)果很失望



import java.util.Random;
public class BpDeep{
    public double[][] layer;//神經(jīng)網(wǎng)絡(luò)各層節(jié)點(diǎn)
    public double[][] layerErr;//神經(jīng)網(wǎng)絡(luò)各節(jié)點(diǎn)誤差
    public double[][][] layer_weight;//各層節(jié)點(diǎn)權(quán)重
    public double[][][] layer_weight_delta;//各層節(jié)點(diǎn)權(quán)重動(dòng)量
    public double mobp;//動(dòng)量系數(shù)
    public double rate;//學(xué)習(xí)系數(shù)

    public BpDeep(int[] layernum, double rate, double mobp){
        this.mobp = mobp;
        this.rate = rate;
        layer = new double[layernum.length][];
        layerErr = new double[layernum.length][];
        layer_weight = new double[layernum.length][][];
        layer_weight_delta = new double[layernum.length][][];
        Random random = new Random();
        for(int l=0;l<layernum.length;l++){
            layer[l]=new double[layernum[l]];
            layerErr[l]=new double[layernum[l]];
            if(l+1<layernum.length){
                layer_weight[l]=new double[layernum[l]+1][layernum[l+1]];
                layer_weight_delta[l]=new double[layernum[l]+1][layernum[l+1]];
                for(int j=0;j<layernum[l]+1;j++)
                    for(int i=0;i<layernum[l+1];i++)
                        layer_weight[l][j][i]=random.nextDouble();//隨機(jī)初始化權(quán)重
            }   
        }
    }
    //逐層向前計(jì)算輸出
    public double[] computeOut(double[] in){
        for(int l=1;l<layer.length;l++){
            for(int j=0;j<layer[l].length;j++){
                double z=layer_weight[l-1][layer[l-1].length][j];
                for(int i=0;i<layer[l-1].length;i++){
                    layer[l-1][i]=l==1?in[i]:layer[l-1][i];
                    z+=layer_weight[l-1][i][j]*layer[l-1][i];
                }
                layer[l][j]=1/(1+Math.exp(-z));
            }
        }
        return layer[layer.length-1];
    }
    //逐層反向計(jì)算誤差并修改權(quán)重
    public void updateWeight(double[] tar){
        int l=layer.length-1;
        for(int j=0;j<layerErr[l].length;j++)
            layerErr[l][j]=layer[l][j]*(1-layer[l][j])*(tar[j]-layer[l][j]);

        while(l-->0){
            for(int j=0;j<layerErr[l].length;j++){
                double z = 0.0;
                for(int i=0;i<layerErr[l+1].length;i++){
                    z=z+l>0?layerErr[l+1][i]*layer_weight[l][j][i]:0;
                    layer_weight_delta[l][j][i]= mobp*layer_weight_delta[l][j][i]+rate*layerErr[l+1][i]*layer[l][j];//隱含層動(dòng)量調(diào)整
                    layer_weight[l][j][i]+=layer_weight_delta[l][j][i];//隱含層權(quán)重調(diào)整
                    if(j==layerErr[l].length-1){
                        layer_weight_delta[l][j+1][i]= mobp*layer_weight_delta[l][j+1][i]+rate*layerErr[l+1][i];//截距動(dòng)量調(diào)整
                        layer_weight[l][j+1][i]+=layer_weight_delta[l][j+1][i];//截距權(quán)重調(diào)整
                    }
                }
                layerErr[l][j]=z*layer[l][j]*(1-layer[l][j]);//記錄誤差
            }
        }
    }

    public void train(double[] in, double[] tar){
        double[] out = computeOut(in);
        updateWeight(tar);
    }
}




import java.util.Arrays;
public class MyBPtest1{
    public static void main(String[] args){
        //初始化神經(jīng)網(wǎng)絡(luò)的基本配置
        //第一個(gè)參數(shù)是一個(gè)整型數(shù)組,表示神經(jīng)網(wǎng)絡(luò)的層數(shù)和每層節(jié)點(diǎn)數(shù),比如{3,10,10,10,10,2}表示輸入層是3個(gè)節(jié)點(diǎn),輸出層是2個(gè)節(jié)點(diǎn),中間有4層隱含層,每層10個(gè)節(jié)點(diǎn)
        /////////第二個(gè)參數(shù)是學(xué)習(xí)步長(zhǎng)(過小會(huì)使收斂速度太慢;過大則會(huì)使預(yù)測(cè)不準(zhǔn),跳過一些細(xì)節(jié)),
            /////////第三個(gè)參數(shù)是動(dòng)量系數(shù)(使波動(dòng)小的預(yù)測(cè)重新振蕩起來)
        BpDeep bp = new BpDeep(new int[]{5,5,1}, 0.15, 0.9);

        ////////對(duì)于輸入樣本如果只有一個(gè)數(shù)。沒關(guān)系,大不了{(lán),}第二項(xiàng)里的data和target全為0,,,,!!!!這理解是錯(cuò)誤
        ////////因?yàn)槲覀冊(cè)O(shè)定了輸入層為2,才會(huì)有兩個(gè)輸入({,},{,}}這樣的東西;同理輸入層也為如此
        ////////所以說如果是5個(gè)輸入,一個(gè)輸出對(duì)于data就{{,,,,},{,,,,}。。。。。。};;;;;對(duì)于target{,,,,}
        double[][] data = new double[][]{{192,195,194,193,193},
                        {195,194,193,193,195},{194,193,193,195,201},
                        {193,193,195,201,205},{193,195,201,205,205},
                        {195,201,205,205,203},{201,205,205,203,203},
                        {205,205,203,203,202},{205,203,203,202,206},
                        {203,203,202,206,204},{203,202,206,204,204},
                        {202,206,204,204,203},{206,204,204,203,199},
                        {204,204,203,199,195},{204,203,199,195,182},
                        {203,199,195,182,179},{199,195,182,179,178},
                        {195,182,179,178,176},{182,179,178,176,175},
                        {179,178,176,175,173},{178,176,175,173,175},
                        {176,175,173,175,182},{175,173,175,182,183},
                        {173,175,182,183,185},{175,182,183,185,179}};
        //設(shè)置目標(biāo)數(shù)據(jù),對(duì)應(yīng)4個(gè)坐標(biāo)數(shù)據(jù)的分類
        double[][] target = new double[][]{{195},{201},{205},{205},{203},
                        {203},{202},{206},{204},{204},{203},{199},{195},{182},{179},
                        {178},{176},{175},{173},{175},{182},{183},{185},{179},{182}};

        //迭代訓(xùn)練5000次
        ///////這里我們沒有設(shè)置訓(xùn)練到了某一精確度自動(dòng)停止,而是實(shí)打?qū)嵉挠?xùn)練這些次數(shù)
        for(int n=0;n<5000;n++)
            for(int i=0;i<data.length;i++)
                bp.train(data[i], target[i]);

        //根據(jù)訓(xùn)練結(jié)果來檢驗(yàn)樣本數(shù)據(jù)
        for(int j=0;j<data.length;j++){
            double[] result = bp.computeOut(data[j]);
            System.out.println(Arrays.toString(data[j])+":"+Arrays.toString(result));
        }

        //根據(jù)訓(xùn)練結(jié)果來預(yù)測(cè)一條新數(shù)據(jù)的分類
        double[] x = new double[]{192,195,194,193,193};
        double[] result = bp.computeOut(x);
        System.out.println(Arrays.toString(x)+":"+Arrays.toString(result));
    }
}
回復(fù)

使用道具 舉報(bào)

本版積分規(guī)則

手機(jī)版|小黑屋|51黑電子論壇 |51黑電子論壇6群 QQ 管理員QQ:125739409;技術(shù)交流QQ群281945664

Powered by 單片機(jī)教程網(wǎng)

快速回復(fù) 返回頂部 返回列表
主站蜘蛛池模板: 国产黄色av电影 | 久久激情网| 狠狠骚| 美女午夜影院 | 毛片区| 欧美在线一区二区三区 | 国产黄色大片 | 中文字幕一区二区三区四区 | 国产专区视频 | 日韩电影在线一区 | 天天爽综合网 | 一区二区三区久久久 | 91视视频在线观看入口直接观看 | 国产综合视频 | 亚洲一区二区中文字幕在线观看 | 日本三级电影在线看 | 久久蜜桃av一区二区天堂 | 一区精品视频在线观看 | 中文字幕99| 欧美激情欧美激情在线五月 | 成人免费视频网址 | 亚洲在线中文字幕 | 欧美精品一二三 | 国产成人精品一区二区三区四区 | 久久夜夜| 日韩视频在线观看中文字幕 | 综合久久99 | 国产一区二区三区免费 | 亚洲一区二区久久 | 91精品国产综合久久精品 | 欧美日韩亚洲二区 | 久久精品中文字幕 | 在线免费观看视频你懂的 | 欧美4p| 99re在线免费视频 | 欧美一级黄色网 | 狠狠操狠狠操 | 色综合久久久 | 91av视频在线观看 | 狠狠久久久 | 久久成人综合 |