中文字幕无码日韩视频无码三区

一種基于bp神經網絡的預測裝置及設備的制作方法

文檔序(xu)號:6365039閱讀:192來(lai)源:國知局
專利名稱:一種基于bp神經網絡的預測裝置及設備的制作方法
技術領域
本發明主要涉及數據挖掘技術領域。
背景技術
一、數據挖掘技術
隨著存儲設備和數據庫技術的發展,數據的存儲已經不是問題,相反,人們已經開始感到被大量的數據淹沒,因此,急需一種科學的方法將海量的數據轉化成對人們有實際意義的知識和規律,數據挖掘就是在這個背景下產生的技術。20世紀80年代末,數據挖掘作為新興的研究領域悄然出現。數據挖掘的研究目的是在大型數據集中發現那些隱藏的、人們感興趣的具有特定規律的信息。隨著數據挖掘的發展,這種技術被應用在商業管理、政府辦公、科學研究和工程開發等眾多的領域中。一般來說,基本的數據挖掘流程如下所示
⑴定義問題清晰地定義出業務問題,確定數據挖掘的目的。⑵數據準備數據準備包括選擇數據一在大型數據庫和數據倉庫目標中提取數據挖掘的目標數據集;數據預處理一進行數據再加工,包括檢查數據的完整性及數據的一致性、去噪聲,填補丟失的域,刪除無效數據等。⑶數據挖掘根據數據功能的類型和數據的特點選擇相應的算法,在凈化和轉換過的數據集上進行數據挖掘。⑷結果分析對數據挖掘的結果進行解釋和評價,轉換成為能夠最終被用戶理解的知識。(5)知識的運用將分析所得到的知識集成到業務信息系統的組織結構中去。二、神經網絡算法
近年來,神經網絡被廣泛運用于時間序列分析和金融預報,這是因為神經網絡具有非常強的非線性函數逼近能力,克服了傳統處理方法對于數據方面的缺陷,使之在預測領域得到成功的應用。神經網絡是一種類似于大腦神經突觸結構并可以進行信息處理的數學模型,它是對人腦的抽象、簡化和模擬,反映了人腦的基本特性。神經網絡(圖I)同時也是一種運算模型,由大量的節點(也稱為神經元)和相互之間的加權連接構成。每個節點代表一種特定的輸出函數,稱為激勵函數(activationfunction)。每兩個節點間的連接都代表一個對于通過該連接信號的加權值,稱為權重(weight),這相當于神經網絡的記憶。網絡的輸出則根據網絡的連接方式、權重值和激勵函數的不同而不同。而網絡自身通常都是對自然界某種算法或者函數的逼近,也可能是對一種邏輯策略的表達。神經網絡主要解決數據挖掘的分類和回歸任務,它可以找出輸入屬性和可預測屬性之間平滑連續的非線性關系。三、BP神經網絡BP (Back Propagation)網絡是1986年由Rumelhart和McCelland為首的科學家小組提出,是一種按誤差逆傳播算法訓練的多層前饋網絡,是目前應用最廣泛的神經網絡模型之一。BP網絡能學習和存貯大量的輸入-輸出模式映射關系,而無需事前揭示描述這種映射關系的數學方程。它的學習規則是使用最速下降法,通過反向傳播來不斷調整網絡的權值和閾值,使網絡的誤差平方和最小。BP神經網絡模型拓撲結構包括輸入層(input)、隱藏層(hide layer)和輸出層(output layer)。神經網絡可以用作分類、聚類、預測等。神經網絡需要有一定量的歷史數據,通過歷史數據的訓練,網絡可以學習到數據中隱含的知識。在你的問題中,首先要找到某些問題 的一些特征,以及對應的評價數據,用這些數據來訓練神經網絡。 雖然BP網絡得到了廣泛的應用,但自身也存在一些缺陷和不足,主要包括以下幾個方面的問題。首先,由于學習速率是固定的,因此網絡的收斂速度慢,需要較長的訓練時間。對于一些復雜問題,BP算法需要的訓練時間可能非常長,這主要是由于學習速率太小造成的,可采用變化的學習速率或自適應的學習速率加以改進。其次,BP算法可以使權值收斂到某個值,但并不保證其為誤差平面的全局最小值,這是因為采用梯度下降法可能產生一個局部最小值。對于這個問題,可以采用附加動量法來解決。再次,網絡隱含層的層數和單元數的選擇尚無理論上的指導,一般是根據經驗或者通過反復實驗確定。因此,網絡往往存在很大的冗余性,在一定程度上也增加了網絡學習的負擔。最后,網絡的學習和記憶具有不穩定性。也就是說,如果增加了學習樣本,訓練好的網絡就需要從頭開始訓練,對于以前的權值和閾值是沒有記憶的。但是可以將預測、分類或聚類做的比較好的權值保存。回顧各種數據挖掘預測算法的發展,我們可以看到其推廣的瓶頸在于不同的算法需要不同的訓練數據格式和特殊化的參數設置,而且其預測過程往往需要人為干預和設定,預測時需要提供大量的輔佐數據,預測結果也不夠直觀,這對于算法的推廣和使用均十分不利。

發明內容
本發明的目的在于,提供一類全新的、可自適應的基于BP神經網絡的預測裝置,其改進了 BP神經網絡算法,用以適應各種常見的預測模式,如天氣和交通情況的預測等。作為本發明的實施方式,提供一種可自適應的基于BP神經網絡的預測裝置,所述裝置包括數據接收單元、數據預處理單元、初始化單元、學習單元、迭代預測單元和數據恢復單元,上述單元依次串行排列,其中,數據接收單元、數據預處理單元和初始化單元用于準備基礎數據和參數,以便裝置順利執行;學習單元對原始數據進行訓練和學習,找出權值矩陣;迭代預測單元根據權值矩陣來推導預測結果;數據恢復單元將歸一化的預測結果恢復到原始值。更進一步,所述數據接收單元接收該預測裝置所必需的原始訓練數據和預測時長參數,所述原始訓練數據為N*N行列式。所述數據預處理單元數據接收單元接收到的原始訓練數據進行自動的歸一化處理,并建立訓練樣本的輸入輸出矩陣。所述初始化單元初始化BP神經網絡的各項參數,所述參數包括學習速率、期望誤差最小值、慣性系數、最大訓練次數、隱藏單元和輸出單元各神經元初值等。
在一個可選的實施方式中,所述學習單元對訓練樣本進行學習,通過學習的過程不斷調整隱藏單元和輸出單元的加權系數,當誤差小于最小期望誤差或達到最大訓練次數時,學習過程結束,其目的是得到權值矩陣。所述迭代預測單元進行迭代預測,將學習單元最后的訓練樣本作為已知,通過學習到的各單元加權系數進行運算得出第一個預測結果,再以此預測結果作為已知并推算出下一個預測結果,以此類推,迭代完成所有預測,獲得預測結果。所述數據恢復單元將歸一形式的預測結果恢復成與原始訓練數據一致的數值范圍。一個具體的,非限制性的實施方式中,所述誤差計算函數為
若為輸出神經元,則誤差Erri = Oi (I — Oi) (Ti — Oi),
Oi是輸出神經元i的輸出, Ti是該輸出神經元的實際值;
若為隱藏神經元,則誤差Erri = Oi (I — Oi) Σ J-ErrjWij,
Oi是隱藏神經元i的輸出,該神經元有j個到下層的輸出,所述Arry是神經元j的誤差,Wij是這兩個神經元之間的權值。所述調整權值函數為Wij = Wij + I* Errj * Oi, I為學習速度。作為本發明的較優選的實施方式中,所述數據接收單元接收的是天氣數據,或者交通狀況數據。本發明還提供一種天氣預測設備,包括上述基于BP神經網絡的預測裝置。本發明提供的方法使用相對靈活的訓練數據格式,算法可自動進行歸一化、樣本建立等工作,避免了因數據格式混亂而導致的算法失效等問題;另外,預測不需要提供任何輔佐數據,僅僅根據原始訓練數據即可進行多屬性的連續預測。且BP神經網絡算法本身可適用于多種復雜情境,靈活性高。該裝置可自動判別原始訓練數據模式,并對其進行樣本建立和歸一化。預測方法使用迭代預測,不需要提供輔助數據完成預測。預測結果可恢復至與原始訓練數據相對應的數值范圍。BP神經網絡算法可適用于各種復雜的情況,但其受數據形式的影響較大,且解釋結果較為困難,這種基于改進策略的BP神經網絡預測裝置構建方法可在很大程度上削弱人對數據的控制力,并將其用于多種環境下。


圖I為神經網絡基本算法示意圖。圖2為本發明提供的基于BP神經網絡的預測裝置的功能流程圖。
具體實施例方式以下結合具體的實施方式來描述本發明。在一個非限制性的實施方式中,在天氣預報方面,利用本發明的方法,只需提供一段時間內的最高溫度、最低溫度等數字化的歷史數據,就可以預測出未來的最高溫度和最低溫度等信息,而且在此過程中無需提供其它額外數據輔助,預測結果也能直觀體現。以溫度預測舉例,提供N行2列的氣溫信息,列屬性分別為最高溫度和最低溫度。裝置接收到此原始數據后開始進行預處理,即將N行2列的原始溫度數據歸一化為O到I之間的數值;然后自動建立訓練樣本的輸入輸出矩陣,即將第I到N-I條數據作為輸入矩陣,第2到N條數據作為輸出矩陣,至此數據的預處理階段完成。此后裝置進入算法學習階段,首先隨機初始化輸入層到隱藏層、隱藏層到輸出層的權值矩陣,然后計算隱藏層各神經元、輸出層各神經元的輸出,計算每個輸出神經元和隱藏神經元輸出的誤差(與實際數據比較),并反向傳播更新網絡中的權值,當誤差小于既定的期望誤差或訓練次數超過既定的最大訓練次數時完成算法學習階段的工作,記錄權值矩陣進入下一階段。
裝置進入迭代預測階段,首先,將訓練樣本的最后一條記錄作為已知條件,利用上一步得到的權值矩陣計算輸出,并將結果作為已知;然后利用已知數據迭代進行預測,得到從最后一條訓練數據開始到預測時長前一單位階段的預測結果,此時I條實際數據與n-1條預測數據在同一臨時結果集中;最后,利用上述臨時結果集中的數據和權值矩陣作為已知,計算得到所有的預測結果矩陣。得到預測結果矩陣之后,裝置進入最后反歸一化的階段,即將歸一化后的結果數據恢復成正常的溫度值。此裝置可以處理的數據需要滿足條件
1)所有屬性均可數值化;
2)歷史數據具有一定的時序性。為了更進一步公開本發明的技術方案,以下介紹本發明所提出的方法的理論基礎
定義 I :歸一化函數為R(i, j) = (r(i, j) - minv(j))/(maxv(j) - minv(j));
其中R(i,j)為i行j列的歸一結果,r(i,j)為第i行j列的歷史數據,minv(j)為第j列的最小值,maxv(j)為第j列的最大值。定義2 :算法可根據神經元類型的不同計算神經元的輸出值
如果當前是隱藏神經元,則采用tanh函數0 = (ea — e_a) / (ea + e_a);
如果當前是輸出神經元,貝1J采用sigmoid函數0 = I / (I + ea);
其中a是輸入值,O是輸出值。定義3 :誤差計算函數為
如果當前是輸出神經元=Erri = 0“1 — Oi) (Ti — Oi)
(Oi是輸出神經元i的輸出,Ti是該輸出神經元的實際值。)
如果當前是隱藏神經元=Erri = Oi (I — Oi) Σ J-ErrjWij
(Oi是隱藏神經元i的輸出,該神經元有j個到下層的輸出。Arry是神經元j的誤差,Wij是這兩個神經元之間的權值。)
神經網絡算法示意圖如圖2所示。定義4 :算法的調整權值函數為=Wij = Wij + I* Errj * Oi (I為學習速度。) 根據上述理論,另一個更為一般性的實施方式中,一種基于改進策略的BP神經網絡預
測裝置構建方法被提出,該裝置分為六個層次,分別是數據接收層、數據預處理層、算法初始化層、算法學習層、迭代預測層和數據恢復層。在一個非限制性的實施方式中,上述各層均使用相應的硬件或軟件單元來實現,因此其也被稱為數據接收單元、數據預處理單元、初始化單元、學習單元、迭代預測單元和數據恢復單元。其中數據接收層是算法外界參數的接受層;數據預處理層和算法初始化層用于準備基礎數據和參數,以便算法順利執行;算法學習層對原始數據進行訓練和學習,目的是找出權值矩陣;迭代預測層會根據訓練數據來推導預測結果;數據恢復層可將歸一化的預測結果恢復到原始值。更為詳細的實施方式中,對上述六個層次進行了如下非限制性的描述。數據接收層本層的主要功能是接收該預測裝置所必需的原始訓練數據和預測時長參數。其中原始訓練數據要以N*N (列為屬性,行與行之間存在時間關系)行列式的原始形式輸入到該裝置中作為原始訓練數據,該數據不需要經過任何特殊處理;預測時長的單位應與原始訓練數據采集時的時間單位基本保持一致,如天、小時、分鐘等等。數據預處理層本層的主要功能是將上層接收到的原始訓練數據進行自動的歸化處理,并建立訓練樣本的輸入輸出矩陣,整個過程無需人為干預和設定,由裝置自動判斷和處理。裝置會先獲得原始訓練數據的行數列數,然后通過雙重循環來完成歸一化工作,之后再次利用雙重循環來建立樣本的輸入輸出矩陣。算法初始化層本層的主要功能是初始化BP神經網絡算法的各項參數,如學習速率、期望誤差最小值、慣性系數、最大訓練次數、隱藏層和輸出層各神經元初值等。算法學習層本層的主要功能是利用算法對訓練樣本進行學習,通過學習的過程不斷調整隱藏層和輸出層的加權系數,當誤差小于最小期望誤差或達到最大訓練次數時,學習過程結束。本層的最終目的是得到權值矩陣。迭代預測層本層的主要功能是根據算法學習的成果和訓練樣本進行迭代預測,該層的特點是將最后的訓練樣本作為已知,通過學習到的各層加權系數進行運算得出第一個預測結果,再以此預測結果作為已知并推算出下一個預測結果,以此類推,迭代完成所有預測。數據恢復層本層的主要功能是將歸一形式的預測結果恢復成與原始訓練數據一致的數值范圍,使預測結果具有實際意義。下面論述該裝置的實現方案
BP神經網絡是一種按誤差逆傳播算法訓練的多層前饋網絡,BP神經網絡能學習和存貯大量的輸入-輸出模式映射關系,而無需事前揭示描述這種映射關系的數學方程。它的學習規則是使用最速下降法,通過反向傳播來不斷調整網絡的權值和閾值,使網絡的誤差平方和最小。BP神經網絡裝置拓撲結構包括輸入層、隱藏層和輸出層。每個神經元有一個或多個輸入但只有一個輸出,神經網絡算法使用加權和(每個輸入值乘以與它關聯的權值,然后對乘積求和)的方法組合多個輸入值,然后根據神經元類型的不同計算神經元的輸出值(激活)
若是隱藏神經元,則采用tanh函數0 = (ea — e_a) / (ea + e_a);
若是輸出神經元,貝1J采用sigmoid函數0 = I / (I + ea);
其中a是輸入值,O是輸出值。圖I顯示了神經元內部進行組合和輸出的計算過程,即首先使用加權和的方法組合輸入值1、2和3,然后根據神經元類型的不同選擇tanh或sigmoid函數得到輸出結果。最后計算每個輸出和隱藏神經元計算輸出的誤差(與實際數據比較),反向傳播更新網絡中的權值,直到滿足算法的終止條件其中,誤差計算函數為
若為輸出神經元=Erri = OiQ — Oi) (Ti — Oi)
(Oi是輸出神經元i的輸出,Ti是該輸出神經元的實際值。)
若為隱藏神經元=Erri = Oi (I — Oi) Σ J-ErrjWij
CO1是隱藏神經元i的輸出,該神經元有j個到下層的輸出。Arry是神經元j的誤差,Wij是這兩個神經元之間的權值。)
調整權值函數為=Wij = Wij + I* Errj * Oi (I為學習速度。)
在改進的BP神經網絡算法中,實現步驟如下
步驟I、接收原始訓練數據矩陣和訓練時長參數,以天氣預測為例,原始數據可為連續幾日的最高溫度和最低溫度,預測時長為7天。步驟2、初始化數據,包括設定學習速率、期望誤差、訓練的最大次數、慣性系數、隱含層和輸出層各神經元輸出初值,根據原始數據動態得到矩陣行列數據PO。步驟3、獲取每列訓練數據的最大值maxv(j)與最小值minv(j)后對數據進行歸一化處理,使原始數據規范到O到I之間,歸一使用P (i, j) = (p0(i, j) - minv(j))/ (maxv(j)-minv(j));。其中p(i,j)為i行j列的歸一結果,p0(i,j)為第i行j列的歷史數據,minv(j)為第j列的最小值,maxv(j)為第j列的最大值。步驟4、根據原始訓練數據得到訓練樣本的輸入矩陣和輸出矩陣。for i=l: count—sumCfor j = I:count_sumL-l
X(i, j)= p(j, i);
T(i, j) = p(j+l, i);
end
end
其中,count_sumC表示矩陣列的數量,count_sumL表示矩陣行的數量,X為輸入樣本,T為輸出樣本,P為歸一化后的訓練樣本。步驟5、隨機初始化權值矩陣wki和wij。其中,wki表示隱藏層到輸入層的權值矩陣,wij表示輸入層到隱藏層的權值矩陣。步驟6、計算隱藏層各神經元、輸出層各神經元的輸出,隱藏層輸出計算公式為0=(ea —e_a) / (ea +e_a),輸出層的輸出計算公式為0= I / (I + e_a)。其中a表示神經元的輸入值。步驟7、計算每個輸出和隱藏神經元計算輸出的誤差(與實際數據比較),反向傳播更新網絡中的權值。其中,誤差計算函數為
若為輸出神經元=Erri = OiQ — Oi) (Ti — Oi)
(Oi是輸出神經元i的輸出,Ti是該輸出神經元的實際值。)
若為隱藏神經元=Erri = Oi (I — Oi) Σ J-ErrjWij
(Oi是隱藏神經元i的輸出,該神經元有j個到下層的輸出。Errj是神經元j的誤差,Wij是這兩個神經元之間的權值。)
調整權值函數為=Wij = Wij + I* Errj * Oi (I為學習速度。)
步驟8、重復步驟6,直到滿足終止條件為止,該算法的終止條件為誤差小于期望誤差或訓練次數大于最大設定值。步驟9、根據訓練后得到的權值矩陣和訓練時的參數,以最后一條實際數據作為初始輸入進行預測,再將預測結果作為下一天的實際數據再次進行預測,直到滿足預測天數參數。預測過程同步驟6。步驟10、將得到的預測結果矩陣進行恢復,即將歸一化后的值恢復到實際數值Res (i, j) =PredictRes (j, i) * (maxv (j) -minv (j)) +minv (j)。其中,PredictRes (j, i)表不未還原的預測結果,Res (i, j)表示已還原的預測結果。現以溫度預測舉例,提供N行2列的氣溫信息,列屬性分別為最高溫度和最低溫度。裝置接收到此原始數據后開始進行預處理工作,即將N行2列的原始溫度數據利用公式 p(i,j) = (p0(i, j) - minv (j))/(maxv (j) - minv (j))歸一化為 0 到 I 之間的數值;然后自動建立訓練樣本的輸入輸出矩陣,即將第I到N-I條數據作為輸入矩陣,第2到N條數據作為輸出矩陣,至此數據的預處理階段完成。裝置進入算法學習階段,首先隨機初始化輸入層到隱藏層、隱藏層到輸出層的權值矩陣,然后利用公式0= (ea — e_a) / (ea + e_a)計算隱藏層各神經元輸出,利用公式O=I / (I+ e_a)計算輸出層各神經元的輸出,之后再計算每個輸出神經元和隱藏神經元輸出的誤差(與實際數據比較),并反向傳播更新網絡中的權值,當誤差小于既定的期望誤差或訓練次數超過既定的最大訓練次數時完成算法學習階段的工作,記錄權值矩陣進入下一階段。裝置進入迭代預測階段,首先,將訓練樣本的最后一條記錄作為已知條件,利用上一步得到的權值矩陣用公式O = (ea — e_a) / (ea + e_a)或O = I / (I + e_a)計算輸出,并將結果作為已知;然后利用已知數據迭代進行預測,得到從最后一條訓練數據開始到預測時長前一單位階段的預測結果,此時I條實際數據與η-I條預測數據在同一臨時結果集中;最后,利用上述臨時結果集中的數據和權值矩陣作為已知,計算得到所有的預測結果矩陣。得到預測結果矩陣之后,裝置進入最后反歸一化的階段,即將歸一化后的結果數據利用公式 Res (i, j) =PredictRes (j, i) * (maxv (j) -minv (j)) +minv (j)恢復成正常的溫度值。改進的BP神經網絡的算法流程圖如圖2所示。本發明技術方案具有以下優勢
BP神經網絡算法本身可適用于多種復雜情境,靈活性高。該裝置使用的改進算法可自動判別原始訓練數據模式,并對其進行樣本建立和歸一化。預測方法使用迭代預測,不需要提供輔助數據完成預測。預測結果可恢復至與原始訓練數據相對應的數值范圍。
BP神經網絡算法可適用于各種復雜的情況,但其受數據形式的影響較大,且解釋結果較為困難,這種基于改進策略的BP神經網絡預測裝置構建方法可在很大程度上削弱人對數據的控制力,并將其用于多種環境下。經過 恢復的預測結果通過不同的工具和技術可衍生出多種結果形式,如折線圖、餅狀圖、柱狀圖等,甚至特殊領域的相關圖形,如交通流量圖、氣溫變化圖等。
權利要求
1.一種基于BP神經網絡的預測裝置,所述裝置包括數據接收單元、數據預處理單元、初始化單元、學習單元、迭代預測單元和數據恢復單元,其特征在于 上述單元依次串行排列, 其中,數據接收單元、數據預處理單元和初始化單元用于準備基礎數據和參數,以便裝置順利執行; 學習單元對原始數據進行訓練和學習,找出權值矩陣; 迭代預測單元根據權值矩陣來推導預測結果; 數據恢復單元將歸一化的預測結果恢復到原始值。
2.如權利要求I所述的基于BP神經網絡的預測裝置,其特征在于 所述數據接收單元接收該預測裝置所必需的原始訓練數據和預測時長參數,所述原始訓練數據為N*N行列式。
3.如權利要求2所述的基于BP神經網絡的預測裝置,其特征在于 所述數據預處理單元數據接收單元接收到的原始訓練數據進行自動的歸一化處理,并建立訓練樣本的輸入輸出矩陣。
4.如權利要求3所述的基于BP神經網絡的預測裝置,其特征在于 所述初始化單元初始化BP神經網絡的各項參數,所述參數包括學習速率、期望誤差最小值、慣性系數、最大訓練次數、隱藏單元和輸出單元各神經元初值等。
5.如權利要求4所述的基于BP神經網絡的預測裝置,其特征在于 所述學習單元對訓練樣本進行學習,通過學習的過程不斷調整隱藏單元和輸出單元的加權系數,當誤差小于最小期望誤差或達到最大訓練次數時,學習過程結束,其目的是得到權值矩陣。
6.如權利要求5所述的基于BP神經網絡的預測裝置,其特征在于 所述迭代預測單元進行迭代預測,將學習單元最后的訓練樣本作為已知,通過學習到的各單元加權系數進行運算得出第一個預測結果,再以此預測結果作為已知并推算出下一個預測結果,以此類推,迭代完成所有預測,獲得預測結果。
7.如權利要求6所述的基于BP神經網絡的預測裝置,其特征在于 所述數據恢復單元將歸一形式的預測結果恢復成與原始訓練數據一致的數值范圍。
8.如權利要求7所述的基于BP神經網絡的天氣預測方法,其特征在于 所述誤差計算函數為 若為輸出神經元,則誤差Erri = Oi (I — Oi) (Ti — Oi), Oi是輸出神經元i的輸出,Ti是該輸出神經元的實際值; 若為隱藏神經元,則誤差Erri = Oi (I — Oi) Σ J-ErrjWij, Oi是隱藏神經元i的輸出,該神經元有j個到下層的輸出,所述Errj是神經元j的誤差,Wij是這兩個神經元之間的權值; 所述調整權值函數為^ij = Wij + I* Errj * Oi, I為學習速度。
9.如權利要求1-8任意一項所述的基于BP神經網絡的預測裝置,其特征在于所述數據接收單元接收的是天氣數據,或者交通狀況數據。
10.一種天氣預測設備,其特征在于,包括如權利要求1-8任意一項所述的基于BP神經網絡的預測裝置。
全文摘要
本發明公開了一種基于BP神經網絡的預測裝置,所述裝置包括數據接收單元、數據預處理單元、初始化單元、學習單元、迭代預測單元和數據恢復單元,使用的改進算法可自動判別原始訓練數據模式,并對其進行樣本建立和歸一化。該裝置可適用于多種復雜情境,靈活性高,不需要提供輔助數據完成預測,預測結果可恢復至與原始訓練數據相對應的數值范圍。
文檔編號G06N3/02GK102622418SQ20121003924
公開日2012年8月1日 申請日期2012年2月21日 優先權日2012年2月21日
發明者周林, 曹國良, 沈洪, 王汕汕, 馬楠 申請人:北京聯合大學
網友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1