新書推薦:
《
人间来过:百岁医师的人生处方
》
售價:NT$
250.0
《
湿胖2
》
售價:NT$
286.0
《
日本名厨高汤研究全书
》
售價:NT$
449.0
《
犹太古史
》
售價:NT$
908.0
《
四轮驱动:中国汽车产业的数智化创新之路
》
售價:NT$
454.0
《
帮凶:全二册
》
售價:NT$
407.0
《
红楼游园一步一景:详解红楼梦中的园林和建筑 配有人物关系图 赠送大观园全景图 精美书签
》
售價:NT$
407.0
《
挣扎中的决断:竹内好传
》
售價:NT$
418.0
|
內容簡介: |
人類的頭腦約由1011個神經元所組成,所有的訊息就在神經元與神經元間靠著軸突及樹突的發送與接收來傳遞。在這樣的一個過程中,所接收進來的各種訊息被分類或辨認,進而形成了人類的認知與思維。現在我們利用數學的計算來模擬神經元的運作,進而模擬神經網路的傳送,以期達到分類或辨認。類神經網路的特點為學習,學習的目的是要調整神經腱的大小,即調整加權係數,我們要探討各種就是學習法則。的類神經網路的模型及其加權係數的調整公式,也本書著重於利用類神經網路的方法於圖形辨識與最佳化問題之解決,因此將先介紹傳統的識別方法,再介紹類神經網路的各種理論及模型。本書提供基本的例子讓讀者容易了解,容易進入類神經網路的領域,在探討的多個模型中,均有自己提出的見解。
本書特色:
1.本書著重於利用類神經網路的方法於模式辨別與最佳化問題之解決。
2.提供基礎範例讓讀者容易了解,容易進入類神經網路的領域。
3.在何普菲模型應用於解銷售員旅行問題TSP走最短距離的迴旋距離的優化,有詳細的分析;在何普菲類神經網路及一般化的蜂窩神經網絡也有做基本的介紹。
|
目錄:
|
第一章簡介
1.1圖型的定義與圖型識別的方法
1.2Decision-theoreticApproach的圖形識別與空間分割
1.3PatternRecognitionSystems
1.4Non-parametric&ParametricMethods
1.5人類頭腦的Neuron與模擬的Perceptron
1.6TwoClassData分佈的複雜性
1.7ActivationFunction
1.8DevelopmentHistoryofNeuralNetworks
1.9NeuralNetworkApplications
第二章DECISION-THEORETICPATTERNRECOGNITION決策理論的圖形識別
Decision-theoreticApproach的圖形識別與DiscriminantFunctions
2.2NonparametricPatternRecognition非參數式之圖形識別:
UsingDiscriminantFunctions
2.2.1Lineardiscriminantfunctionsforpatternrecognition
2.2.2Nonlineardiscriminantfunctionsforpatternrecognition
2.2.3Perpendicularbisector
2.2.4Minimum-distanceclassifier
2.2.5Minimum-distanceclassifierwithrespecttopointsetsPiecewise-lineardiscriminantfunctions,Nearest-neighborclassification
2.2.6N-nearestneighborclassificationrule
2.3ParametricPatternRecognition參數式之圖形識別
2.3.1Bayestheorem貝氏定理andprobabilitydensityfunctionpdf
2.3.2BayesParametricclassificationrule貝氏分類法則
2.3.3Sequentialclassification
2.3.4Neyman-Pearsontest
2.3.5LinearClassifierDesign
2.3.6Featureselection
2.3.7Errorestimation
2.4UnsupervisedPatternRecognition
2.4.1MinimumspanningtreeMSTclustering
2.4.2K-meansclustering
2.4.3HierarchicalClusteringUsingDendrogramUnsupervisedClustering2
第三章PERCEPTRON認知器數學上解DecisionBoundary之困難
3.2Perceptron
3.3Classification
3.4TrainingLearning
3.5FlowchartsofPerceptron
3.6ConvergenceProofofPerceptronforFixedIncrementTrainingProcedure
3.7PerceptronforLogicOperation
3.8LayeredMachineCommitteeMachineVotingMachine
3.9MulticlassPerceptrons
3.10PerceptronwithSigmoidalActivationFunctionandLearningby
GradientDescentMethod
3.11ModifiedFixed-incrementTrainingProcedure
3.12MulticlassPerceptronwithDeltaLearningRule
3.13Widrow-HoffLearningRule
3.14CorrelationLearningRule
第四章MULTILAYERPERCEPTRON多層認知器Introduction
4.2設計MultilayerPerceptronwith1HiddenLayer解XOR的分類問題
4.3GradientandGradientDescentMethodinOptimization
4.4MultilayerPerceptronMLPandForwardComputation
4.5Back-propagationLearningRuleBP
4.5.1Analysis
4.5.2Back-propagationlearningalgorithmofone-hiddenlayerperceptronI
4.5.3Back-propagationlearningalgorithmofone-hiddenlayerperceptronII
4.6ExperimentofXORClassification&Discussions
4.7OnHiddenNodesforNeuralNets
4.8Application-NETtalk:AParallelNetworkThatLearnstoReadAloud
4.9Functional-LinkNet
第五章RADIALBASISFUNCTIONNETWORKRBF輻射基底函數網路Introduction
5.2RBFNetwork第一層的LearningAlgorithm
5.3RBFNetwork第二層的LearningAlgorithm
5.4設計RBFModeltoClassifyXORPatterns
第六章SUPPORTVECTORMACHINESVM支持向量的分類器Introduction
6.2點到Hyperplane之距離
6.3RoleofSupportVectorsinOptimalMarginClassifierforLinearly
SeparableCase
6.4FindOptimalMarginClassifierforLinearlySeparableCase
6.5SVMforNonseparablePatterns
6.5.1PrimalProblem
6.5.2DualProblem
6.6FeatureTransformationandSupportVectorMachineSVM–Kernel
SVM
6.6.1PrimalProblemandOptimalSeparatingHyperplane之建立
6.6.2在DualProblem上求解新的FeatureSpace上的SupportVectorMachine
6.6.3GradientAscent的調適性的方法求LagrangeMultipliers
6.7MulticlssClassificationUsingSupportVectorMachine
6.7.1MaximumSelectionClassificationSystemUsingSVMs
6.7.2利用SVM於數字辨識的樹狀分類系統TreeClassificationSystem
6.7.3Multi-classClassificationUsingManyBinarySVMs
6.8SVMExamples
6.8.1直接利用Lagrangemethod沒有利用KKTconditions的Lagrange
method
6.8.2利用加入KKT的Lagrangemethod
6.8.3SupportVectorMachineSVMUsingFeatureTransformation–
KernelSVM
6.8Exercise
第七章KOHONEN’SSELF-ORGANIZINGNEURALNET自我組織的
類神經網路Winner-Take-AllLearningRule
7.2Kohonen’sSelf-organizingFeatureMaps
7.3Self-organizingFeatureMaps於TSP
第八章PRINCIPALCOMPONENTNEURALNET主分量類神經網路Introduction
8.2HebbianLearningRule
8.3Oja的學習法則
8.4NeuralNetworkofGeneralizedHebbianLearningRule
8.5DataCompression
8.6EffectofAddingOneExtraPointalongtheDirectionofExisting
Eigenvector
8.7Neuralnetwork的PCA的應用
第九章HOPFIELDNEURALNET
9.1LyapunovFunction
9.2DiscreteHopfieldModel
9.3AnalogHopfieldModel
9.3.1CircuitsandPower
9.3.2AnalogHopfieldModel
9.4OptimizationApplicationofHopfieldModeltoTSP
9.5與HopfieldNeuralNet有關的研究與應用
第十章CELLULARNEURALNETWORK蜂巢式類神經網路
10.1簡介
10.2蜂巢式類神經網路架構
10.3蜂巢式類神經網路的穩定性分析
10.4蜂巢式類神經網路與Hopfield神經網路的比較
10.5離散蜂巢式類神經網路
第十一章HAMMINGNET
11.1Introduction
11.2HammingDistanceandMatchingScore
11.3HammingNetAlgorithm
11.4Comparator
第十二章ADAPTIVERESONANCETHEORYNETART
12.1Introduction
12.2ART1NeuralModel
12.3CarpenterGrossbergART1Net的Algorithm
12.4RevisedARTalgorithm
第十三章FUZZY,CLUSTERING,ANDNEURALNETWORKS
13.1FuzzyC-meansClusteringAlgorithm
13.2FuzzyPerceptron
13.3PocketLearningAlgorithm
13.4FuzzyPocket
參考文獻
附錄
AppendixA:InnerProduct內積
AppendixB:LinePropertyandDistancefromPointtoLine
AppendixC:CovarianceMatrix
AppendixD:Gram–SchmidtOrthonormalProcedure
AppendixE:LagrangeMultipliersMethod
AppendixF:Gradient,GradientDescentandAscentMethodsinOptimization
AppendixG:DerivationofOja’slearningrule
AppendixH:類神經網路程式實驗報告範例
AppendixI:實驗報告範例之電腦程式
AppendixJ:MATLABProgramofPerceptron
AppendixK:MATLABProgramofMultilayerPerceptron
AppendixL:FORTRANProgramforPerceptron
AppendixM:畫aX+bY+cZ+常數=0的平面的Matlab電腦程式
AppendixN:SupportVectorMachine的數學推導
|
|