The weight Wi j between the hidden node Rj belonging to class Cj and t การแปล - The weight Wi j between the hidden node Rj belonging to class Cj and t ไทย วิธีการพูด

The weight Wi j between the hidden

The weight Wi j between the hidden node Rj belonging to class Cj and the output node
computing probabilities for class Ci is initially equal to Wi j = (1−R (Ci,Cj))/Cj, where the
elements of the risk matrix 0 ≤ R (Ci,Cj) ≤ 1 in the simplest k-NN are replaced by deltai j.
Thus each vector that belongs to the k nearest ones or that falls into the r radius of X and is of
the Cj class, contributes to the probability of the Ci class a value 1−R (Ci,Cj). The structure
of the network is shown in Fig. 2. For the cost function that should be optimized one may
take:
E(W;M) = ∑
X,i
(p(Ci|X;M)−δ(Ci,C(X)))2 (15)
where the model M includes k, weights and distance-related as parameters. If the number of
classification errors should be minimized binary 0, 1 output probabilities are taken, provided
for example by the winner-takes-all neural procedure. Binary probabilities should be used
with global minimization or search-based methods, since gradient-based methods cannot
be used in this case. The output weights, initialized to Wi j = (1 − R (Ci,Cj))/Cj, may be
treated as adaptive parameters. Introduction of soft weighting G(D(·)) allows to use gradient
optimization methods. For many datasets (especially for images [17]) this simple network
should outperform MLPs and other classification models, since the results should be at least
as good as the k-NN results.
A single neuron provides discrimination hyperplane which may be replaced by one
reference vector. Position of this reference vector should be adapted to the data. Using
different Minkovsky distance functions changes the decision borders. Using one prototype
Ri per class (i.e. one hidden node) class membership is decided by discriminant function:
z(X) = W1D(X,R1)−W2D(X,R2)−θ (16)
where θ is a threshold. The 3 adaptive parameters, W1,W2,θ and the positions of two
prototype vectors provide very flexible decision borders in the two class problem. If more
reference vectors are required the output node computing discriminating function sums over
prototypes for each class:
z(X) = ∑
i∈C1
WiD(X,Ri)− ∑
i∈C2
WiD(X,Ri)−θ (17)
Scaling of the whole sum, instead of influences of individual reference vectors, is a simple
way to reduce the number of adaptive parameters used by the system. One option that we are
investigating is to use simple gradient optimization for weights and thresholds, and search
based techniques for non-linear scaling parameters.
Similarity of such neural realization of the nearest neighbor method to RBF model with
radial coordinate functions should be noted. If the number of neighbors is not restricted the
two methods are identical.
SBM point of view on neural networks not only allows to define many new methods,
but leads also to novel applications such as pattern completion or associative memory recall.
A natural cluster-based initialization described below determines all parameters of D-MLP
networks.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
น้ำหนักเจอินเตอร์ระหว่างการซ่อนโหน Rj เป็นสมาชิกคลา Cj และโหนดออกกิจกรรมการใช้งานคลาส Ci เป็นครั้งแรกเท่ากับเจอินเตอร์ = (1−R (Ci, Cj)) / Cj ที่องค์ประกอบของการเสี่ยงเมตริกซ์ 0 ≤ R (Ci, Cj) ≤ 1 ใน k-NN ที่ง่ายที่สุดจะถูกแทนที่ ด้วยเจ deltaiแต่ละเวกเตอร์ที่เป็น k ใกล้คนหรือน้ำตกที่เป็นรัศมี r ของ X และเป็นเรียน Cj สนับสนุนความเป็นไปของคลา Ci 1−R ค่า (Ci, Cj) โครงสร้างของเครือข่ายจะแสดงใน Fig. 2 สำหรับฟังก์ชันต้นทุนที่ควรปรับ หนึ่งอาจใช้:E(W; M) = ∑X ฉัน(p (Ci| X M)−δ(Ci,C(X))) (15) 2แบบ M ประกอบด้วย k น้ำหนัก และระยะทางเป็นพารามิเตอร์ ถ้าจำนวนให้ผลผลิตที่ 1 มีดำเนินกิจกรรม ประเภทข้อผิดพลาดควรย่อไบนารี 0ตัวอย่าง โดยวิธีประสาททั้งหมดจะชนะ ควรใช้กิจกรรมไบนารีลดภาระส่วนกลางหรือค้นหาตามวิธี เนื่องจากไม่สามารถไล่ระดับสีตามวิธีใช้ในกรณีนี้ น้ำหนักผลผลิต จะอินเตอร์ j = (1 − R (Ci, Cj)) / Cj อาจจะเป็นพารามิเตอร์ที่เหมาะสม แนะนำน้ำหนักเบา G(D(·)) อนุญาตให้ใช้การไล่ระดับสีวิธีการเพิ่มประสิทธิภาพ สำหรับ datasets มาก (โดยเฉพาะอย่างยิ่งสำหรับภาพ [17]) เครือข่ายอย่างนี้ควรมีประสิทธิภาพสูงกว่า MLPs และรุ่นอื่น ๆ จัดประเภท เนื่องจากผลลัพธ์ควรจะน้อยดีเป็นผลเอ็นเอ็นเคเซลล์ประสาทเดี่ยวให้แบ่งแยก hyperplane ซึ่งอาจถูกแทนที่ ด้วยหนึ่งเวคเตอร์อ้างอิง ตำแหน่งของเวคเตอร์อ้างอิงนี้ควรดัดแปลงข้อมูล โดยใช้Minkovsky งานระยะเปลี่ยนเส้นขอบการตัดสินใจ โดยใช้ต้นแบบหนึ่งRi ต่อสมาชิกคลาสคลาส (เช่นซ่อนโหน) เป็นการตัดสินใจ โดยฟังก์ชัน discriminant:z(X) = W1D (X, R1) −W2D(X,R2) −θ (16)โดยที่θคือ ขีดจำกัดการ พารามิเตอร์เหมาะสม 3, W1, W2 θ และตำแหน่งที่สองต้นแบบเวกเตอร์ให้ตัดสินใจยืดหยุ่นเส้นขอบในปัญหาประเภทที่สอง ถ้าเพิ่มเติมอ้างอิงเวกเตอร์ที่ต้องโหนออกคอมพิวเตอร์รับการจำแนกฟังก์ชันผลรวมมากกว่าต้นแบบสำหรับแต่ละคลาส:z(X) =∑i∈C1∑− WiD (X, Ri)i∈C2WiD (X, Ri) −θ (17)ขนาดของผลรวมทั้งหมด แทนอิทธิพลของการอ้างอิงแต่ละเวกเตอร์ เป็นง่ายวิธีการลดจำนวนของพารามิเตอร์ที่ใช้ โดยระบบแบบอะแดปทีฟ ตัวเลือกหนึ่งที่เราตรวจสอบใช้ปรับง่ายไล่โทนสีน้ำหนักและขีดจำกัด ค้นหาใช้เทคนิคสำหรับพารามิเตอร์ไม่ใช่เชิงเส้นมาตราส่วนคล้ายคลึงดังกล่าวรับรู้ประสาทวิธีเพื่อนบ้านที่ใกล้ที่สุดให้ RBF รุ่นด้วยควรบันทึกฟังก์ชันเรเดียลประสานงาน ถ้าบ้านไม่จำกัดวิธีที่สองเหมือนกันSBM มองเครือข่ายประสาทช่วยให้การกำหนดวิธีการใหม่มาก ไม่เพียงแต่แต่นำไปสู่งานนวนิยายเช่นความสมบูรณ์ของรูปแบบหรือหน่วยความจำที่เกี่ยวข้องยังมีการเรียกคืนเป็นธรรมชาติตามคลัสเตอร์เริ่มต้นอธิบายไว้ด้านล่างกำหนดพารามิเตอร์ทั้งหมดของ D MLPเครือข่าย
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
น้ำหนัก Wi ญระหว่างโหนดที่ซ่อน Rj อยู่ในระดับ Cj
และโหนดการส่งออกการคำนวณความน่าจะเป็นสำหรับการเรียนCi เป็นครั้งแรกเท่ากับ Wi ญ = (1-R (Ci, Cj)) / Cj
ที่องค์ประกอบของเมทริกซ์ความเสี่ยง0 ≤ r (Ci, Cj) ≤ 1 ในที่ง่าย k-NN จะถูกแทนที่ด้วย deltai j.
ดังนั้นแต่ละเวกเตอร์ที่เป็นของคนที่ k ที่ใกล้ที่สุดหรือที่ตกอยู่ในรัศมี R ของ X
และเป็นชั้นCj, ก่อให้เกิดการ ความน่าจะเป็นของชั้น Ci มูลค่า 1-R (Ci, Cj)
โครงสร้างของเครือข่ายที่มีการแสดงในรูป 2.
สำหรับฟังก์ชั่นค่าใช้จ่ายที่ควรจะเพิ่มประสิทธิภาพอย่างใดอย่างหนึ่งอาจใช้เวลา:
E (W; M) = Σ
X ฉัน
(พี (Ci | X; M) -δ (Ci, C (x))) 2 (15)
ที่ รูปแบบ M รวมถึง k น้ำหนักและระยะทางที่เกี่ยวข้องกับการเป็นพารามิเตอร์ ถ้าจำนวนของข้อผิดพลาดการจำแนกประเภทควรจะลดลงไบนารี 0, 1 น่าจะส่งออกจะได้รับการให้เช่นโดยผู้ชนะจะใช้เวลาทุกขั้นตอนของระบบประสาท ความน่าจะเป็นไบนารีควรใช้กับการลดระดับโลกหรือวิธีการค้นหาตามตั้งแต่วิธีการไล่ระดับสีที่ใช้ไม่สามารถนำมาใช้ในกรณีนี้ น้ำหนักการส่งออกเริ่มต้นกับ Wi ญ = (1 - R (Ci, Cj)) / Cj อาจจะถือว่าเป็นพารามิเตอร์การปรับตัว บทนำของน้ำหนักนุ่ม G (D (·)) ช่วยให้การใช้การไล่ระดับสีวิธีการเพิ่มประสิทธิภาพ สำหรับชุดข้อมูลจำนวนมาก (โดยเฉพาะอย่างยิ่งภาพ [17]) เครือข่ายแบบนี้ควรจะมีประสิทธิภาพสูงกว่าMLPs และรูปแบบการจัดหมวดหมู่อื่น ๆ เนื่องจากผลควรมีอย่างน้อยดีเท่าผลk-NN. เซลล์เดียวมีไฮเปอร์เพลเลือกปฏิบัติซึ่งอาจจะถูกแทนที่โดยหนึ่งเวกเตอร์อ้างอิง ตำแหน่งของเวกเตอร์อ้างอิงนี้ควรจะปรับให้เข้ากับข้อมูล การใช้ฟังก์ชั่นที่แตกต่างกันระยะ Minkovsky เปลี่ยนแปลงพรมแดนตัดสินใจ โดยใช้หนึ่งในต้นแบบRi ต่อชั้น (เช่นโหนดที่ซ่อนหนึ่ง) สมาชิกระดับจะตัดสินใจโดยฟังก์ชั่นแน: ซี (X) = W1D (x, R1) -W2D (x, R2) -θ (16) ที่θเป็นเกณฑ์ 3 พารามิเตอร์ปรับ W1, W2, θและตำแหน่งของสองเวกเตอร์ต้นแบบให้มีความยืดหยุ่นมากพรมแดนการตัดสินใจในปัญหาระดับสอง หากมีพาหะอ้างอิงจะต้องโหนส่งออกคอมพิวเตอร์แบ่งแยกผลรวมฟังก์ชั่นมากกว่าต้นแบบสำหรับแต่ละชั้นเรียน: ซี (X) = Σi∈C1วิด(x, Ri) - Σi∈C2วิด(x, Ri) -θ (17) การปรับขนาดของผลรวมทั้งแทนอิทธิพลของเวกเตอร์อ้างอิงของแต่ละบุคคลคือการที่ง่ายวิธีการลดจำนวนของพารามิเตอร์การปรับตัวที่ใช้โดยระบบ ทางเลือกหนึ่งที่เรากำลังตรวจสอบคือการใช้เพิ่มประสิทธิภาพการไล่ระดับสีที่ง่ายสำหรับน้ำหนักและเกณฑ์และค้นหาเทคนิคที่ใช้สำหรับการปรับค่าพารามิเตอร์ที่ไม่ใช่เชิงเส้น. ความคล้ายคลึงกันของการสำนึกประสาทดังกล่าวของวิธีเพื่อนบ้านที่ใกล้ที่สุดกับรูปแบบ RBF ที่มีฟังก์ชั่นการประสานงานในแนวรัศมีควรสังเกต ถ้าจำนวนเพื่อนบ้านที่ไม่ได้ จำกัดสองวิธีการเหมือนกัน. จุด SBM ในมุมมองของเครือข่ายประสาทไม่เพียง แต่ช่วยในการกำหนดวิธีการใหม่ ๆแต่นำไปยังการใช้งานนวนิยายเช่นเสร็จสิ้นรูปแบบหรือเรียกคืนหน่วยความจำแบบเชื่อมโยง. ธรรมชาติกลุ่มตาม เริ่มต้นอธิบายไว้ด้านล่างจะเป็นตัวกำหนดค่าพารามิเตอร์ทั้งหมดของ D-MLP เครือข่าย
































การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
น้ำหนัก วี เจ ระหว่าง Hidden Node RJ ของ CJ คลาสและผลผลิตโหนด
คอมพิวเตอร์ความน่าจะเป็นชั้น CI จะเริ่มต้นเท่ากับ J = ( วี 1 − R ( CI , CJ ) / CJ ที่
องค์ประกอบของเมทริกซ์มีความเสี่ยง 0 ≤ R ( CI , CJ ) ≤ 1 ใน k-nn ที่ง่ายที่สุดจะถูกแทนที่ด้วย deltai J .
ดังนั้นแต่ละเวกเตอร์ที่เป็นของ K ที่ใกล้ที่สุดที่ หรือที่ตกอยู่ในรัศมี r และ x
CJ ของคลาสส่วนความน่าจะเป็นของ CI Class A 1 − R ( CI , CJ ) โครงสร้าง
ของเครือข่ายที่แสดงในรูปที่ 2 สำหรับค่าใช้จ่ายในการทำงานว่าควรจะเหมาะหนึ่งอาจ
:
E ( W ; m ) = ∑
x ,
( P ( CI | x ; M ) −δ ( CI , C ( x ) ) ) ) ) ) ) 2 ( 15 )
ที่รุ่น M รวมถึง K , น้ำหนักและระยะทางที่เกี่ยวข้องเป็นพารามิเตอร์ . ถ้าหมายเลขของข้อผิดพลาดที่ควรจะลด
การจำแนกไบนารี 01 น่าจะเป็นผลผลิตจะถ่ายให้
ตัวอย่างเช่นโดยผู้ชนะจะใช้เวลาทั้งหมดแบบจำลองกระบวนการ น่าจะเป็นไบนารีควรใช้ให้น้อยที่สุด หรือค้นหาตามโลก
ด้วยวิธีการ ตั้งแต่ไล่ระดับตามวิธีการไม่สามารถ
ถูกใช้ในคดีนี้ ผลผลิตน้ำหนักเริ่มต้น วีเจ = ( − 1 R ( CI , CJ ) / CJ อาจ
ถือว่าเป็นพารามิเตอร์การปรับตัวานุ่ม ( G ( D ( ด้วย ) ให้ใช้วิธีการเพิ่มประสิทธิภาพการไล่ระดับสี

หลายชุดข้อมูล ( โดยเฉพาะภาพ [ 17 ] )
เครือข่ายนี้ง่ายและมีประสิทธิภาพสูงกว่ารุ่นอื่น ๆควร MLPs หมวดหมู่ เนื่องจากผลควรเป็นอย่างน้อย
ดีเป็น k-nn ผลลัพธ์ การเลือกปฏิบัติ ซึ่งมีเซลล์เดียว ระนาบเกินจะถูกแทนที่โดยหนึ่ง
เวกเตอร์อ้างอิงตำแหน่งนี้อ้างอิงเวกเตอร์ควรปรับให้ข้อมูล การใช้ฟังก์ชันระยะทาง minkovsky แตกต่างกัน
เปลี่ยนการตัดสินใจของเส้นขอบ การใช้ต้นแบบ
ริต่อหนึ่งชั้น ( เช่นหนึ่งซ่อนปม ) สมาชิกชั้นจะตัดสินใจโดยสมการจำแนกประเภท :
Z ( X ) = w1d ( X , R1 ) − w2d ( X , R2 ) −θ ( 16 )
ที่θเป็นเกณฑ์ 3 ปรับพารามิเตอร์ , W1 , W2 θและตำแหน่งของ 2
เวกเตอร์ต้นแบบให้มีความยืดหยุ่นมากในการตัดสินใจในระดับชายแดนสองปัญหา ถ้าเวกเตอร์อ้างอิงเพิ่มเติม
เป็นปมออกคอมพิวเตอร์จำแนกผลรวมฟังก์ชัน
ต้นแบบสำหรับแต่ละชั้นเรียน :
Z ( X ) = ∑ C1

ผม∈ฮับ ( X , ริ ) −∑ C2

ผม∈ฮับ ( X , ริ ) −θ ( 17 )
ปรับขนาดของผลรวมทั้ง แทน อิทธิพลของเวกเตอร์อ้างอิงส่วนบุคคลเป็นง่าย
วิธีที่จะลดจำนวนของพารามิเตอร์ที่ใช้ในการปรับตัว โดยระบบ ตัวเลือกหนึ่งที่เรากำลังสืบสวนเพื่อเพิ่มประสิทธิภาพการใช้
ง่ายสำหรับน้ำหนักและเกณฑ์ และการใช้เทคนิคแบบปรับค่า
.
ความคล้ายคลึงของการรับรู้ประสาทเช่นวิธีการเพื่อนบ้านใกล้แบบ RBF กับ
หน้าที่ประสานงานรัศมีควรจดบันทึกถ้าไม่ จำกัด จำนวนของเพื่อนบ้าน

สองวิธีเหมือนกัน จุดที่ 4 มุมมองของโครงข่ายประสาทเทียมที่ไม่เพียง แต่ช่วยให้สามารถกำหนดวิธีการใหม่มาก แต่ยังต้องใช้นัก
นวนิยาย เช่น รูปแบบเสร็จสมบูรณ์หรือหน่วยความจำเรียกคืน .
กลุ่มธรรมชาติโดยเริ่มต้นที่อธิบายไว้ด้านล่างจะกำหนดพารามิเตอร์ของเครือข่าย d-mlp

การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: