Many pattern recognition, machine learning and neural network models a การแปล - Many pattern recognition, machine learning and neural network models a ไทย วิธีการพูด

Many pattern recognition, machine l

Many pattern recognition, machine learning and neural network models are a special case
of this SBM framework. One way to use it is to start with the simplest model and turn on
different optimization parameters and procedures, for example starting from the simples kNN
and optimizing the number of neighbors, distance function parameters, soft weighting,
feature selection, number and position of reference vectors. Each step towards more complex
model decreases the bias of the classifier, but may increase its variance [10], therefore after
each step the model should be validated and only if the greater complexity is justified by
higher accuracy more complex models should be accepted, otherwise a different type of
optimization should be used.
2.1 RBF and LVQ-like methods
In RBF networks Euclidean distance functions D(X,Rj
) = ||X − Rj
|| are assumed and a
radial, for example Gaussian G(D) = exp(−D2) weighting functions are used. Essentially
RBF is a minimal distance soft weighted method with no restrictions on the number of
neighbors – reference vectors Rj that are near influence probabilities of classification more
than those that are far. The SBM framework suggests that there is nothing special about
this choice of distance function and the weighting function. The simplest suitable weighting
function is the conical radial function: zero outside the radius σ and 1−D(X,R)/σ inside
this radius. Classification probability is calculated by the output node using the formula:
p(Ci|X;σ) = ∑j∈Ci G(D(X;Rj
),σ)
∑j G(D(X;Rj
),σ) ; (5)
G(D(X;Rj
),σ) = max
0,1−D(X,Rj
)/σ
(6)
Here W(D) = G(D(X,Rj
);σ) is the weight associated with the distance D. Reference
vectors outside of the σ radius have no influence on the classification probability while
their influence inside this radius depends linearly on the distance D. Combining this
weighting with the restriction on the number of neighbors leads to the weight W(D) =
max(0,1 − D/αrk), where rk is the distance to the k−th neighbor and α is an adaptive
parameter optimized on the test set.
More sophisticated versions of this algorithm include optimization of the shape of
G(D;σ) weighting functions using additional parameters. One example is a combination of
two sigmoidal functions σ(||X−R j
||−b)−σ(||X−Rj
||−b
), providing larger area in which
the weighting factor is essentially constant. Another example is the hyperbolic weighting
scheme:
p(C|X;M) = ∑j δ(C(X),C)/

D
X,Rj



∑j 1/(D(X,Rj
) +ε) (7)
where ε is a small positive number.
In the Gaussian classifier [11] or in the original RBF network only one parameter σ was
optimized [12]. Optimization of the positions of the reference centers R j leads to the LVQ
method [13] in which the training set is used to define the initial prototypes and the minimal
distance rule to assign the classes. The Restricted Coulomb Energy (RCE) classifier [14]
uses a hard-sphere weighting functions. The Feature Space Mapping model (FSM) is based
on separable, rather than radial weighting functions [15]. All these models are special cases
of general SBM framework.))H (p(Ci|X;M),δ(Ci,C(X))) (1)
wher
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
การรู้จำรูปแบบ เรียนรู้ของเครื่อง และแบบจำลองโครงข่ายประสาทหลายเป็นกรณีพิเศษของกรอบนี้ SBM วิธีหนึ่งที่ใช้จะเริ่มต้น ด้วยรูปแบบที่ง่ายที่สุด และเปิดเพิ่มประสิทธิภาพที่แตกต่างกันพารามิเตอร์และกระบวน เช่น เริ่มต้นจาก simples kNNและเพิ่มจำนวนบ้าน พารามิเตอร์ฟังก์ชันระยะทาง น้ำหนัก นุ่มเลือกคุณลักษณะ จำนวน และตำแหน่งของเวกเตอร์อ้างอิง แต่ละก้าวอย่างซับซ้อนรุ่นลดความโน้มเอียงของ classifier ที่ แต่อาจเพิ่มความต่าง [10], ดังนั้นหลังจากแต่ละขั้นตอนแบบควรตรวจ และความซับซ้อนมากขึ้นเป็นธรรมโดยเฉพาะความแม่นยำสูงรุ่นซับซ้อนควรมีการยอมรับ หรือชนิดอื่นควรใช้เพิ่มประสิทธิภาพ2.1 RBF และ LVQ เช่นวิธีใน RBF เครือข่ายฟังก์ชันแบบยุคลิด D (X, Rj) = || X − Rj|| มีสันนิษฐานและรัศมี เช่น Gaussian G(D) = exp(−D2) น้ำหนักใช้ฟังก์ชัน เป็นหลักRBF คือ ระยะทางที่น้อยที่สุดอ่อนถ่วงน้ำหนักวิธีการ มีจำกัดจำนวนเพื่อนบ้าน – อ้างอิงเวกเตอร์ Rj ที่อยู่ใกล้อิทธิพลต่อกิจกรรมของการจัดประเภทเพิ่มเติมกว่าผู้ที่อยู่ห่างไกล กรอบ SBM แนะนำว่า ไม่มีอะไรพิเศษเกี่ยวกับตัวเลือกนี้จากฟังก์ชันและฟังก์ชันน้ำหนัก น้ำหนักที่เหมาะสมที่ง่ายที่สุดฟังก์ชันเป็นฟังก์ชันรัศมีทรงกรวย: ศูนย์นอกσรัศมี และ 1−D(X,R)/σ ภายในรัศมีนี้ คำนวณความน่าเป็นการจัดประเภท โดยโหนผลลัพธ์โดยใช้สูตร:p (Ci| X σ) = ∑j∈Ci G (D (X Rj), Σ∑j G (D (X Rj),σ) ; (5)G (D (X Rj), Σ) =สูงสุด0, 1−D (X, Rj) / Σ (6)ที่นี่ W(D) = G (D (X, Rj); Σ) เป็นน้ำหนักที่สัมพันธ์กับระยะห่าง D. อ้างอิงเวกเตอร์นอกรัศมีσมีอิทธิพลไม่น่าเป็นการจัดประเภทในขณะที่อิทธิพลภายในรัศมีนี้ขึ้นเชิงเส้นกับ D. ระยะทางรวมนี้น้ำหนัก มีข้อจำกัดในจำนวนเพื่อนบ้านนำไปสู่น้ำหนัก W(D) =สูงสุด (0,1 − D/αrk), ซึ่ง rk เป็นระยะทางไปบ้าน k−th และด้วยกองทัพ ที่เหมาะสมตั้งค่าพารามิเตอร์ที่เหมาะในการทดสอบรุ่นอัลกอริทึมนี้ทันสมัยมากขึ้นรวมถึงปรับรูปร่างของG(D;σ) น้ำหนักฟังก์ชันโดยใช้พารามิเตอร์เพิ่มเติม ตัวอย่างหนึ่งคือ การรวมกันของสอง sigmoidal หน้าที่σ (|| X−R j|| −σ −b) (|| X−Rj|| −b), ให้พื้นที่ขนาดใหญ่ตัวน้ำหนักคงเป็นอยู่ อีกตัวอย่างหนึ่งคือ น้ำหนักไฮเพอร์โบลิแผนงาน:p (C| X M) = ∑j δ(C(X),C) /DX, Rj+ Ε∑j 1 / (D (X, Rj) + Ε) (7)ที่εเป็นจำนวนค่าบวกน้อยClassifier Gaussian [11] หรือ ในเครือข่าย RBF เดิมถูกσพารามิเตอร์เดียวเท่านั้นเหมาะ [12] เพิ่มประสิทธิภาพของการอ้างอิงตำแหน่งที่ศูนย์ R j ลูกค้าเป้าหมาย LVQวิธี [13] ซึ่งเป็นใช้ชุดฝึกอบรมเพื่อกำหนดต้นแบบเริ่มต้นและน้อยที่สุดจากกฎการกำหนดคลา Classifier จำกัด Coulomb พลังงาน (RCE) [14]ใช้ฟังก์ชันน้ำหนักหนักทรงกลม ตามลักษณะพื้นที่การแมปแบบ(มิธ FSM)ในฟังก์ชันน้ำหนัก separable มากกว่ารัศมี [15] รุ่นนี้เป็นกรณีพิเศษของทั่วไป SBM กรอบ)) H (p (Ci| X M),δ(Ci,C(X))) (1)wher
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
การจดจำรูปแบบหลายกลไกการเรียนรู้และรูปแบบเครือข่ายประสาทเป็นกรณีพิเศษของกรอบ SBM นี้
วิธีหนึ่งที่จะใช้มันคือการเริ่มต้นที่มีรูปแบบที่ง่ายและเปิดพารามิเตอร์การเพิ่มประสิทธิภาพที่แตกต่างกันและวิธีการเช่นเริ่มจาก simples kNN และเพิ่มประสิทธิภาพจำนวนของเพื่อนบ้านพารามิเตอร์ฟังก์ชั่นระยะทาง, น้ำหนักนุ่มเลือกคุณลักษณะจำนวนและตำแหน่งของการอ้างอิงเวกเตอร์ ขั้นตอนต่อที่ซับซ้อนมากขึ้นในแต่ละรูปแบบจะลดลงทำให้มีความลำเอียงของลักษณนาม แต่อาจเพิ่มความแปรปรวนของ [10] ดังนั้นหลังจากที่แต่ละขั้นตอนรูปแบบที่ควรจะตรวจสอบและเฉพาะในกรณีที่ซับซ้อนมากขึ้นเป็นธรรมโดยความถูกต้องสูงรุ่นที่ซับซ้อนมากขึ้นควรจะได้รับการยอมรับเป็นอย่างอื่นชนิดที่แตกต่างของการเพิ่มประสิทธิภาพควรใช้. 2.1 RBF และวิธีการ LVQ เหมือนในเครือข่าย RBF ฟังก์ชั่นระยะทางยุคลิด D (x, Rj) = || X - Rj || สันนิษฐานและรัศมีเช่นGaussian G (D) = ประสบการณ์ (-D2) ฟังก์ชั่นที่ใช้ในการชั่งน้ำหนัก หลักRBF เป็นระยะทางน้อยที่สุดวิธีการถ่วงน้ำหนักนุ่มโดยไม่ จำกัด จำนวนของเพื่อนบ้าน- เวกเตอร์อ้างอิง Rj ที่มีความน่าจะเป็นอิทธิพลของการจำแนกใกล้มากขึ้นกว่าผู้ที่อยู่ห่างไกล กรอบ SBM แสดงให้เห็นว่ามีอะไรพิเศษเกี่ยวกับทางเลือกของการทำงานระยะนี้และฟังก์ชั่นน้ำหนัก น้ำหนักที่เหมาะสมง่ายฟังก์ชั่นการทำงานรัศมีรูปกรวย: ศูนย์นอกรัศมีσ 1-D (x, R) / σภายในรัศมีนี้ ความน่าจะเป็นการจัดหมวดหมู่คำนวณโดยโหนดการส่งออกโดยใช้สูตร: พี (Ci | X; σ) = Σj∈Ci G (D (x; Rj) σ) Σj G (D (x; Rj) σ); (5) G (D (x; Rj) σ) = สูงสุด0,1-D (x, Rj) / σ (6) ที่นี่ W (D) = G (D (x, Rj); σ) เป็น น้ำหนักที่เกี่ยวข้องกับระยะทางที่ดีอ้างอิงเวกเตอร์นอกรัศมีσมีไม่มีผลต่อการจัดหมวดหมู่ความน่าจะเป็นในขณะที่อิทธิพลของพวกเขาภายในรัศมีเส้นตรงนี้ขึ้นอยู่กับระยะทางรวมดีนี้น้ำหนักที่มีข้อจำกัด เกี่ยวกับจำนวนของเพื่อนบ้านจะนำไปสู่น้ำหนัก W (D) = max (0,1 - D / αrk) ซึ่ง RK เป็นระยะทางไปยังเพื่อนบ้านที่ k และαเป็นปรับตัวพารามิเตอร์ที่ดีที่สุดในชุดทดสอบ. รุ่นอื่น ๆ ที่มีความซับซ้อนของขั้นตอนวิธีนี้รวมถึงการเพิ่มประสิทธิภาพของรูปร่าง ของG (D; σ) ฟังก์ชั่นการชั่งน้ำหนักโดยใช้พารามิเตอร์เพิ่มเติม ตัวอย่างหนึ่งคือการรวมกันของทั้งสองฟังก์ชั่น sigmoidal σ (|| X-R เจ || -b) -σ (|| X-Rj || -b?) ให้พื้นที่ขนาดใหญ่ซึ่งปัจจัยที่น้ำหนักจะคงที่เป็นหลัก อีกตัวอย่างหนึ่งคือน้ำหนักเกินความจริงโครงการ: พี (C | X; M) = Σjδ (C (X), C) /? D? X, Rj + εΣj 1 / (D (x, Rj) + ε ) (7) ที่εเป็นจำนวนบวกขนาดเล็ก. ในการจําแนกเสียน [11] หรือในเครือข่าย RBF เดิมเพียงหนึ่งพารามิเตอร์σได้รับการปรับให้เหมาะสม[12] การเพิ่มประสิทธิภาพของตำแหน่งของศูนย์อ้างอิง R เจนำไปสู่การ LVQ วิธี [13] ซึ่งในการฝึกอบรมชุดที่ใช้ในการกำหนดต้นแบบเริ่มต้นและน้อยที่สุดกฎระยะทางที่กำหนดชั้นเรียน จำกัด ประจุไฟฟ้าพลังงาน (RCE) จําแนก [14] ใช้ฟังก์ชั่นน้ำหนักยากทรงกลม การทำแผนที่พื้นที่คุณสมบัติรูปแบบ (เอฟเอ) จะขึ้นอยู่บนแยกมากกว่าฟังก์ชั่นน้ำหนักรัศมี[15] ทุกรุ่นเหล่านี้เป็นกรณีพิเศษของกรอบ SBM ทั่วไป)) H (พี (Ci | X; M), δ (Ci, C (X).)) (1) wher



























































การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
การรู้จำรูปแบบมากมาย การเรียนรู้ของเครื่องและแบบจำลองโครงข่ายประสาทเทียมเป็นกรณีพิเศษ
นี้ 4 กรอบ วิธีหนึ่งที่ใช้คือการเริ่มต้นกับโมเดลที่แตกต่างกันและเปิด
พารามิเตอร์ปรับให้เหมาะสม และกระบวนการ ตัวอย่างเช่น เริ่มจากง่าย knn
และปรับจำนวนเพื่อนบ้าน ระยะห่างของพารามิเตอร์ของฟังก์ชัน นุ่ม (
, การเลือกคุณลักษณะจำนวนและตำแหน่งของเวกเตอร์อ้างอิง แต่ละขั้นตอนต่อแบบ
เพิ่มเติมลดอคติของตัว แต่อาจเพิ่มความแปรปรวน [ 10 ] ดังนั้นหลังจาก
แต่ละขั้นตอนรูปแบบควรจะตรวจสอบเท่านั้น และถ้ายิ่งความซับซ้อนเป็นธรรมโดย
ความถูกต้องที่สูงกว่ารุ่นที่ซับซ้อนมากขึ้นควรได้รับการยอมรับ หรือประเภทที่แตกต่างกันของ

ที่เหมาะสมควรใช้ 2 .1 บริษัท lvq เช่นเดียวกับวิธีใน RBF เครือข่ายฟังก์ชันระยะทางแบบยุคลิด
d ( x , RJ
) = | | x − RJ
| | สมมติและ
รัศมี , ตัวอย่างเช่น ) G ( D ) = exp ( − ( D2 ) ฟังก์ชั่นการใช้ หลักของบริษัทคือระยะทางน้อยที่สุด
นุ่มหนักด้วยวิธีไม่จํากัดจํานวน
บ้าน–เวกเตอร์ RJ ที่ใกล้อ้างอิงความน่าจะเป็นของการมีอิทธิพลมากขึ้น
มากกว่าคนที่อยู่ไกล SBM กรอบแสดงให้เห็นว่าไม่มีอะไรพิเศษเกี่ยวกับ
นี้ทางเลือกของฟังก์ชันระยะทางและน้ำหนักฟังก์ชัน ฟังก์ชันถ่วงน้ำหนัก
เหมาะที่ง่ายที่สุดคือฟังก์ชันรัศมีรูปกรวย : ศูนย์นอกรัศมีσ 1 − d ( x , r ) /
σภายในรัศมีนี้ ความน่าจะเป็นการคํานวณโดยโหนดออกโดยใช้สูตร :
p ( CI | x ; σ ) = ∑ J ∈ CI G ( d ( x ; RJ
)σ )
∑ J g ( d ( x ; RJ
) σ ) ; ( 5 )
g ( d ( x ; RJ
) σ ) = แม็กซ์ 
0.1 − d ( x , RJ
) / σ
( 6 )
ที่นี่ w ( D ) = g ( D ( X , RJ
) ; σ ) คือน้ำหนักที่เกี่ยวข้องกับระยะทาง D อ้างอิง
เวกเตอร์นอกσรัศมีไม่มีอิทธิพลในการจัดหมวดหมู่ความน่าจะเป็นในขณะที่
ของอิทธิพลภายในรัศมีนี้ขึ้นอยู่กับน้ำหนักบนระยะทางรวมนี้
.น้ำหนักด้วยการจำกัดจำนวนของเพื่อนบ้านนำไปสู่น้ำหนัก W ( D ) =
แมกซ์ ( 0.1 − D / α RK ) ที่ RK เป็นระยะทางถึง K − th เพื่อนบ้านและαคือการปรับค่าพารามิเตอร์ในการทดสอบชุด
.
ที่ซับซ้อนมากขึ้นของรุ่นนี้รวมถึงการเพิ่มประสิทธิภาพของขั้นตอนวิธี รูปร่างของ
g ( D ; σ ) น้ำหนักฟังก์ชันการใช้พารามิเตอร์เพิ่มเติม ตัวอย่างหนึ่งคือการรวมกันของ
สอง sigmoidal ฟังก์ชันσ ( | | x R J
| | −− 2 ) −σ ( | | x −− | | RJ

b  ) ให้มีขนาดใหญ่พื้นที่ที่
ปัจจัยถ่วงเป็นหลักคง อีกตัวอย่างคือ โครงการ ( ค่า

: P ( c | x ; m ) = ∑δ J ( C ( x ) c ) /

D
x  อาร์เจ

ε

∑ J 1 / ( d ( x , RJ

) ε ) ( 7 ) ที่ εเป็นเล็กบวกเลข .
ในเสียนลักษณนาม [ 11 ] หรือในเครือข่ายบริษัทเดิมเพียงหนึ่งพารามิเตอร์σคือ
ที่ดีที่สุด [ 12 ] การเพิ่มประสิทธิภาพของตำแหน่งของศูนย์อ้างอิง R J นำไปสู่ lvq
วิธี [ 13 ] ซึ่งในการตั้งค่าจะถูกใช้เพื่อกำหนดต้นแบบเริ่มต้นและกฎระยะทางน้อยที่สุด
กำหนดชั้นเรียน ที่ จำกัด ของ พลังงาน ( RCE ) ลักษณนาม [ 14 ]
ใช้ยากทรงกลมน้ำหนักฟังก์ชัน แผนที่พื้นที่คุณลักษณะแบบ ( ใน ) ตั้งอยู่บนแยก
,แทนที่ฟังก์ชันถ่วงรัศมี [ 15 ] ทุกรุ่นเหล่านี้มีกรณีพิเศษ
กรอบ SBM ทั่วไป ) ) H ( P ( CI | x ; M ) δ ( CI , C ( x ) ) ) ) ) ) ) ( 1 )
แล้ว
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: