The computation of network weights and biases is known as‘‘training st การแปล - The computation of network weights and biases is known as‘‘training st ไทย วิธีการพูด

The computation of network weights

The computation of network weights and biases is known as
‘‘training step’’. The objective of the back-propagation training
algorithm is to find the optimal weights by minimizing the mean
square error (MSE) of the output values (Nasr et al.,2013).
Simultaneously, learning functions are used to update the
layer’s weight and bias. This procedure is completed in the
‘‘validation step’’, where the network is improved to avoid data
over-fitting (Hong et al., 2003). After that a set of data is
randomly used to examine the network generalization, i.e. the
‘‘test step’’.
Each scalar input (p) is multiplied by a scalar weight (W),
and then added to a scalar bias (b), resulted in the net input
(n= Wp+ b). Finally, the result is passed through the transfer
function f, which gets the neuron’s output a, where a= f
(Wp+b) (Demuth et al., 2007). Those functions can be (i) linear
transfer functions: used in the final layer to find a linear
approximation to a nonlinear function, or (ii) sigmoid transfer
functions: used in the hidden layers to generate the output
between 0 and 1 for Log-Sigmoid and between 1 and 1 for
Tan-Sigmoid, even if the input data have infinity values.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
การคำนวณน้ำหนักเครือข่ายและยอมเรียกว่า''ขั้นตอนฝึกอบรม '' วัตถุประสงค์ของการฝึกอบรมกลับมาเผยแพร่อัลกอริทึมคือการ หาน้ำหนักเหมาะสม โดยลดค่าเฉลี่ยตารางข้อผิดพลาด (MSE) ของมูลค่าผลผลิต (ไคโร et al., 2013)พร้อมกัน เรียนรู้ใช้ฟังก์ชันการปรับปรุงการชั้นของน้ำหนักและความโน้มเอียง กระบวนการนี้เสร็จสมบูรณ์ในการ''ตรวจสอบขั้นตอน" ซึ่งเป็นการปรับปรุงเครือข่ายเพื่อหลีกเลี่ยงข้อมูลเกินเหมาะสม (Hong et al., 2003) หลังจากนั้น เป็นชุดของข้อมูลใช้สุ่มตรวจสอบเครือข่าย generalization เช่นการ''ทดสอบขั้นตอน ''ป้อนแต่ละสเกลา (p) คูณ ด้วยน้ำหนักสเกลา (W),และเพิ่มความโน้มเอียงสเกลา (b), ผลในการป้อนข้อมูลสุทธิ(n = Wp + b) ในที่สุด ผลคือผ่านการโอนย้ายผลลัพธ์ของฟังก์ชัน f ซึ่งเซลล์ประสาทรับได้ เป็น = f(Wp + บี) (Demuth et al., 2007) ฟังก์ชันสามารถ (i) เส้นฟังก์ชันถ่ายโอน: ใช้ในการค้นหาแบบเชิงเส้นในชั้นสุดท้ายประมาณฟังก์ชันไม่เชิงเส้น หรือโอน sigmoid (ii)ฟังก์ชัน: ใช้ในการสร้างผลผลิตในชั้นซ่อนระหว่าง 0 ถึง 1 สำหรับล็อก Sigmoid และ ระหว่าง 1 และ 1 สำหรับตาล-Sigmoid แม้ว่าข้อมูลป้อนเข้ามีค่าอินฟินิตี้
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
คำนวณน้ำหนักของเครือข่ายและอคติเป็นที่รู้จักกัน
'' ขั้นตอนการฝึกอบรม '' วัตถุประสงค์ของการฝึกอบรมหลังการขยายพันธุ์
ขั้นตอนวิธีการคือการหาน้ำหนักที่ดีที่สุดโดยการลดค่าเฉลี่ย
ความคลาดเคลื่อนกำลังสอง (MSE) ของค่าเอาท์พุท (นาร์ซ et al., 2013).
พร้อมฟังก์ชั่นการเรียนรู้ที่ใช้ในการปรับปรุง
น้ำหนักของชั้นและอคติ . ขั้นตอนนี้จะเสร็จสมบูรณ์ใน
'' ขั้นตอนการตรวจสอบ '', เครือข่ายที่มีการปรับปรุงเพื่อหลีกเลี่ยงข้อมูลที่
เกินพอดี (Hong et al., 2003) หลังจากที่ชุดของข้อมูลที่จะ
นำมาใช้ในการตรวจสอบแบบสุ่มทั่วไปเครือข่ายคือ
'' การทดสอบขั้นตอน ''.
แต่ละอินพุตสเกลาร์ (P) คูณด้วยน้ำหนักสเกลาร์ (W),
และจากนั้นเข้ามาอยู่ในอคติสเกลาร์ (ข) ผลในการป้อนข้อมูลสุทธิ
(n = Wp + B) สุดท้ายผลที่ได้จะถูกส่งผ่านการโอน
ฟังก์ชัน f ที่ได้รับการส่งออกของเซลล์ประสาทที่ f =
(Wp + B) (Demuth et al., 2007) ฟังก์ชั่นเหล่านี้สามารถเป็น (i) การเชิงเส้น
ฟังก์ชั่นการถ่ายโอน: ใช้ในชั้นสุดท้ายที่จะหาเชิงเส้น
ประมาณไปยังฟังก์ชั่นไม่เชิงเส้นหรือ (ii) การโอน sigmoid
ฟังก์ชั่น: ใช้ในชั้นที่ซ่อนอยู่ในการสร้างผลผลิต
ระหว่าง 0 และ 1 สำหรับ Log- sigmoid และระหว่าง 1 และ 1 สำหรับ
Tan-ซิกมอยด์แม้ว่าข้อมูลของท่านมีค่าอินฟินิตี้
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
การคำนวณน้ำหนักและอคติของเครือข่ายเป็นที่รู้จักกัน
''training ขั้นตอน ' ' วัตถุประสงค์ของ back-propagation การฝึกอบรม
ขั้นตอนวิธีเพื่อหาน้ำหนักที่เหมาะสมโดยการลดข้อผิดพลาดหมายถึง
กำลังสอง ( MSE ) ของผลผลิต ค่า ( Nasr et al . , 2013 ) .
พร้อมกันเรียนรู้ฟังก์ชันใช้ในการปรับปรุงน้ำหนัก
ชั้นและอคติ . ขั้นตอนนี้จะเสร็จสมบูรณ์ในขั้นตอน ''validation
' 'ที่เครือข่ายที่ดีขึ้นเพื่อหลีกเลี่ยงข้อมูล
กว่ากระชับ ( Hong et al . , 2003 ) หลังจากที่ชุดของข้อมูลเพื่อใช้ในการตรวจสอบการ

''test เครือข่าย ได้แก่ ขั้นตอน ' ' .
แต่ละด้านเข้า ( P ) คือคูณด้วยสเกลาร์น้ำหนัก ( W )
แล้วเพิ่มเป็นสเกลาร์อคติ ( B ) , (
( n = WP B เข้าสุทธิ ) ในที่สุด ผลคือผ่านการโอน
ฟังก์ชัน F ,เป็นเซลล์ประสาทที่ได้รับออกที่ = f
( WP ) B ( ดิเมิท et al . , 2007 ) ฟังก์ชันที่สามารถ ( ) ฟังก์ชันเชิงเส้น
: ใช้ในชั้นสุดท้ายเพื่อค้นหาการประมาณเชิงเส้น
เป็นฟังก์ชันเชิงเส้น หรือ ( 2 ) ฟังก์ชันถ่ายโอน
แบบ : ใช้ในชั้นซ่อนเพื่อสร้างผลผลิต
ระหว่าง 0 และ 1 และ 1 และแบบบันทึกระหว่าง  1
แบบแทน ,แม้ว่าข้อมูลที่ป้อนจะไร้ค่า
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2026 I Love Translation. All reserved.

E-mail: