This invokes something called the backpropagation algorithm, which is  การแปล - This invokes something called the backpropagation algorithm, which is  ไทย วิธีการพูด

This invokes something called the b

This invokes something called the backpropagation algorithm, which is a fast way of computing the gradient of the cost function. So update_mini_batch works simply by computing these gradients for every training example in the mini_batch, and then updating self.weights and self.biases appropriately.
I'm not going to show the code for self.backprop right now. We'll study how backpropagation works in the next chapter, including the code for self.backprop. For now, just assume that it behaves as claimed, returning the appropriate gradient for the cost associated to the training example x.

Let's look at the full program, including the documentation strings, which I omitted above. Apart from self.backprop the program is self-explanatory - all the heavy lifting is done in self.SGD and self.update_mini_batch, which we've already discussed. The self.backprop method makes use of a few extra functions to help in computing the gradient, namely sigmoid_prime, which computes the derivative of the σσ function, and self.cost_derivative, which I won't describe here. You can get the gist of these (and perhaps the details) just by looking at the code and documentation strings. We'll look at them in detail in the next chapter. Note that while the program appears lengthy, much of the code is documentation strings intended to make the code easy to understand. In fact, the program contains just 74 lines of non-whitespace, non-comment code. All the code may be found on GitHub here.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
นี้เรียกใช้สิ่งที่เรียกว่าอัลกอริธึม backpropagation ซึ่งเป็นวิธีรวดเร็วของการประมวลผลการไล่ระดับสีของฟังก์ชันต้นทุน ดังนั้น update_mini_batch ทำงานง่าย ๆ โดยการคำนวณเหล่านี้ไล่ระดับสำหรับทุกอย่างการฝึกอบรมในการ mini_batch และเด self.weights และ self.biases อย่างเหมาะสมฉันจะไม่แสดงรหัสสำหรับ self.backprop อยู่ เราจะศึกษาวิธีการทำงานของ backpropagation ในบทถัดไป รวมทั้งรหัสสำหรับ self.backprop สำหรับตอนนี้ เพียงแค่สมมติว่า ทำอ้างว่า เป็น กลับไล่ระดับสีที่เหมาะสมสำหรับต้นทุนเกี่ยวข้องกับตัวอย่างการฝึกอบรม xลองดูโปรแกรมเต็ม รวมไปถึงสายเอกสาร ที่ผมเว้นไว้ข้างต้น นอกจาก self.backprop โปรแกรมนี้ชัดแจ้ง - เฟอร์นิเจอร์เสร็จในตัวเอง SGD และ self.update_mini_batch ซึ่งเราได้กล่าวถึง วิธีการ self.backprop ทำให้ใช้ฟังก์ชั่นพิเศษบางอย่างเพื่อช่วยในการประมวลผลการไล่ระดับสี sigmoid_prime ซึ่งคำนวณอนุพันธ์ของฟังก์ชันσσ และ self.cost_derivative ซึ่งฉันจะไม่อธิบายนี่คือ ได้ใจความสำคัญเหล่านี้ (และอาจเป็นรายละเอียด) โดยสายรหัสและเอกสารประกอบ เราจะดูพวกเขาในรายละเอียดในบทถัดไป หมายเหตุว่า โปรแกรมปรากฏยาวนาน มากของรหัสเป็นสตริงการเอกสารไว้เพื่อให้ง่ายต่อการเข้าใจรหัส ในความเป็นจริง โปรแกรมประกอบด้วยความปลอดช่องว่าง ไม่เห็นรหัส 74 เพียงบรรทัด รหัสทั้งหมดอาจสำรองนี่
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
นี้จะเรียกสิ่งที่เรียกว่าขั้นตอนวิธีการแพร่กระจายย้อนกลับซึ่งเป็นวิธีที่รวดเร็วของการคำนวณการไล่ระดับสีของฟังก์ชั่นค่าใช้จ่าย ดังนั้น update_mini_batch ทำงานเพียงโดยการคำนวณการไล่ระดับสีเหล่านี้เช่นการฝึกอบรมทุกคนใน mini_batch แล้วการอัปเดต self.weights และ self.biases เหมาะสม.
ฉันไม่ได้จะแสดงรหัสสำหรับ self.backprop ในขณะนี้ เราจะศึกษาวิธีการแพร่กระจายย้อนกลับทำงานในบทต่อไปรวมทั้งรหัสสำหรับ self.backprop สำหรับตอนนี้เพียงแค่คิดว่ามันจะทำงานเป็นอ้างว่ากลับมาไล่ระดับสีที่เหมาะสมสำหรับค่าใช้จ่ายที่เกี่ยวข้องกับตัวอย่างการฝึกอบรม x.

ลองดูที่โปรแกรมเต็มรูปแบบรวมทั้งสตริงเอกสารซึ่งผมละไว้ข้างต้น นอกเหนือจาก self.backprop โปรแกรมเป็นตัวอธิบาย - ทั้งหมดยกของหนักจะทำใน self.SGD และ self.update_mini_batch ซึ่งเราได้กล่าวแล้ว วิธี self.backprop ทำให้การใช้ฟังก์ชั่นพิเศษที่จะช่วยในการคำนวณการไล่ระดับสีคือ sigmoid_prime ซึ่งคำนวณอนุพันธ์ของฟังก์ชั่นσσและ self.cost_derivative ซึ่งผมจะไม่อธิบายที่นี่ คุณจะได้รับส่วนสำคัญของ (และอาจจะมีรายละเอียด) เหล่านี้เพียงแค่มองรหัสและเอกสารสตริง เราจะมองพวกเขาในรายละเอียดในบทต่อไป โปรดทราบว่าในขณะที่โปรแกรมจะปรากฏขึ้นที่มีความยาวมากของรหัสสตริงเอกสารตั้งใจที่จะทำให้รหัสง่ายต่อการเข้าใจ ในความเป็นจริงโปรแกรมที่มีเพียงแค่ 74 บรรทัดที่ไม่ใช่ช่องว่างรหัสที่ไม่แสดงความคิดเห็น ทั้งหมดรหัสอาจจะพบได้บน GitHub ที่นี่
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
นี้จะเรียกอะไร เรียกแบบวิธี ซึ่งเป็นวิธีที่รวดเร็วของการคำนวณความลาดชันของฟังก์ชันต้นทุน ดังนั้น update_mini_batch ทำงานโดยการคำนวณการไล่ระดับสีเหล่านี้สำหรับทุกการฝึกตัวอย่างใน mini_batch และจากนั้นปรับปรุง self.weights และ self.biases อย่างเหมาะสมฉันจะไม่แสดงรหัสสำหรับ self.backprop ตอนนี้ เราจะศึกษาวิธีการทำงานแบบในบทต่อไป รวมทั้งรหัส self.backprop . สำหรับตอนนี้ แค่คิดว่ามันกลับอ้างกลับไล่ระดับที่เหมาะสมกับต้นทุนที่เกี่ยวข้องกับการฝึกอบรมตัวอย่าง Xดูโปรแกรมทั้งหมดรวมทั้งเอกสารสายซึ่งผมไว้ข้างบน นอกจาก self.backprop โปรแกรมตนเองอธิบายทั้งหมดยกของหนักและเสร็จใน self.sgd self.update_mini_batch ซึ่งเราได้กล่าวถึง การ self.backprop วิธีทำให้ใช้ฟังก์ชั่นพิเศษบางอย่างเพื่อช่วยในการคำนวณ การไล่ระดับสี คือ sigmoid_prime ซึ่งคำนวณอนุพันธ์ของฟังก์ชัน และσσ self.cost_derivative ซึ่งผมจะไม่อธิบายที่นี่ คุณสามารถหาทั้งหมดเหล่านี้ ( และบางทีรายละเอียด ) ดูจากรหัสและข้อความเอกสาร เราจะดูที่พวกเขาในรายละเอียดในบทถัดไป โปรดทราบว่าในขณะที่โปรแกรมจะปรากฏขึ้นที่ยาวมากของรหัสเป็นรหัสเอกสารสายวัตถุประสงค์เพื่อให้ง่ายต่อการเข้าใจ ในความเป็นจริงโปรแกรมมีเพียง 74 สายไม่ใช่ช่องว่างที่ไม่ใช่ความคิดเห็นรหัส ทั้งหมดรหัส อาจพบได้ในบริการนี้
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: