Computational models of neural networks have been around for more than การแปล - Computational models of neural networks have been around for more than ไทย วิธีการพูด

Computational models of neural netw

Computational models of neural networks have been around for more than half a century, beginning with the simple model that McCulloch and Pitts developed in 1943 [1]. Hebb subsequently contributed a learning algorithm to train such models [2], summed up by the familiar refrain: 'Neuron that fire together, wire together'. Hebb's rule, and a popular variant known as the Delta rule, were crucial for early models of cognition, but they quickly ran into trouble with respect to their computational power. In their extremely influencial book, Perceptrons, Minsky and Papert proved that these networks couldn't even learn the boolean XOR function, due to due only being able to learn a single layer of weights[3].Luckily, a more complex learning algorithm, backpropagation, eventually emerged, which could learn across arbitrarily many layers, and was later proven to be capable of approximating any computable function.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
แบบจำลองคอมพิวเตอร์ของเครือข่ายประสาทได้รับรอบมากกว่าครึ่งศตวรรษ เริ่มต้น ด้วยแบบจำลองง่าย ๆ McCulloch นั้น และ Pitts พัฒนาใน 1943 [1] Hebb ต่อส่วนอัลกอริทึมการเรียนรู้ฝึกเช่นรุ่น [2], หาผลรวม โดยละเว้นคุ้นเคย: 'เซลล์ประสาทที่กันไฟ ลวดกัน' กฎของ Hebb และตัวแปรที่นิยมเรียกกันว่ากฎเดลต้า สำคัญสำหรับรุ่นแรก ๆ ของประชาน แต่พวกเขาอย่างรวดเร็วประสบปัญหากับอำนาจที่คำนวณ ในหนังสือของพวกเขามาก influencial, Perceptrons, Minsky และ Papert พิสูจน์ว่า เครือข่ายเหล่านี้ไม่ได้เรียนรู้ฟังก์ชัน XOR บู เนื่องครบกำหนดเฉพาะ ความสามารถในการเรียนชั้นเดียวของน้ำหนัก [3] โชคดี ความซับซ้อนเรียนอัลกอริทึม backpropagation ในที่สุดเกิด ซึ่งสามารถเรียนข้ามชั้นโดยมาก และในภายหลังมีการพิสูจน์ว่าสามารถระหว่างฟังก์ชัน computable ใด ๆ
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
แบบจำลองคอมพิวเตอร์ของเครือข่ายประสาทได้รับรอบนานกว่าครึ่งศตวรรษที่เริ่มต้นด้วยรูปแบบที่เรียบง่ายที่ McCulloch และพิตส์ได้รับการพัฒนาในปี 1943 [1] Hebb ต่อมามีส่วนร่วมในการเรียนรู้ขั้นตอนวิธีการในการฝึกอบรมรูปแบบดังกล่าว [2] สรุปโดยละเว้นคุ้นเคย: 'เซลล์ประสาทด้วยกันว่าไฟลวดด้วยกัน' กฎ Hebb และเป็นตัวแปรที่เป็นที่นิยมที่รู้จักกันเป็นกฎเดลต้าเป็นสิ่งสำคัญสำหรับรุ่นแรกของความรู้ความเข้าใจ แต่พวกเขาได้อย่างรวดเร็ววิ่งเข้าสู่ปัญหาที่เกี่ยวกับอำนาจการคำนวณของพวกเขา ในหนังสือมีอิทธิพลมากของพวกเขา Perceptrons, มินสกีและ Papert พิสูจน์ให้เห็นว่าเครือข่ายเหล่านี้ไม่สามารถที่จะเรียนรู้การทำงานของแฮคเกอร์บูลเนื่องจากเนื่องจากมีเพียงความสามารถในการเรียนรู้ชั้นเดียวของน้ำหนัก [3] .Luckily, ขั้นตอนวิธีการเรียนรู้ที่ซับซ้อนมากขึ้น backpropagation ที่สุดโผล่ออกมาซึ่งสามารถเรียนรู้ทั่วพลหลายชั้นและได้รับการพิสูจน์ในภายหลังจะสามารถใกล้เคียงกับใด ๆ ฟังก์ชั่นคำนวณ
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
การคำนวณแบบจำลองโครงข่ายประสาทเทียมได้รับรอบนานกว่าครึ่งศตวรรษ เริ่มจากง่ายๆ แบบที่ไหล่ 1943 พิตส์พัฒนา [ 1 ] เฮบต่อมาส่วนอัลกอริทึมการเรียนรู้แบบฝึกดังกล่าว [ 2 ] สรุปโดยละเว้นคุ้นเคย ' เซลล์ประสาทไฟด้วยกัน สายด้วยกัน ' กฎเฮบ และนิยมตัวแปรที่เรียกว่า เดลต้า กฎเป็นสิ่งสำคัญสำหรับต้นแบบของความรู้ แต่พวกเขาได้อย่างรวดเร็ววิ่งเข้าไปในปัญหาเกี่ยวกับพลังงานคอมพิวเตอร์ของพวกเขา ในหนังสือของเพอร์เซปตร 53 มาก , และพิสูจน์แล้วว่า พาเพิร์ตมินสกีเครือข่ายเหล่านี้ไม่สามารถเรียนรู้บูลีนฟังก์ชัน XOR , เนื่องจาก เนื่องจากได้เรียนชั้นเดียวของหนัก [ 3 ] . โชคดีที่ซับซ้อนมากกว่าอัลกอริทึมการเรียนรู้แบบ , ,ในที่สุดก็โผล่ออกมา ซึ่งสามารถเรียนรู้ผ่านพลหลายชั้น และภายหลังถูกพิสูจน์แล้วว่าเป็นประเภทใด สามารถคำนวณฟังก์ชัน
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2026 I Love Translation. All reserved.

E-mail: