This dissertation presents a family of inductive learning systems that การแปล - This dissertation presents a family of inductive learning systems that ไทย วิธีการพูด

This dissertation presents a family

This dissertation presents a family of inductive learning systems that derive general rules from specific examples. These systems combine the benefits of neural networks, ASOCS, and symbolic learning algorithms. The systems presented here learn incrementally with good speed and generalization. They are based on a parallel architectural model that adapts to the problem being learned. Learning is done without requiring user adjustment of sensitive parameters, and noise is tolerated with graceful degradation in performance. The systems described in this work are based on features. Features are subsets of the input space. One group of learning algorithms begins with general features and specializes those features to match the problem that is being learned. Another group creates specific features and then generalizes those features. The final group combines the approaches used in the first two groups to gain the benefits of both. The algorithms are O(m log m), where m is the number of nodes in the network, and the number of inputs and output values are treated as constants. An enhanced network topology reduces tune complexity to O(log m). Empirical results show that the algorithms give good generalization and that learning converges in a small number of training passes.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
This dissertation presents a family of inductive learning systems that derive general rules from specific examples. These systems combine the benefits of neural networks, ASOCS, and symbolic learning algorithms. The systems presented here learn incrementally with good speed and generalization. They are based on a parallel architectural model that adapts to the problem being learned. Learning is done without requiring user adjustment of sensitive parameters, and noise is tolerated with graceful degradation in performance. The systems described in this work are based on features. Features are subsets of the input space. One group of learning algorithms begins with general features and specializes those features to match the problem that is being learned. Another group creates specific features and then generalizes those features. The final group combines the approaches used in the first two groups to gain the benefits of both. The algorithms are O(m log m), where m is the number of nodes in the network, and the number of inputs and output values are treated as constants. An enhanced network topology reduces tune complexity to O(log m). Empirical results show that the algorithms give good generalization and that learning converges in a small number of training passes.
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
วิทยานิพนธ์นี้นำเสนอครอบครัวของระบบการเรียนรู้ที่ได้รับมาอุปนัยกฎทั่วไปจากตัวอย่างที่เฉพาะเจาะจง ระบบเหล่านี้รวมถึงประโยชน์ของเครือข่ายประสาท ASOCS และขั้นตอนวิธีการเรียนรู้สัญลักษณ์ ระบบนำเสนอที่นี่ได้เรียนรู้เพิ่มขึ้นด้วยความเร็วที่ดีและทั่วไป พวกเขาจะขึ้นอยู่กับรูปแบบสถาปัตยกรรมแบบขนานที่ปรับให้เหมาะกับปัญหาที่กำลังเรียนรู้ การเรียนรู้ที่จะทำโดยไม่ต้องมีการปรับใช้ค่าพารามิเตอร์ที่สำคัญและเป็นที่ยอมรับเสียงที่มีการย่อยสลายที่สง่างามในการปฏิบัติงาน ระบบที่อธิบายไว้ในงานนี้จะขึ้นอยู่กับคุณสมบัติ มีคุณสมบัติย่อยของพื้นที่การป้อนข้อมูล หนึ่งในกลุ่มของขั้นตอนวิธีการเรียนรู้เริ่มต้นด้วยคุณสมบัติทั่วไปและความเชี่ยวชาญคุณลักษณะเหล่านั้นเพื่อให้ตรงกับปัญหาที่มีการเรียนรู้ อีกกลุ่มหนึ่งสร้างคุณลักษณะเฉพาะแล้ว generalizes คุณสมบัติเหล่านั้น กลุ่มสุดท้ายรวมวิธีการที่ใช้ในสองกลุ่มแรกที่จะได้รับผลประโยชน์ของทั้งสอง ขั้นตอนวิธีการเป็น O (ม. ล็อก m) m คือจำนวนโหนดในเครือข่ายและจำนวนของปัจจัยการผลิตและค่าการส่งออกจะถือว่าเป็นค่าคงที่ โทโพโลยีเครือข่ายที่เพิ่มขึ้นช่วยลดความซับซ้อนในการปรับแต่ง O (log เมตร) ผลการศึกษาแสดงให้เห็นว่าขั้นตอนวิธีการให้ดีลักษณะทั่วไปและการเรียนรู้ที่ลู่ในจำนวนเล็ก ๆ ของการฝึกอบรมผ่าน
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
วิทยานิพนธ์นี้นำเสนอครอบครัวอุปนัยระบบการเรียนรู้ที่ได้รับจากกฎทั่วไปตัวอย่างที่เฉพาะเจาะจง ระบบเหล่านี้ใช้ประโยชน์ของโครงข่ายประสาท asocs และสัญลักษณ์การเรียนรู้ขั้นตอนวิธี ระบบที่นำเสนอที่นี่เรียนแบบเพิ่มหน่วยที่มีความเร็วที่ดีและการ . พวกเขาจะขึ้นอยู่กับสถาปัตยกรรมแบบขนานที่ปรับตัวเข้ากับปัญหาการเรียนเรียนเสร็จไม่ต้องปรับค่าความไวของผู้ใช้ และเสียงจะช่วยสลายสง่างามในการแสดง ระบบที่อธิบายไว้ในงานนี้ จะขึ้นอยู่กับคุณสมบัติ คุณสมบัติเป็นส่วนย่อยของข้อมูลพื้นที่ หนึ่งในกลุ่มของอัลกอริทึมการเรียนรู้เริ่มต้นด้วยคุณสมบัติทั่วไป และคุณสมบัติของผู้เชี่ยวชาญให้ตรงกับปัญหาที่กำลังเรียนรู้อีกกลุ่มที่สร้างคุณสมบัติเฉพาะแล้วเช่นนี้ได้ขยายคุณสมบัติเหล่านั้น กลุ่มสุดท้าย รวม วิธีที่ใช้ในทั้งสองกลุ่มแรกที่จะได้รับประโยชน์ทั้งสอง อัลกอริทึมเป็น O ( m ) M ) ซึ่งเป็นจำนวนของโหนดในเครือข่ายและจำนวนของอินพุตและเอาต์พุตค่าจะถือว่าเป็นค่าคงที่ ปรับปรุงเครือข่ายแบบปรับลดความซับซ้อน O ( log m )ผลพบว่า ขั้นตอนวิธีการ และการเรียนรู้ให้ดีๆในจํานวนน้อย
การฝึกอบรมผ่าน
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: