It is clear that the learning speed of feedforward neural networks is  การแปล - It is clear that the learning speed of feedforward neural networks is  ไทย วิธีการพูด

It is clear that the learning speed

It is clear that the learning speed of feedforward neural networks is in general far slower than required and it has been a major
bottleneck in their applications for past decades. Two key reasons behind may be: (1) the slow gradient-based learning algorithms are
extensively used to train neural networks, and (2) all the parameters of the networks are tuned iteratively by using such learning
algorithms. Unlike these conventional implementations, this paper proposes a new learning algorithm called extreme learning machine
(ELM) for single-hidden layer feedforward neural networks (SLFNs) which randomly chooses hidden nodes and analytically determines
the output weights of SLFNs. In theory, this algorithm tends to provide good generalization performance at extremely fast learning
speed. The experimental results based on a few artificial and real benchmark function approximation and classification problems
including very large complex applications show that the new algorithm can produce good generalization performance in most cases and
can learn thousands of times faster than conventional popular learning algorithms for feedforward neural networks.1
r 2006 Elsevier B.V. All rights reserved.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
เป็นที่ชัดเจนว่า ความเร็วในการเรียนรู้ของเครือข่ายประสาทเสียงอยู่ในไกลช้ากว่าที่จำเป็นทั่วไป และเรื่องสำคัญติดขัดในการใช้งานของพวกเขาสำหรับทศวรรษ เหตุผลสำคัญสองหลังอาจ: (1) เป็นอัลกอริทึมเรียนไล่ช้าอย่างกว้างขวางใช้เครือข่ายประสาทรถไฟ และ (2) ทุกพารามิเตอร์เครือข่ายปรับปรับปรุงต้น โดยใช้การเรียนรู้ดังกล่าวอัลกอริทึม ซึ่งแตกต่างจากการใช้งานเหล่านี้ทั่วไป กระดาษนี้เสนออัลกอริทึมการเรียนรู้ใหม่เรียกว่าเครื่องการเรียนรู้มาก(ELM) สำหรับชั้นเดียวซ่อนเสียงเครือข่ายประสาท (SLFNs) ซึ่งสุ่มเลือกซ่อนโหน และกำหนด analyticallyน้ำหนักผลผลิตของ SLFNs ในทางทฤษฎี อัลกอริทึมนี้จะ ให้ประสิทธิภาพที่ดีลักษณะทั่วไปที่เรียนรู้เร็วมากความเร็ว ผลการทดลองตามกี่ประมาณฟังก์ชันมาตรฐานเทียม และแท้จริงและการจัดประเภทปัญหาโปรแกรมประยุกต์ที่ซับซ้อนรวมทั้งมีขนาดใหญ่มากแสดงว่า อัลกอริธึมใหม่สามารถผลิตประสิทธิภาพดีลักษณะทั่วไปส่วนใหญ่ และสามารถเรียนพันเท่าเร็วกว่าอัลกอริทึมการเรียนรู้ยอดนิยมทั่วไปสำหรับเสียงของระบบประสาท networks.1r 2006 Elsevier b.v สงวนลิขสิทธิ์
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
เป็นที่ชัดเจนว่าความเร็วในการเรียนรู้ของเครือข่ายประสาท feedforward คือโดยทั่วไปไกลช้ากว่าที่จำเป็นและจะได้รับที่สำคัญ
คอขวดในการใช้งานของพวกเขาสำหรับทศวรรษที่ผ่านมา สองเหตุผลสำคัญที่อยู่เบื้องหลังอาจจะ (1) ขั้นตอนวิธีการเรียนรู้การไล่ระดับสีตามช้าจะ
ใช้อย่างกว้างขวางในการฝึกอบรมเครือข่ายประสาทและ (2) ทุกพารามิเตอร์ของเครือข่ายที่มีความคืบหน้าซ้ำโดยใช้การเรียนรู้ดังกล่าว
ขั้นตอนวิธีการ ซึ่งแตกต่างจากการใช้งานทั่วไปเหล่านี้บทความนี้นำเสนอขั้นตอนวิธีการเรียนรู้ใหม่ที่เรียกว่าเครื่องการเรียนรู้มาก
(ELM) สำหรับชั้นเดียวที่ซ่อนอยู่เครือข่ายประสาท feedforward (SLFNs) ซึ่งสุ่มเลือกโหนดที่ซ่อนอยู่และการวิเคราะห์กำหนด
น้ำหนักการส่งออกของ SLFNs ในทางทฤษฎีขั้นตอนวิธีนี้มีแนวโน้มที่จะให้ประสิทธิภาพที่ดีทั่วไปในการเรียนรู้ได้อย่างรวดเร็ว
ความเร็ว ผลการทดลองขึ้นอยู่กับไม่กี่เทียมและจริงมาตรฐานประมาณฟังก์ชั่นและการจำแนกปัญหา
รวมถึงการใช้งานที่ซับซ้อนมากแสดงให้เห็นว่าอัลกอริทึมใหม่สามารถผลิตประสิทธิภาพการทำงานทั่วไปที่ดีในกรณีส่วนใหญ่และ
สามารถเรียนรู้หลายพันครั้งเร็วกว่าเดิมขั้นตอนวิธีการเรียนรู้ที่เป็นที่นิยมสำหรับเครือข่ายประสาท feedforward 0.1
R 2006 Elsevier BV สงวนลิขสิทธิ์
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
เป็นที่ชัดเจนว่าการเรียนรู้ความเร็วไปข้างหน้าโครงข่ายประสาทเทียมโดยทั่วไปช้ากว่าที่ต้องการและจะได้รับเป็นหลักคอขวดในการใช้งานของพวกเขาสำหรับที่ผ่านมาสิบปี สองเหตุผลสำคัญที่อยู่เบื้องหลังอาจจะ : ( 1 ) การใช้อัลกอริทึมการเรียนรู้จะช้าใช้อย่างกว้างขวางในการฝึกอบรมโครงข่ายประสาทเทียม และ ( 2 ) ทุกพารามิเตอร์ของเครือข่ายสัญญาณซ้ำโดยใช้การเรียนรู้เช่นอัลกอริธึม ซึ่งแตกต่างจากการใช้งานปกติเหล่านี้ กระดาษนี้นำเสนออัลกอริทึมการเรียนรู้ที่เรียกว่าการเรียนรู้เครื่องใหม่มาก( เอม ) สำหรับเดี่ยวชั้นซ่อนไปข้างหน้าโครงข่ายประสาทเทียม ( slfns ) ซึ่งสุ่มเลือก และพิจารณากำหนดโหนดที่ซ่อนอยู่ผลผลิตน้ำหนัก slfns . ในทางทฤษฎี วิธีนี้มีแนวโน้มที่จะให้ประสิทธิภาพที่ดี การที่รวดเร็วมาก การเรียนรู้ความเร็ว ผลตามมาตรฐานและปัญหาที่แท้จริง การประมาณค่าฟังก์ชันและการจำแนกเทียมน้อยรวมถึงการใช้งานที่ซับซ้อนมากที่แสดงขั้นตอนวิธีการใหม่สามารถผลิตงานที่ดีการในกรณีส่วนใหญ่และสามารถเรียนรู้ได้หลายพันครั้งเร็วกว่าแบบเดิมที่นิยมการเรียนรู้ขั้นตอนวิธีสำหรับไปข้างหน้าโครงข่ายประสาทเทียม .R 2006 เอลส์เท่าสงวนลิขสิทธิ์
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: