2.2. Neural network developmentFor each training dataset, a backpropag การแปล - 2.2. Neural network developmentFor each training dataset, a backpropag ไทย วิธีการพูด

2.2. Neural network developmentFor

2.2. Neural network development
For each training dataset, a backpropagation neural network (Aitkenhead and Cooper, 2007; Bishop, 1995) was trained once for each of the number of sample points, using leave-one-out as a method of determining accuracy. The network architecture was of the form X:H:H:Y, where X was the number of input nodes, H was the number of hidden nodes in each of two hidden layers, and Y was the number of output nodes. The number of input nodes X equalled the number of input parameters which exist in the training dataset, and the number of output nodes Y equalled the number of output parameters. The number of hidden nodes H equalled twice the maximum of X and Y, in accordance with Kolmogorov's theorem for neural network modelling that states that the number of nodes in the hidden layers should be twice the maximum in the input or output layers in order to guarantee the perfect fit of any continuous function (Bishop, 1995). For the prediction of soil chemical and physical parameters the number of inputs was therefore 3 (i.e. one each for Red, Green and Blue channels for RGB, or one each for L, a and b channels for CIELab), and the number of outputs was 44 (one for each physical or chemical parameter). For the prediction of soil colour, therefore, the number of inputs was 44 and the number of outputs was 3.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
2.2. พัฒนาเครือข่ายประสาท
สำหรับแต่ละชุดข้อมูลฝึกอบรม backpropagation ประสาทเครือข่าย (Aitkenhead และคูเปอร์ 2007 บาทหลวง 1995) ได้เข้าอบรมครั้งเดียวสำหรับแต่ละของจำนวนตัวอย่างคะแนน ใช้ลาหนึ่งออกเป็นวิธีการตรวจสอบความถูกต้อง สถาปัตยกรรมเครือข่ายมีแบบฟอร์ม X:H:H:Y ที่ X คือ จำนวนของอินพุตโหน H คือ จำนวนซ่อนโหนดในชั้นซ่อนสองชั้นแต่ละ และ Y เป็นหมายเลขของโหนดออก จำนวนอินพุตโหน X equalled จำนวนพารามิเตอร์ที่มีอยู่ในชุดข้อมูลการฝึกอบรม และหมายเลขของโหนผลลัพธ์ Y equalled จำนวนพารามิเตอร์ขาออก จำนวนซ่อนโหน H equalled สองสูงสุดของ X และ Y ตามของน่าเป็นทฤษฎีบทการสร้างแบบจำลองโครงข่ายประสาทที่ระบุว่า จำนวนโหนดในชั้นซ่อนควรสองสูงสุดในการป้อนข้อมูล หรือผลลัพธ์ชั้นเพื่อรับประกันสมบูรณ์แบบเหมาะสมของฟังก์ชันต่อเนื่องใด ๆ (โคน 1995) สำหรับการคาดเดาของพารามิเตอร์ทางเคมี และกายภาพดิน จำนวนอินพุตดังนั้นถูก 3 (เช่นหนึ่งแต่ละสีแดง สีเขียวและสีน้ำเงินช่อง RGB หรือหนึ่งแต่ละสำหรับ L ตัว และช่อง b สำหรับ CIELab), และแสดงผลจำนวน 44 (หนึ่งสำหรับแต่ละพารามิเตอร์ทางกายภาพ หรือเคมี) สำหรับคำทำนายสีดิน ดังนั้น จำนวนของอินพุต 44 และจำนวนการแสดงผลได้ 3
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
2.2 การพัฒนาโครงข่ายประสาทเทียม
สำหรับแต่ละชุดการฝึกอบรมเครือข่ายแพร่กระจายย้อนกลับของระบบประสาท (Aitkenhead และคูเปอร์ 2007; บิชอป, 1995) ได้รับการฝึกฝนครั้งเดียวสำหรับแต่ละจำนวนจุดตัวอย่างที่ใช้การลาหนึ่งออกเป็นวิธีการของการกำหนดความถูกต้อง สถาปัตยกรรมเครือข่ายเป็นรูปแบบ X: H: H: Y ที่ X คือจำนวนโหนดใส่, H เป็นจำนวนโหนดที่ซ่อนอยู่ในแต่ละสองชั้นที่ซ่อนอยู่และ Y เป็นจำนวนโหนดเอาท์พุท จำนวนโหนดใส่ X เท่ากับจำนวนของพารามิเตอร์ของท่านที่มีอยู่ในชุดการฝึกอบรมและจำนวนของโหนดออก Y เท่ากับจำนวนของพารามิเตอร์ที่ส่งออก จำนวนซ่อนโหนด H เท่ากับสองครั้งสูงสุดของ X และ Y ตามทฤษฎีบท Kolmogorov สำหรับการสร้างแบบจำลองโครงข่ายประสาทเทียมที่ระบุว่าจำนวนของโหนดในชั้นซ่อนที่ควรจะเป็นสองเท่าสูงสุดในการป้อนข้อมูลหรือการส่งออกชั้นในเพื่อที่จะรับประกัน พอดีที่สมบูรณ์แบบของฟังก์ชั่นอย่างต่อเนื่องใด ๆ (บิชอป, 1995) สำหรับการทำนายของพารามิเตอร์ทางเคมีและทางกายภาพของดินจำนวนของปัจจัยการผลิตจึง 3 (คือหนึ่งในแต่ละสีแดง, สีเขียวและสีฟ้าสำหรับช่อง RGB หรือหนึ่งแต่ละ L, และช่องทางสำหรับข CIELAB) และจำนวนของเอาท์พุทเป็น 44 (สำหรับพารามิเตอร์ทางกายภาพหรือสารเคมีแต่ละ) สำหรับการทำนายของสีของดินดังนั้นจำนวนของปัจจัยการผลิตเป็น 44 และจำนวนของผล 3
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
2.2 . การพัฒนาโครงข่ายประสาทเทียมสำหรับการฝึกอบรมแต่ละชุดข้อมูลเป็นข่ายงานประสาท ( aitkenhead และ Cooper , 2007 ; บิชอป , 1995 ) ฝึกครั้งเดียวสำหรับแต่ละหมายเลขของจุดตัวอย่าง ใช้ปล่อยออกมาเป็นวิธีการกำหนดความถูกต้อง สถาปัตยกรรมของเครือข่ายในรูปแบบของ X : H : H : y เมื่อ x คือจำนวนของจุดข้อมูลH เป็นโหนดที่ซ่อนอยู่ในแต่ละชั้นซ่อนสอง และ y คือจำนวนผลผลิตโหนด จำนวนของอินพุตโหนด x เท่ากับจำนวนของพารามิเตอร์ที่ป้อนเข้าซึ่งมีอยู่ในการฝึกอบรมวันที่ และจำนวนผลผลิตโหนด Y เท่ากับจำนวนพารามิเตอร์ที่ส่งออก จำนวนของ H โหนดที่ซ่อนนี้สองครั้งสูงสุดของ X และ Y ,สอดคล้องกับทฤษฎีบทของแบบจำลองโครงข่ายประสาทเทียมสำหรับการเปลี่ยนแปลงที่ระบุว่า จำนวนของโหนดในชั้นซ่อนควรจะสองครั้งสูงสุดในการป้อนข้อมูล หรือออกชั้นเพื่อรับประกันพอดีของฟังก์ชันต่อเนื่อง ( โคน , 1995 ) เพื่อทำนายคุณสมบัติทางเคมีและทางกายภาพของจํานวนของกระผมจึง 3 ( เช่นหนึ่งในแต่ละสำหรับสีแดงสีเขียวและสีฟ้า สำหรับช่อง RGB หรือหนึ่งในแต่ละ L , a และ b ) แข็ง ) และจำนวนของผลผลิตคือ 44 ( หนึ่งสำหรับแต่ละพารามิเตอร์ทางกายภาพหรือทางเคมี ) สำหรับการทำนายสี , ดินดังนั้นจำนวนของกระผมคือ 44 และจำนวนผลผลิตได้ 3 .
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: