where the number of training sets is ttrials and the number of paramet การแปล - where the number of training sets is ttrials and the number of paramet ไทย วิธีการพูด

where the number of training sets i

where the number of training sets is ttrials and the number of parameter initializations
is wtrials. This can of course then be averaged over several testing points (x, d), as in
equation (2.7). By designing our learning algorithm such that it can minimise this quantity,
we hope to be able to minimise error on future unseen data. Part of the Supervised Learning
problem is to update the parameters so the predictor can generalise to new data—to use
t in such a way as to achieve low error on an unseen testing set t′. Practically, a testing
set could be obtained by splitting the original set t into two parts, t and t′. If we perform
well on t but not on t′ we are said to have overfitted the function—we have fine-tuned our
predictor so much that now it only works on the training set t, and is consequently not a
good representation of φ. This issue will be further discussed in section 2.1.3.
Classification Problems
We mentioned that our output space is continuous, Y ⊆ R, this means the reconstruction
of the map φ is a regression problem. If the output space Y is discrete, Y = {c1, c2, c3, ...},
where each ci is a possible ‘class’ to which each element of X can be mapped, we have a
classification problem. Classification problems are assessed by a 0-1 (zero-one) loss function;
as such, analagously to (2.7), we have:
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
หมายเลขของชุดฝึกอบรม ttrials และหมายเลขของพารามิเตอร์ initializationswtrials ได้ นี้สามารถแน่นอนแล้วจะ averaged ผ่านหลายทดสอบจุด (x, d), ในสมการ (2.7) โดยการออกแบบของเราเรียนรู้ขั้นตอนวิธีดังกล่าว ที่สามารถลดปริมาณนี้เราหวังว่าจะสามารถลดข้อผิดพลาดในข้อมูล unseen ในอนาคต ส่วนหนึ่งของการเรียนรู้ที่มีปัญหาคือการ ปรับปรุงพารามิเตอร์เพื่อจำนวนประตูที่สามารถ generalise ข้อมูลใหม่โดยใช้t ด้วยวิธีบรรลุต่ำข้อผิดพลาดในการทดสอบ unseen ตั้ง t′ ในทางปฏิบัติ การทดสอบชุดสามารถได้รับ โดยแบ่ง t ชุดเดิมออกเป็นสองส่วน t และ t′ ถ้าเราทำดี ใน t แต่ไม่ t′ เราจะกล่าวได้ overfitted ฟังก์ชันซึ่งเราได้ปรับแต่งของเราจำนวนประตูมากว่า ตอนนี้ทำงานใน การฝึกตั้ง t และดังนั้นไม่มีตัวแทนที่ดีของφ ปัญหานี้จะได้กล่าวในหัวข้อ 2.1.3 เพิ่มเติมปัญหาการจัดประเภทเรากล่าวว่า เนื้อที่ผลผลิตของเราอย่างต่อเนื่อง Y ⊆ R นี้หมายถึง การฟื้นฟูแผนที่φเป็นปัญหาถดถอย ถ้าพื้นที่ผลผลิต Y แยกกัน Y = {c1, c2, c3,...},ซึ่งแต่ละเครื่อง เป็นไปได้ 'คลาส' ซึ่งแต่ละองค์ประกอบของ X สามารถแม็ป เรามีการปัญหาการจัดประเภทการ มีประเมินปัญหาประเภทตาม 0-1 (ศูนย์หนึ่ง) สูญเสียฟังก์ชันเช่น analagously การ (2.7), เรามี:
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
ที่จำนวนของชุดการฝึกอบรมเป็น ttrials และจำนวน initializations
พารามิเตอร์เป็นwtrials นี้สามารถของหลักสูตรนั้นจะเฉลี่ยคะแนนการทดสอบหลาย (x, d)
ในขณะที่สมการ(2.7)
โดยการออกแบบขั้นตอนวิธีการเรียนรู้ของเราดังกล่าวว่าสามารถลดปริมาณนี้เราหวังว่าจะสามารถลดข้อผิดพลาดในข้อมูลที่มองไม่เห็นอนาคต เป็นส่วนหนึ่งของการเรียนรู้ภายใต้การควบคุมปัญหาที่เกิดขึ้นคือการปรับปรุงค่าพารามิเตอร์เพื่อให้สามารถทำนายคุยใหม่ข้อมูลที่จะใช้เสื้อในลักษณะให้บรรลุข้อผิดพลาดต่ำในการทดสอบที่มองไม่เห็นชุดเสื้อ' จวนทดสอบชุดที่อาจจะได้รับโดยแยกเสื้อชุดเดิมเป็นสองส่วนเสื้อและเสื้อ ' ถ้าเราดำเนินการได้ดีในเสื้อ แต่ไม่ได้อยู่ในทีว่าเราจะกล่าวได้ overfitted ฟังก์ชั่นเราได้ปรับแต่งของเราทำนายมากว่าตอนนี้มันจะทำงานเฉพาะในชุดเสื้อฝึกอบรมและเป็นจึงไม่ได้เป็นตัวแทนที่ดีของφ ปัญหานี้จะมีการหารือต่อไปในส่วน 2.1.3. ปัญหาการจัดจำแนกของเรากล่าวว่าพื้นที่ของเราคือการส่งออกอย่างต่อเนื่อง Y ⊆ R ที่นี้หมายถึงการฟื้นฟูของφแผนที่ปัญหาการถดถอย หากพื้นที่เอาท์พุท Y เป็นสิ้นเชิง Y = {c1, c2, c3 ... } ที่แต่ละ CI เป็นไปได้ 'ชั้น' ซึ่งองค์ประกอบของแต่ละ X สามารถแมปเรามีปัญหาการจัดหมวดหมู่ ปัญหาการจำแนกประเภทได้รับการประเมินโดย 0-1 (ศูนย์หนึ่ง) ฟังก์ชั่นการสูญเสียเช่นนี้analagously ถึง (2.7) เรา:











การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
ที่จำนวนของชุดการฝึก ttrials และจำนวนของพารามิเตอร์ initializations
เป็น wtrials . นี้แน่นอนแล้วจะเฉลี่ยไปทดสอบหลายจุด ( x , D ) , ใน
สมการ ( 2.7 ) โดยการออกแบบขั้นตอนวิธีการเรียนรู้ของเรานั้นมันสามารถลดปริมาณนี้
เราหวังว่าจะสามารถลดข้อผิดพลาดในข้อมูลที่มองไม่เห็นอนาคต ส่วนหนึ่งของการเรียนรู้แบบ Supervised Learning
ปัญหาคือการปรับปรุงพารามิเตอร์ดังนั้นตัวแปรสามารถกล่าวสรุปข้อมูลใหม่ที่จะใช้
t ในลักษณะเช่นนี้เพื่อให้เกิดความผิดพลาดน้อยในการทดสอบที่มองไม่เห็นชุด T ’ . จริง การทดสอบ
ชุดอาจจะได้รับโดยการแยก T ชุดเดิมออกเป็น 2 ส่วน ที แอนด์ ที นั้น . ถ้าเราแสดงได้ดีแต่ไม่ได้ T
T นั้น เราว่ามี overfitted ฟังก์ชันที่เราต้องปรับจูนของเรา
ทำนายมากว่า ตอนนี้มันทำงานเฉพาะในการฝึกอบรมชุด T และจึงไม่ได้
ที่ดีเป็นตัวแทนของφ . เรื่องนี้จะกล่าวถึงในส่วนเพิ่มเติมทาง .

เรากล่าวว่า ปัญหาการจำแนกพื้นที่ ออกของเราอย่างต่อเนื่อง และ⊆ R , นี้หมายถึงการฟื้นฟู
ของφแผนที่เป็นปัญหาการถดถอย ถ้าพื้นที่ออก Y จะไม่ต่อเนื่อง , Y = { C1 , C2 , C3 } ,
. . . . . . .ซึ่งแต่ละสายที่เป็นไปได้ ' คลาส ' ซึ่งแต่ละองค์ประกอบของ X สามารถแมป เรามี
ปัญหาการจำแนก ปัญหาการได้รับการประเมินโดย 0-1 ( ศูนย์หนึ่ง ) ฟังก์ชันการสูญเสีย ;
เช่น analagously ( 2.7 ) เรามี :
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: