n machine learning, the term ias

n machine learning, the term ias"

n machine learning, the term ias" was introduced by Mitchell (1980) to mean any basis
for choosing one generalization [hypothesis] over another, other than strict consistency with
the observed training instances." Examples of such biases include absolute biases and relative
biases. An absolute bias is an assumption by the learning algorithm that the target function
to be learned is de nitely a member of some designated set of functions (such as the set
of linear discriminate functions or the set of boolean conjunctions). A relative bias is an
assumption that the function to learned is more likely to be from one set of functions than
from another. For example, the decision tree algorithms (e.g., C4.5, CART) consider small
trees before they consider larger ones. If these algorithms nd a small tree that can correctly
classify the training data, then a larger one is not considered. The eld of supervised
learning has been described (Shavlik, J. and Dietterich, T.G., 1990) as the study of biases|
their expressive power, their computational complexity, and their sample complexity (i.e.,
the number of examples required to produce accurate generalization).
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
n เครื่องเรียนรู้ ias คำว่า"ถูกนำมาใช้ โดย Mitchell (1980) จะหมายถึง พื้นฐาน anyสำหรับการเลือกหนึ่ง generalization [สมมติฐาน] กว่าอีก ไม่เข้มงวดสอดคล้องกับการฝึกสังเกตอย่างนั้น" ตัวอย่างเช่นยอมรวมยอมแบบสัมบูรณ์และสัมพัทธ์ยอม ความโน้มเอียงสัมบูรณ์เป็นการอัสสัมชัญ โดยอัลกอริทึมการเรียนรู้ที่ฟังก์ชันเป้าหมายการได้เรียนรู้เป็นเด nitely สมาชิกของบางชุดที่กำหนดของการทำงาน (เช่นชุดของฟังก์ชันเชิงเส้น discriminate หรือชุดของ boolean สันธาน) ความโน้มเอียงที่สัมพันธ์กันเป็นการอัสสัมชัญที่ฟังก์ชั่นการเรียนรู้เป็นแนวโน้มที่จะได้จากฟังก์ชันมากกว่าหนึ่งชุดจาก ตัวอย่าง กระบวนการต้นไม้ตัดสินใจ (เช่น C4.5 ตะกร้า) พิจารณาขนาดเล็กต้นไม้ก่อนที่พวกเขาพิจารณาคนใหญ่ ถ้า nd อัลกอริทึมเหล่านี้เล็กเป็นต้นไม้ที่สามารถอย่างถูกต้องแบ่งประเภทการฝึกอบรมข้อมูล แล้วขนาดใหญ่หนึ่งไม่ถือว่า Eld ของแบบมีผู้สอนเรียนรู้ได้อธิบายไว้ (Shavlik, J. และ Dietterich, T.G., 1990) เป็นการศึกษาของ biases|อำนาจที่แสดงออก ความซับซ้อนของการคำนวณ และความซับซ้อนของตัวอย่าง (เช่นจำนวนตัวอย่างที่ต้องผลิตถูกต้อง generalization)
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
การเรียนรู้เครื่อง n คำว่า อคติ "ได้รับการแนะนำให้รู้จักกับมิทเชลล์ (1980) หมายถึง พื้นฐานใด ๆ
สำหรับการเลือกหนึ่งทั่วไป [สมมติฐาน]
มากกว่าอีกนอกเหนือจากความสอดคล้องอย่างเคร่งครัดกับกรณีการฝึกอบรมสังเกต."
ตัวอย่างของอคติดังกล่าวรวมถึงอคติแน่นอนและญาติอคติ อคติที่แน่นอนคือสมมติฐานโดยวิธีการเรียนรู้ว่าการทำงานเป้าหมายที่จะเรียนรู้เป็น nitely เป็นสมาชิกของบางชุดที่กำหนดของฟังก์ชั่น (เช่นการตั้งค่าฟังก์ชั่นการเลือกปฏิบัติเชิงเส้นหรือชุดของคำสันธานแบบบูล) อคติญาติเป็นสมมติฐานที่ว่าฟังก์ชั่นในการเรียนรู้ที่มีแนวโน้มที่จะต้องมาจากหนึ่งชุดของฟังก์ชั่นกว่าจากที่อื่น ยกตัวอย่างเช่นการตัดสินใจขั้นตอนวิธีต้นไม้ (เช่น C4.5, รถเข็น) พิจารณาขนาดเล็กต้นไม้ก่อนที่จะพิจารณาคนที่มีขนาดใหญ่ หากขั้นตอนวิธีการเหล่านี้ครั้งที่ต้นไม้ขนาดเล็กที่ถูกต้องสามารถจำแนกข้อมูลการฝึกอบรมแล้วหนึ่งที่มีขนาดใหญ่จะไม่ถือว่าเป็น ภายใต้การดูแลของ ELD การเรียนรู้ที่ได้รับการอธิบาย (ค่าย Shavlik เจและ Dietterich, TG 1990) ในขณะที่การศึกษาของอคติ | แสดงพลังของพวกเขาซับซ้อนในการคำนวณของพวกเขาและความซับซ้อนของพวกเขาตัวอย่าง (เช่นจำนวนตัวอย่างที่จำเป็นในการผลิตที่ถูกต้องทั่วไป)









การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
n การเรียนรู้เครื่อง , ระยะ N อคติ " แนะนำ มิทเชลล์ ( 1980 ) หมายความว่าพื้นฐานใด ๆสำหรับการเลือกหนึ่ง
[ 1 ] มากกว่าอื่น นอกเหนือจากความสอดคล้องเข้มงวดกับ
ฝึกสังเกตกรณี " ตัวอย่าง เช่น รวมญาติและอคติอคติอคติแน่นอน

การตั้งค่าที่แน่นอนคือการสันนิษฐานโดยอัลกอริทึมการเรียนรู้ว่า เป้าหมายการทำงาน
ต้องเรียนรู้ คือ เดอ nitely เป็นสมาชิกของบางเขตชุดของฟังก์ชั่น ( เช่นชุดของฟังก์ชันจำแนกเชิงเส้น
หรือชุดของตรรกะสันธาน ) อคติ ญาติเป็นฟังก์ชันที่จะเรียนรู้
สันนิษฐานว่าน่าจะเป็นจากที่หนึ่งชุดของฟังก์ชันมากกว่า
จากอีก ตัวอย่างเช่นขั้นตอนวิธีต้นไม้ตัดสินใจ ( เช่นโปรแกรม C4.5 รถเข็นเล็ก
) พิจารณาต้นไม้ก่อนที่จะพิจารณาคนที่มีขนาดใหญ่ ถ้าเหล่านี้ขั้นตอนวิธี และต้นไม้ขนาดเล็กที่สามารถได้อย่างถูกต้อง
จำแนกประเภทของข้อมูลการฝึกอบรมแล้วขนาดใหญ่จะไม่พิจารณา การ ละมั่ง การเรียนรู้ดูแล
ได้รับการอธิบาย ( shavlik เจ และ dietterich t.g. , 1990 ) ขณะที่การศึกษาอคติ |
การแสดงออกถึงพลังของการคำนวณที่ซับซ้อนของพวกเขา และความซับซ้อนของตัวอย่าง ( i.e . ,
จำนวนตัวอย่างที่ต้องผลิตทั่วไป
ถูกต้อง )
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: