1 IntroductionThe task of learning a target concept in a given represe การแปล - 1 IntroductionThe task of learning a target concept in a given represe ไทย วิธีการพูด

1 IntroductionThe task of learning

1 Introduction
The task of learning a target concept in a given representation language, from
a set of positive and negative realizations of that concept (examples) and some
background knowledge, is called inductive concept learning (ICL) [31]. If the
representation language is a fragment of first-order logic then it is called inductive
logic programming (ILP) [34].
Real life learning tasks are often described by nominal as well as continuous,
real-valued, attributes. However, most inductive learning systems treat all
attributes as nominal, hence cannot exploit the linear order of real values. This limitation may have a negative effect not only on the execution speed but also
on the learning capabilities of such systems.
In order to overcome these drawbacks, continuous-valued attributes are transformed
into nominal ones by splitting the range of the attribute’s values in
a finite number of intervals. Alternatively, continuous attributes are treated
by means of inequalities, describing attribute subranges, whose boundaries are
computed during the learning process. This process, called discretization, is supervised
when it uses the class labels of examples, and unsupervised otherwise.
Discretization can be applied prior or during the learning process (global and
local discretization, respectively), and can either discretize one attribute at a
time (univariate discretization) or take into account attributes interdependencies
(multivariate discretization) [14].
Researchers in the Machine Learning community have introduced many discretization
algorithms. An overview of various types of discretization algorithms
can be found, e.g., in [20, 21, 28, 30]. Most of these algorithms perform an iterative
greedy heuristic search in the space of candidate discretizations, using
different types of scoring functions for evaluating a discretization. For instance,
the popular Fayyad & Irani discretization algorithm [6, 19] considers one attribute
at a time, uses an information class entropy measure for choosing a
cut point yielding a partition of the attribute domain, applies recursively the
procedure to both the partitions, and uses the minimum description length as
criterion for stopping the recursion.
A typical example showing a drawback of univariate discretization methods
based on class information entropy is the problem of separating the two classes
shown in the figure 1, where positive and negative examples are labeled + and
×.

0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
บทนำ 1งานของเป้าหมายแนวคิดในภาษาที่กำหนดการแสดง การเรียนรู้จากชุดของค่าบวก และค่าลบ realizations ของแนวคิดนั้น (ตัวอย่าง) และบางพื้นหลังความรู้ เป็นแนวคิดเชิงอุปนัยเรียกการเรียนรู้ (ICL) [31] ถ้าการแสดงภาษาเป็นส่วนของตรรกะลำดับแรก แล้วจะเรียกว่าเชิงอุปนัยตรรกะการเขียนโปรแกรม (ILP) [34]งานเรียนรู้ชีวิตจริงมักจะอธิบาย โดยระบุ เป็นอย่างต่อ เนื่องจริงค่า แอตทริบิวต์ อย่างไรก็ตาม ระบบการเรียนรู้เชิงอุปนัยสุดรักษาทั้งหมดแอตทริบิวต์เป็นระบุ จึงไม่สามารถใช้ลำดับเชิงเส้นของค่าจริง ข้อจำกัดนี้อาจมีผลกระทบไม่เพียงแต่ในความเร็วในการดำเนินการ แต่ยังในความสามารถการเรียนรู้ของระบบดังกล่าวเพื่อเอาชนะข้อเสียเหล่านี้ เปลี่ยนแอตทริบิวต์ค่าอย่างต่อเนื่องเป็นคนที่ระบุโดยการแบ่งช่วงของค่าแอตทริบิวต์ในจำนวนจำกัดช่วงเวลา หรือ แอตทริบิวต์อย่างต่อเนื่องจะถือว่าจากความเหลื่อมล้ำทาง อธิบายคุณลักษณะ subranges มีขอบเขตคำนวณในระหว่างกระบวนการเรียนรู้ กระบวนการนี้ เรียกว่า discretization แบบมีผู้สอนเมื่อจะใช้ป้ายชื่อคลาสตัวอย่าง และ unsupervised มิฉะนั้นสามารถใช้ discretization ก่อน หรือระหว่างเรียน (ส่วนกลาง และdiscretization ท้องถิ่น ตามลำดับ), และสามารถการ discretize แอตทริบิวต์หนึ่งที่มีเวลา (อย่างไร univariate discretization) หรือจะเข้าบัญชีคุณลักษณะความ(ตัวแปรพหุ discretization) [14]นักวิจัยในชุมชนการเรียนรู้ของเครื่องได้แนะนำหลาย discretizationอัลกอริทึมการ ภาพของอัลกอริทึม discretization ชนิดต่าง ๆสามารถพบ เช่น ใน [20, 21, 28, 30] อัลกอริทึมเหล่านี้ส่วนใหญ่ดำเนินการซ้ำค้นหาแล้วโลภในพื้นที่ของผู้สมัคร discretizations ใช้ชนิดต่าง ๆ ของฟังก์ชันการให้คะแนนสำหรับประเมินการ discretization ตัวอย่างแอททริบิวต์หนึ่งพิจารณานิยม Fayyad และ Irani discretization อัลกอริทึม [6, 19]ในเวลา ใช้การวัดเอนโทรปีของชั้นข้อมูลที่เลือกเป็นตัดผลผลิตพาร์ติชันของโดเมนแอตทริบิวต์จุด ใช้ recursively การกระบวนการทั้งสองพาร์ติชัน และใช้ความยาวต่ำสุดลักษณะเป็นเงื่อนไขในการหยุดการสอบถามซ้ำตัวอย่างทั่วไปแสดงความเสียเปรียบของอย่างไร univariate discretization วิธีขึ้นอยู่กับเอนโทรปีของข้อมูลคลาสคือปัญหาการแบ่งแยกชนชั้นสองแสดงในรูป 1 ซึ่งป้ายตัวอย่างการบวก และลบ + และ×.
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
1
บทนำงานของการเรียนรู้แนวคิดเป้าหมายในภาษาการแสดงที่ได้รับจากชุดของความเข้าใจในเชิงบวกและเชิงลบของแนวคิดที่
(ตัวอย่าง)
และความรู้พื้นหลังที่เรียกว่าแนวความคิดการเรียนรู้อุปนัย(ICL) [31] ถ้าภาษาของการแสดงเป็นส่วนของตรรกะลำดับแรกแล้วมันจะเรียกว่าอุปนัยโปรแกรมตรรกะ(ILP) [34]. งานเรียนรู้ตลอดชีวิตจริงมักจะอธิบายโดยระบุเช่นเดียวกับอย่างต่อเนื่องจริงมูลค่าคุณลักษณะ แต่ส่วนใหญ่ระบบการเรียนรู้ที่นำเข้ามารักษาทุกคุณลักษณะที่เป็นน้อยจึงไม่สามารถใช้ประโยชน์จากคำสั่งเชิงเส้นของค่าจริง ข้อ จำกัด นี้อาจจะมีผลกระทบไม่เพียง แต่ในความเร็วในการทำงาน แต่ยังเกี่ยวกับความสามารถในการเรียนรู้ของระบบดังกล่าว. เพื่อที่จะเอาชนะอุปสรรคเหล่านี้คุณลักษณะอย่างต่อเนื่องมูลค่าจะกลายเป็นคนที่ระบุโดยแยกช่วงของค่าของแอตทริบิวต์ในจำกัด จำนวนของช่วง อีกทางเลือกหนึ่งคุณลักษณะอย่างต่อเนื่องได้รับการรักษาโดยวิธีการของความไม่เท่าเทียมกันอธิบาย subranges แอตทริบิวต์ที่มีขอบเขตมีการคำนวณในระหว่างขั้นตอนการเรียนรู้ กระบวนการนี้เรียกว่าไม่ต่อเนื่อง, เป็นผู้ดูแลเมื่อใช้ฉลากชั้นเรียนของตัวอย่างและหากินอย่างอื่น. ตัดสินความสามารถนำมาใช้ก่อนหรือในระหว่างกระบวนการเรียนรู้ (ทั่วโลกและต่อเนื่องในท้องถิ่นตามลำดับ) และสามารถ discretize หนึ่งแอตทริบิวต์ที่เวลา( univariate ต่อเนื่อง) หรือคำนึงถึงคุณลักษณะประมูล(ต่อเนื่องหลายตัวแปร) [14]. นักวิจัยในเครื่องชุมชนการเรียนรู้ได้แนะนำต่อเนื่องหลายขั้นตอนวิธีการ ภาพรวมของประเภทต่างๆของขั้นตอนวิธีการต่อเนื่องสามารถพบได้เช่นใน [20, 21, 28, 30] ส่วนใหญ่ของขั้นตอนวิธีเหล่านี้ดำเนินการซ้ำการค้นหาโลภแก้ปัญหาในพื้นที่ของ discretizations ผู้สมัครที่ใช้แตกต่างกันของฟังก์ชั่นการให้คะแนนสำหรับการประเมินต่อเนื่อง ยกตัวอย่างเช่นFayyad นิยมและอิหร่านนิอัลกอริทึมต่อเนื่อง [6, 19] พิจารณาหนึ่งแอตทริบิวต์ที่เวลาใช้มาตรการเอนโทรปีระดับข้อมูลสำหรับการเลือกจุดตัดผลผลิตพาร์ติชันของโดเมนของแอตทริบิวต์ที่ใช้ซ้ำขั้นตอนทั้งพาร์ทิชันและใช้ระยะเวลาในรายละเอียดขั้นต่ำเป็นเกณฑ์สำหรับการหยุดเรียกซ้ำตัวเอง. เป็นตัวอย่างที่แสดงให้เห็นข้อบกพร่องของวิธีการที่ไม่ต่อเนื่อง univariate ขึ้นอยู่กับเอนโทรปีของข้อมูลระดับเป็นปัญหาของการแยกทั้งสองเรียนที่แสดงในรูปที่ 1 ซึ่งตัวอย่างบวกและลบจะมีป้ายกำกับ + และ×































การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
1 บทนำ
งานของการเรียนรู้เป็นแนวคิดในการกำหนดเป้าหมายภาษา จาก
ชุดบวกและลบที่รับรู้ว่าแนวคิด ( ตัวอย่าง ) และบาง
ความรู้ภูมิหลัง เรียกว่าแนวคิดการเรียนรู้เชิงอุปนัย ( ICL ) [ 31 ] ถ้า
แทน ภาษาเป็นส่วนของตรรกะลำดับแรก แล้วมันเรียกว่าการโปรแกรมตรรกะเชิงอุปนัย ( ILP )

[ 34 ]งานเรียนรู้ชีวิตจริงมักอธิบายโดยระบุเป็นอย่างต่อเนื่อง
จริง มูลค่า แอตทริบิวต์ อย่างไรก็ตาม ระบบการเรียนรู้แบบอุปนัยส่วนใหญ่รักษาคุณลักษณะทั้งหมด
เป็นระบุ จึงไม่สามารถใช้ประโยชน์จากคำสั่งเชิงเส้นของค่าจริง ข้อ จำกัด นี้อาจมีผลกระทบเชิงลบไม่เพียง แต่ในความเร็วปฏิบัติการแต่ยัง
การเรียนรู้เกี่ยวกับความสามารถของระบบดังกล่าว .
เพื่อเอาชนะประการเหล่านี้อย่างต่อเนื่อง มูลค่าในที่คุณลักษณะเปลี่ยน
ระบุโดยแบ่งช่วงของค่าแอตทริบิวต์ใน
จำนวนที่จำกัดของช่วงเวลา หรือคุณลักษณะอย่างต่อเนื่องจะถือว่า
โดยใช้วิธีอสมการ การอธิบายคุณลักษณะ subranges ที่มีขอบเขต
คำนวณในระหว่างขั้นตอนการเรียนรู้ กระบวนการนี้เรียกว่าค่าวัสดุก่อสร้าง
,เมื่อใช้ระดับป้ายตัวอย่างและ unsupervised มิฉะนั้น .
ค่าสามารถใช้ก่อนหรือในระหว่างกระบวนการเรียน ( ส่วนกลางและท้องถิ่นค่า
ตามลำดับ ) และสามารถ discretize หนึ่งแอตทริบิวต์ที่
( 2 ค่า ) หรือพิจารณาคุณลักษณะ interdependencies
( รวมถึงค่า
) [ 14 ]นักวิจัยในชุมชนการเรียนรู้ มีเครื่องแนะนำขั้นตอนวิธีค่า
มากมาย ภาพรวมของประเภทต่างๆของขั้นตอนวิธี
ค่าสามารถพบได้ เช่น ใน [ 20 , 21 , 28 , 30 ] ที่สุดของขั้นตอนวิธีเหล่านี้ดำเนินการซ้ำ
โลภสำหรับการค้นหาในพื้นที่ของ discretizations ผู้สมัครโดยใช้
ชนิดที่แตกต่างกันของคะแนนการทำงานสำหรับการประเมินค่า .
สำหรับอินสแตนซ์ความนิยมฟาเยด&ลาชิ Discretization ขั้นตอนวิธี [ 6 , 19 ] พิจารณาหนึ่งแอตทริบิวต์
ที่เวลาใช้ข้อมูลค่าวัดที่เลือก
ตัดจุดยอมแบ่งคุณลักษณะโดเมนใช้ recursively
ขั้นตอนทั้งพาร์ติชัน และใช้ความยาวรายละเอียดน้อยที่สุด
เกณฑ์สำหรับการหยุดการเรียกซ้ำ
ตัวอย่างทั่วไปแสดงข้อเสียของวิธีการที่มีค่า
ตามข้อมูลระดับเอนโทรปีคือ ปัญหาของการแยกสองวิชา
แสดงในรูปที่ 1 ซึ่งตัวอย่างบวกและลบจะมีป้ายชื่อและ

× .
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: