ConclusionsThe use of different evaluation parameters prevents the sof การแปล - ConclusionsThe use of different evaluation parameters prevents the sof ไทย วิธีการพูด

ConclusionsThe use of different eva

Conclusions
The use of different evaluation parameters prevents the software engineering
community from easily comparing research results with previous works. In this
study, we investigated 85 fault prediction papers based on their performance
evaluation metrics and categorized these metrics into two main groups. The first
group of metrics are used for prediction systems that classify modules into a faulty
or non-faulty module and the second group of metrics are applied to systems that
predict the number of faults in each module of the next release of a system. This
study showed that researchers have used numerous evaluation parameters for
software fault prediction up to now, and the selection of common evaluation
parameters is still a critical issue in the context of software engineering
experiments. From the first group, the most common metric for software fault
prediction research is the area under ROC curve (AUC). The AUC value is only
one metric and it is not a part of the metric set. Therefore, it is easy to compare
several machine learning algorithms by using this parameter. In addition to AUC,
PD, and PF, balance metrics are also widely used. In this study, we suggest using
the AUC value to evaluate the performance of fault prediction models. From the
second group of metrics, R2 and AAE / ARE can be used to ensure the
performance of the system that predicts the number for faults. We suggest the
following changes in software fault prediction research:
• Conduct more studies on performance evaluation metrics for software fault
prediction. Researchers are still working on finding a new performance
evaluation metric for fault prediction [19], but we need more research in this
area because this software engineering problem is inherently different than
the other imbalanced dataset problems. For example, it is not easy to
determine the misclassification cost ratio (Jiang et al., 2008) and therefore,
using cost curves for evaluation is still not an easy task.
• Apply a widely used performance evaluation metric. Researchers would like
to be able to easily compare their current results with previous works. If the
performance metric of previous studies is totally different than the widely
used metrics, that makes the comparison difficult.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
บทสรุปใช้พารามิเตอร์การประเมินแตกต่างกันทำให้วิศวกรรมซอฟต์แวร์ชุมชนจากการเปรียบเทียบผลการวิจัยได้มีการทำงานก่อนหน้านี้ ในที่นี้การศึกษา เราตรวจสอบ 85 ข้อบกพร่องกระดาษคาดเดาตามผลงานของพวกเขาการวัดการประเมิน และจัดประเภทการวัดเหล่านี้เป็น 2 กลุ่มใหญ่ ครั้งแรกกลุ่มของตัวชี้วัดที่ใช้สำหรับระบบคาดเดาที่จัดประเภทโมดูไปเสียหรือโมดูลที่ไม่ชำรุดและกลุ่มสองของการวัดที่ใช้กับระบบที่ทำนายหมายเลขของข้อบกพร่องในแต่ละโมดูลของรุ่นถัดไปของระบบ นี้การศึกษาพบว่า นักวิจัยได้ใช้มากมายประเมินพารามิเตอร์สำหรับซอฟต์แวร์คาดเดาผิดขณะนี้ และการเลือกการประเมินทั่วไปพารามิเตอร์ที่ยังคงเป็นปัญหาสำคัญในบริบทของวิศวกรรมซอฟต์แวร์การทดลอง จากกลุ่มแรก การวัดทั่วไปสำหรับข้อบกพร่องของซอฟต์แวร์วิจัยคาดเดาเป็นพื้นที่ใต้โค้ง ROC (AUC) ค่า AUC เป็นเท่านั้นวัดหนึ่งและก็ไม่ใช่ส่วนหนึ่งของวัด ดังนั้น จึงสามารถเปรียบเทียบหลายเครื่องเรียนรู้อัลกอริทึม โดยใช้พารามิเตอร์นี้ นอกจาก AUCวัดดุล PD และ PF ยังใช้ ในการศึกษานี้ เราขอแนะนำการใช้ค่า AUC เพื่อประเมินประสิทธิภาพของแบบจำลองทำนายข้อบกพร่อง จากการที่สองของวัด R2 และเอเออี / จะสามารถใช้เพื่อให้การประสิทธิภาพของระบบที่คาดหมายสำหรับความผิด เราขอแนะนำตัวหากต้องการเปลี่ยนแปลงต่อไปนี้ในการวิจัยทำนายข้อบกพร่องของซอฟต์แวร์:ดำเนินการศึกษาเพิ่มเติมการวัดประเมินประสิทธิภาพสำหรับข้อบกพร่องของซอฟต์แวร์คาดเดา นักวิจัยยังคงทำการหาประสิทธิภาพใหม่วัดประเมินผลสำหรับการคาดเดาความผิด [19], แต่เราต้องวิจัยเพิ่มเติมในนี้พื้นที่เนื่องจากปัญหานี้วิศวกรรมซอฟต์แวร์แตกต่างเสมอการรับชุดข้อมูลปัญหาอื่น ๆ เช่น มันไม่ง่ายกำหนดอัตราค่าใช้จ่ายการจัดประเภท (Jiang et al. 2008) และดัง นั้นใช้กราฟต้นทุนสำหรับการประเมินยังไม่ได้เป็นงานง่าย•ใช้การวัดประเมินประสิทธิภาพการทำงานที่ใช้กันอย่างกว้างขวาง นักวิจัยต้องการเพื่อให้สามารถเปรียบเทียบผลลัพธ์ปัจจุบันของพวกเขากับผลงานก่อนหน้านี้อย่างง่ายดาย ถ้าการวัดประสิทธิภาพของการศึกษาก่อนหน้านี้จะแตกต่างกว่าแพร่หลายใช้วัด ที่ทำการเปรียบเทียบยาก
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
สรุปผลการวิจัย
การใช้พารามิเตอร์การประเมินผลที่แตกต่างกันจะช่วยป้องกันการวิศวกรรมซอฟต์แวร์
ชุมชนได้อย่างง่ายดายจากการเปรียบเทียบผลงานวิจัยที่มีผลงานก่อนหน้านี้ ในการนี้
การศึกษาเราตรวจสอบเอกสารการทำนาย 85 ความผิดตามประสิทธิภาพของ
ตัวชี้วัดการประเมินผลและการแบ่งตัวชี้วัดเหล่านี้เป็นสองกลุ่มหลัก เป็นครั้งแรกที่
กลุ่มของตัวชี้วัดที่ใช้สำหรับระบบการทำนายที่จำแนกโมดูลเป็นความผิดพลาดของ
โมดูลหรือไม่ผิดพลาดและกลุ่มที่สองของตัวชี้วัดจะนำไปใช้กับระบบที่
คาดการณ์จำนวนความผิดพลาดในโมดูลของรุ่นถัดไปของระบบแต่ละ นี้
การศึกษาแสดงให้เห็นว่านักวิจัยได้ใช้พารามิเตอร์การประเมินผลจำนวนมากสำหรับ
การทำนายความผิดของซอฟแวร์ถึงตอนนี้และการเลือกของการประเมินผลร่วมกัน
พารามิเตอร์ก็ยังคงเป็นปัญหาที่สำคัญในบริบทของวิศวกรรมซอฟต์แวร์
ทดลอง จากกลุ่มแรกตัวชี้วัดที่พบมากที่สุดสำหรับข้อบกพร่องของซอฟต์แวร์
การวิจัยการทำนายเป็นพื้นที่ใต้เส้นโค้ง ROC (AUC) ค่า AUC เป็นเพียง
หนึ่งในตัวชี้วัดและมันไม่ได้เป็นส่วนหนึ่งของชุดเมตริก ดังนั้นจึงเป็นเรื่องง่ายในการเปรียบเทียบ
ขั้นตอนวิธีการเรียนรู้ของเครื่องหลายโดยใช้พารามิเตอร์นี้ นอกเหนือไปจาก AUC,
PD และ PF ตัวชี้วัดความสมดุลนอกจากนี้ยังมีใช้กันอย่างแพร่หลาย ในการศึกษาครั้งนี้เราขอแนะนำให้ใช้
ค่า AUC เพื่อประเมินประสิทธิภาพของแบบจำลองการคาดการณ์ผิด จาก
กลุ่มที่สองของตัวชี้วัด R2 และ AAE / ARE สามารถนำมาใช้เพื่อให้แน่ใจว่า
ประสิทธิภาพการทำงานของระบบที่คาดการณ์ตัวเลขในส่วนที่บกพร่อง เราขอแนะนำให้
เปลี่ยนแปลงต่อไปนี้ในการวิจัยการทำนายความผิดของซอฟแวร์:
•ดำเนินการศึกษาเพิ่มเติมเกี่ยวกับตัวชี้วัดการประเมินผลการปฏิบัติงานสำหรับความผิดของซอฟแวร์
การทำนาย นักวิจัยยังคงทำงานในการหาใหม่ที่มีประสิทธิภาพ
ตัวชี้วัดการประเมินผลสำหรับความผิดทำนาย [19] แต่เราจำเป็นต้องวิจัยเพิ่มเติมในเรื่องนี้
ในพื้นที่เพราะปัญหาทางวิศวกรรมซอฟต์แวร์นี้เป็นเนื้อแท้ที่แตกต่างกว่า
ปัญหาอื่น ๆ ชุดข้อมูลที่ไม่สมดุล ยกตัวอย่างเช่นมันไม่ง่ายที่จะ
กำหนดอัตราส่วนค่าใช้จ่ายจำแนกข้อมูล (Jiang et al., 2008) ดังนั้น
การใช้เส้นโค้งค่าใช้จ่ายสำหรับการประเมินผลยังไม่ได้เป็นงานง่าย.
•ทาการประเมินผลตัวชี้วัดประสิทธิภาพการทำงานที่ใช้กันอย่างแพร่หลาย นักวิจัยต้องการ
เพื่อให้สามารถเปรียบเทียบผลได้อย่างง่ายดายปัจจุบันของพวกเขาที่มีผลงานก่อนหน้านี้ หาก
ตัวชี้วัดประสิทธิภาพการทำงานของการศึกษาก่อนหน้าจะแตกต่างกว่ากันอย่างแพร่หลาย
ชี้วัดที่ใช้ที่ทำให้การเปรียบเทียบที่ยาก
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
สรุปการใช้พารามิเตอร์การประเมินที่แตกต่างกันป้องกันวิศวกรรมซอฟต์แวร์ชุมชนได้อย่างง่ายดายเปรียบเทียบผลการวิจัยกับผลงานก่อนหน้านี้ ในนี้ศึกษา เราศึกษา 85 ความผิดการทำนายขึ้นอยู่กับประสิทธิภาพของเอกสารตัวชี้วัดการประเมินผลและจัดหมวดหมู่เหล่านี้ ตัวชี้วัดออกเป็นสองกลุ่มหลัก ครั้งแรกกลุ่มของตัวชี้วัดที่ใช้ในการทำนายระบบโมดูลที่แยกเป็นข้อผิดพลาดหรือ ไม่เสีย โมดูล และกลุ่มที่สองของการวัดจะใช้ระบบที่คาดการณ์จำนวนของข้อบกพร่องในแต่ละโมดูลของรุ่นถัดไปของระบบ นี้ศึกษาพบว่า นักวิจัยได้ใช้พารามิเตอร์การประเมินมากมายสำหรับข้อบกพร่องซอฟต์แวร์ทำนายจนถึงตอนนี้ และการประเมินทั่วไปพารามิเตอร์ที่ยังคงเป็นปัญหาที่สำคัญในบริบทของวิศวกรรมซอฟต์แวร์การทดลอง จากกลุ่มแรก , ตัวชี้วัดที่พบบ่อยที่สุดสำหรับข้อบกพร่องซอฟต์แวร์การวิจัยในการทำนายพื้นที่ใต้โค้ง ROC ( ยา ) ค่า auc เท่านั้นหนึ่งเมตริกตัน และไม่ใช่ส่วนหนึ่งของชุดตัวชี้วัด ดังนั้นมันเป็นเรื่องง่ายที่จะเปรียบเทียบหลายอัลกอริทึมการเรียนรู้ของเครื่องจักร โดยใช้พารามิเตอร์นี้ นอกจากยา ,โปรดิวเซอร์ และ PF สมดุลเป็นวัดที่ยังใช้กันอย่างแพร่หลาย ในการศึกษานี้ เราแนะนำให้ใช้ค่า ค่า เพื่อประเมินประสิทธิภาพของการทำนายผิดรุ่น จากกลุ่มที่สองของวัด และ AAE / R2 จะสามารถใช้เพื่อให้แน่ใจว่าประสิทธิภาพของระบบที่คาดการณ์ตัวเลขสำหรับความผิดพลาด เราขอแนะนำต่อไปนี้การเปลี่ยนแปลงในงานวิจัยทำนายผิดซอฟต์แวร์- ศึกษาเพิ่มเติมเกี่ยวกับตัวชี้วัดการประเมินการปฏิบัติงานของซอฟต์แวร์พยากรณ์ นักวิจัยยังคงทำงานเกี่ยวกับการหางานใหม่ตัวชี้วัดการประเมินผลสำหรับความผิดการทำนาย [ 19 ] , แต่เราต้องการการวิจัยเพิ่มเติมในนี้พื้นที่เพราะปัญหาวิศวกรรมซอฟต์แวร์นี้เป็นอย่างโดยเนื้อแท้ที่แตกต่างกว่าอื่น ๆไม่สมดุลข้อมูลปัญหา ตัวอย่างเช่น มันไม่ใช่เรื่องง่าย ๆกำหนดอัตราส่วนของต้นทุนผิดพลาด ( เจียง et al . , 2008 ) และ ดังนั้นการใช้เส้นโค้งต้นทุนในการประเมินคือยังไม่ใช่งานที่ง่ายเลย- ใช้เป็น ใช้กันอย่างแพร่หลาย การประเมินผลตัวชี้วัด นักวิจัยต้องการจะสามารถเปรียบเทียบผลในปัจจุบัน กับผลงานที่ผ่านมา ถ้าตัวชี้วัดประสิทธิภาพของการศึกษาก่อนหน้านี้จะแตกต่างกว่ากันอย่างแพร่หลายใช้ตัวชี้วัด ที่ทำให้การเปรียบเทียบยาก
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: