The spider linear support vector machine (SVM) algorithm (version1.71; การแปล - The spider linear support vector machine (SVM) algorithm (version1.71; ไทย วิธีการพูด

The spider linear support vector ma

The spider linear support vector machine (SVM) algorithm (version
1.71; www.kyb.tuebingen.mpg.de/bs/people/spider) was used forMVP
analyses. To compare the classification performance for delayed recall
trials to that of long term memory and immediate recall trials we first
created run-wise folds of the data, and cross validated by training on
two runs and testing on the remaining run. This run-wise crossvalidation
is more conservative than trial-wise cross-validation. For
each fold a separate recursive feature elimination analysiswith an initial
feature reduction stepwas performed. The initial feature reduction step
comprised of selecting the 5000 voxels that discriminated most between
the training classes. This selection was based on the unsigned tstatistic
computed for each feature separately. Importantly, this selection
step only included trials belonging to the training set at the particular
fold. The training set within a fold was further split 10 times, each
time leaving out another 1/10th of the available trials to avoid
overfitting. The SVMclassifierwas trained on each split and the average
absolute discriminative weights (|w|) of the features over the ten splits
were computed. These averagedweightswere used in the recursive feature
elimination step to discard the 10% least discriminating features.
The recursive feature elimination step was performed fifty times, each
time discarding 10% of the features. At each iteration the average accuracy
(and classifier certainty) over the 10 splits of the training set were
computed. As said above, this entire procedure was repeated three
times (once for each fold) changing the training and testing runs. Lastly,
for each recursive feature elimination level the classification accuracy
(and classifier certainty) averaged over the three folds at that level
was obtained. The best recursive feature elimination level is the level
with the highest average classification accuracy.
When testing the generalizability of training to discriminate immediate
from long term retrieval examples to the delayed retrieval trials,
only delayed trials were included in the test set that occurred in the
run not used for training. This ensured the same level of independency
between training and test data for both the reference categories (immediate
and long term retrieval) and the target category (delayed retrieval).
In the standard MVP generalization approach, the best iteration in
the RFE approach is selected based on the accuracy obtained on the
test data. Consequently,when testing on the delayed retrieval target examples,
the iteration is chosen that gives the highest classification of
these target trials. However, to maximize the rigour of testing the reverse
inference hypothesis, we also report classification accuracies for
target examples at the iteration that was most optimal for discriminating
the reference examples, i.e., the iteration that gave the highest accuracy
in classifying immediate versus long term retrieval examples.
Statistical significance was based on 250 re-analyses of the data following
the exact same steps as described above (initial reduction, RFE
and best iteration selection), but with random redistribution of the
training labels. The label re-assignment mimics the null-hypothesis
that there is no systematic association between feature values and classes,
so that the class labels are interchangeable. Random accuracies
were on average higher than 50.0% (47.0 to 56.2%) due to selection of
the best of all iteration. The individual significance level was 0.05. The
significance of individual participant results was the centile position of
the observed accuracy amongst the 250 accuracies obtainedwith the repeated
randomization procedure. Significance at the group level was
established with the cumulative binomial coefficient, to take into account
the accumulation of chance.
Parameter dependency of classification performance
Because there are many parameters to select in the entire MVP procedure,
the influence of several of these parameter settings on the result
was investigated.With respect to the initial univariate feature reduction
step we investigated the effect of the number of features selected (All,
1000, 5000 or 2500 voxels) and the score used for the selection. De
Martino et al. (2008) obtained the best results in a simple auditory discrimination
tasks with a score highlighting the most active voxels
within each of the training classes. Although we did not expect in our
more complex and effortful cognitive task that the most active voxels
would also be the most important voxels to distinguish between the
two types of memory retrieval, we nonetheless investigated the effect
of using this selection score. A second potentially influential factor is
the algorithm used. While most of the analysis were done with the spider
implementation of the SVMbecause of its speed,we verified the results
o
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
แมงมุมเชิงสนับสนุนอัลกอริทึมเครื่อง (SVM) เวกเตอร์ (รุ่น1.71 www.kyb.tuebingen.mpg.de/bs/people/spider) ถูกใช้ forMVPวิเคราะห์ เพื่อเปรียบเทียบประสิทธิภาพการจัดหมวดหมู่เพื่อใช้ล่าช้าการทดลองที่หน่วยความจำระยะยาว และทันทีเรียกคืนทดลองเราครั้งแรกสร้าง run-wise เท่าของข้อมูล และข้ามการตรวจสอบ โดยการฝึกอบรมเกี่ยวกับทดสอบบนเหลือและทำงานสองงาน นี้ crossvalidation run-wiseเป็นอนุรักษ์นิยมมากขึ้นกว่าการตรวจสอบข้าม trial-wise สำหรับแต่ละพับซ้ำแยกคุณลักษณะการตัด analysiswith ต้นมีการลด stepwas ที่ดำเนินการ ขั้นตอนการลดคุณลักษณะเริ่มต้นประกอบด้วยการเลือก voxels 5000 ที่ discriminated สุดระหว่างในการฝึกซ้อม เลือกนี้ตาม tstatistic ได้รับการรับรองคำนวณสำหรับแต่ละคุณลักษณะแยกต่างหาก สำคัญ การเลือกนี้ขั้นตอนรวมเป็นการฝึกอบรมที่ตั้งโดยเฉพาะอย่างยิ่งของการทดลองเท่านั้นพับ ชุดการฝึกอบรมภายในพับเพิ่มเติมแยกออก 10 ครั้ง แต่ละเวลาออกออกอีก 1/10 ของการทดลองที่มีการหลีกเลี่ยงoverfitting SVMclassifierwas ฝึกแยกแต่ละและค่าเฉลี่ยน้ำหนัก discriminative สัมบูรณ์ (| w |) คุณสมบัติผ่านแยกสิบถูกคำนวณ Averagedweightswere เหล่านี้ใช้ในลักษณะการทำซ้ำขั้นตอนการกำจัดการละทิ้งคุณสมบัติเหยียดอย่างน้อย 10%ดำเนินการขั้นตอนการกำจัดคุณลักษณะซ้ำห้าสิบครั้ง แต่ละเวลาทิ้ง 10% คุณลักษณะของ ที่เกิดซ้ำแต่ละความถูกต้องเฉลี่ย(และแน่นอนลักษณนาม) ผ่านแยก 10 ชุดฝึกได้คำนวณ กล่าวข้างต้น ขั้นตอนทั้งหมดนี้เป็นซ้ำสามครั้ง (หนึ่งครั้งสำหรับแต่ละพับ) เปลี่ยนการฝึกอบรม และการทดสอบทำงาน สุดท้ายสำหรับแต่ละซ้ำคุณลักษณะการตัดระดับความถูกต้องของประเภท(และแน่นอนลักษณนาม) เฉลี่ยมากกว่าสามเท่าที่ระดับได้รับ ระดับการตัดคุณลักษณะซ้ำที่ดีที่สุดคือ ระดับมีความแม่นยำการจำแนกเฉลี่ยสูงสุดเมื่อทดสอบ generalizability ของการฝึกอบรมการแยกแยะทันทีจากตัวอย่างเรียกระยะยาวเพื่อทดลองเรียกล่าช้าการทดลองที่ล่าช้าเท่านั้นรวมอยู่ในชุดทดสอบที่เกิดขึ้นในการเรียกใช้ที่ไม่ได้ใช้สำหรับการฝึกอบรม นี้มั่นใจแต่งระดับเดียวกันระหว่างการฝึกอบรมและทดสอบข้อมูลสำหรับทั้งสองอ้างอิงประเภท (ทันทีและเรียกระยะยาว) และประเภทเป้าหมาย (เรียกล่าช้า)ในมาตรฐาน MVP ลักษณะทั่วไปวิธีการ การเกิดซ้ำในที่สุดเลือกวิธี RFE อิงความถูกต้องที่ได้รับจากการทดสอบข้อมูล ดังนั้น เมื่อการทดสอบตัวอย่างเป้าหมายล่าช้าเรียกคำซ้ำคือเลือกที่ช่วยให้การจัดประเภทสูงสุดทดลองเหล่านี้เป้าหมาย อย่างไรก็ตาม เพื่อเพิ่มความรุนแรงของการทดสอบย้อนกลับข้อสมมติฐาน เรายังรายงานความแม่นการจัดประเภทสำหรับตัวอย่างเป้าหมายที่เกิดซ้ำที่เหมาะสมสำหรับเหยียดพวกผิวตัวอย่างอ้างอิง กล่าวคือ คำซ้ำที่ให้ความแม่นยำสูงสุดในประเภททันทีเมื่อเทียบกับตัวอย่างเรียกระยะยาวนัยสำคัญทางสถิติตาม 250 ใหม่วิเคราะห์ข้อมูลต่อไปนี้ขั้นตอนที่เหมือนกันตามที่อธิบายไว้ข้างต้น (เริ่มต้นลด RFEและที่สุดการเลือกการเกิดซ้ำ), แต่ มีการกระจายแบบสุ่มของการป้ายชื่อการฝึกอบรม การกำหนดป้ายชื่อใหม่เลียนแบบ null-สมมติฐานว่ามีสมาคมไม่เป็นระบบระหว่างค่าลักษณะการทำงานและเรียนดังนั้นป้ายชื่อชั้นจะเปลี่ยน ความแม่นแบบสุ่มได้ โดยเฉลี่ยสูงกว่าร้อยละ 50.0 (47.0 56.2%) เนื่องจากตัวเลือกสุดของการเกิดซ้ำทั้งหมด ระดับนัยสำคัญละ 0.05 ได้ การความสำคัญของแต่ละผลลัพธ์ที่ผู้เข้าร่วมมีตำแหน่ง centileความถูกต้องสังเกตหมู่ obtainedwith 250 แม่นที่ซ้ำขั้นตอนการสุ่มอย่าง มีนัยสำคัญที่ระดับกลุ่มก่อตั้งขึ้น ด้วยสัมประสิทธิ์ทวินามสะสม คำนึงถึงการสะสมของโอกาสอ้างอิงพารามิเตอร์ของประสิทธิภาพการจัดหมวดหมู่เนื่องจากมีหลายพารามิเตอร์เพื่อเลือกในขั้นตอน MVP ทั้งหมดอิทธิพลของหลายการตั้งค่าพารามิเตอร์ผลการรับการตรวจสอบ เกี่ยวกับการลดคุณลักษณะเริ่มต้นไร univariateขั้นตอนที่เราตรวจสอบผลของจำนวนของคุณสมบัติที่เลือก (All1000, 5000 หรือ 2500 voxels) และคะแนนที่ใช้สำหรับการเลือก เดอมาร์ติโน et al. (2008) ได้รับผลลัพธ์ที่ดีสุดในการแบ่งแยกหูง่ายงาน มีคะแนนเน้น voxels มากที่สุดในแต่ละการฝึกซ้อม แม้ว่าเราไม่ได้คาดหวังในของเรางานองค์ความรู้ที่ซับซ้อนมากขึ้น และ effortful ที่ voxels มากที่สุดยังจะ voxels สำคัญที่สุดเพื่อแยกระหว่างการดึงหน่วยความจำสองชนิด เราก็ตรวจผลการใช้คะแนนนี้เลือก เป็นปัจจัยอาจมีอิทธิพลสองอัลกอริธึมที่ใช้ ในขณะที่ทำส่วนใหญ่ของการวิเคราะห์ ด้วยแมงมุมการดำเนินงานของ SVMbecause ของความเร็ว เราตรวจสอบผลการo
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
เครื่องสนับสนุนแมงมุมเชิงเส้นเวกเตอร์ (SVM) อัลกอริทึม (เวอร์ชั่น
1.71; www.kyb.tuebingen.mpg.de/bs/people/spider) ใช้ forMVP
วิเคราะห์ เพื่อเปรียบเทียบประสิทธิภาพการจัดหมวดหมู่สำหรับความล่าช้าในการเรียกคืน
การทดลองกับที่ของหน่วยความจำระยะยาวและการทดลองการเรียกคืนทันทีครั้งแรกที่เรา
สร้างขึ้นเท่าทำงานที่ชาญฉลาดของข้อมูลและข้ามการตรวจสอบโดยการฝึกอบรมใน
สองวิ่งและการทดสอบในระยะที่เหลือ crossvalidation ทำงานที่ชาญฉลาดนี้
เป็นอนุรักษ์นิยมมากกว่าการพิจารณาคดีที่ชาญฉลาดในการตรวจสอบข้าม สำหรับ
แต่ละพับแยกกำจัดคุณลักษณะ recursive analysiswith เริ่มต้น
ลดคุณลักษณะ stepwas ดำเนินการ เริ่มต้นขั้นตอนลดคุณสมบัติ
ประกอบด้วยการเลือก 5000 ชุว่าเลือกปฏิบัติระหว่าง
การเรียนการฝึกอบรม การเลือกนี้อยู่บนพื้นฐานที่ไม่ได้ลงชื่อ tstatistic
คำนวณสำหรับคุณลักษณะแต่ละแยก ที่สำคัญการเลือกนี้
ขั้นตอนรวมถึงมีเพียงการทดลองที่อยู่ในชุดฝึกอบรมที่โดยเฉพาะอย่างยิ่ง
เท่า การฝึกอบรมตั้งอยู่ภายในพับถูกแบ่งออกอีก 10 ครั้งแต่ละ
ครั้งที่ออกจากอีก 1/10 ของการทดลองที่มีอยู่เพื่อหลีกเลี่ยงการ
อิง SVMclassifierwas ได้รับการฝึกฝนในแต่ละแยกและค่าเฉลี่ย
น้ำหนักจำแนกแน่นอน (| W |) ของคุณสมบัติที่มากกว่าสิบแยก
ถูกคำนวณ averagedweightswere เหล่านี้ใช้ในคุณลักษณะ recursive
ขั้นตอนการกำจัดทิ้ง 10% คุณสมบัติเหยียดน้อย.
ขั้นตอนการกำจัดคุณลักษณะ recursive ได้ดำเนินการห้าสิบครั้งแต่ละ
ครั้งที่ทิ้ง 10% ของคุณสมบัติ ในแต่ละย้ำความถูกต้องเฉลี่ย
(และลักษณนามแน่นอน) มากกว่า 10 แยกของชุดการฝึกอบรมได้รับการ
คำนวณ ที่กล่าวข้างต้นนี้ขั้นตอนทั้งหมดถูกซ้ำสาม
ครั้ง (ครั้งสำหรับแต่ละเท่า) การเปลี่ยนแปลงการฝึกอบรมและการทดสอบวิ่ง สุดท้าย
สำหรับแต่ละระดับคุณลักษณะกำจัดเวียนเกิดความถูกต้องของการจัดหมวดหมู่
(และแน่นอนลักษณนาม) เฉลี่ยมากกว่าสามเท่าในระดับที่
ได้รับ recursive ระดับคุณลักษณะการกำจัดที่ดีที่สุดคือระดับ
ที่มีความถูกต้องจำแนกเฉลี่ยสูงสุด.
เมื่อทำการทดสอบ generalizability ของการฝึกอบรมในการแยกแยะได้ทันที
จากตัวอย่างการดึงในระยะยาวเพื่อการทดลองดึงล่าช้า
ทดลองล่าช้าเพียงถูกรวมอยู่ในชุดทดสอบที่เกิดขึ้นใน
การทำงาน ไม่ได้ใช้สำหรับการฝึกอบรม ซึ่งจะทำให้มั่นใจในระดับเดียวกันของความเป็นอิสระ
ระหว่างการฝึกอบรมและการทดสอบข้อมูลสำหรับทั้งสองประเภทอ้างอิง (ทันที
ดึงและระยะยาว) และประเภทเป้าหมาย (ดึงล่าช้า).
ในมาตรฐานวิธีการทั่วไป MVP, ซ้ำที่ดีที่สุดใน
วิธี RFE ถูกเลือกตาม กับความถูกต้องที่ได้รับใน
การทดสอบข้อมูล ดังนั้นเมื่อการทดสอบตัวอย่างเป้าหมายดึงล่าช้า
ซ้ำถูกเลือกที่จะช่วยให้การจัดหมวดหมู่ที่สูงที่สุดของ
การทดลองเป้าหมายเหล่านี้ แต่เพื่อเพิ่มความรุนแรงของการทดสอบกลับ
สมมติฐานข้อสรุปเรายังรายงานความถูกต้องจำแนกประเภท
ตัวอย่างเป้าหมายที่ย้ำว่าเป็นที่เหมาะสมที่สุดสำหรับการจำแนกกลุ่ม
ตัวอย่างอ้างอิงคือการทำซ้ำที่ให้ความถูกต้องสูงสุด
ในการจำแนกทันทีเมื่อเทียบกับการดึงระยะยาว ตัวอย่าง.
นัยสำคัญทางสถิติอยู่บนพื้นฐาน 250 เรื่องการวิเคราะห์ของข้อมูลดังต่อไปนี้
ขั้นตอนเดียวกันที่แน่นอนตามที่อธิบายไว้ข้างต้น (การลดลงครั้งแรก RFE
และการเลือกที่ดีที่สุดซ้ำ) แต่มีการกระจายแบบสุ่มของ
ป้ายชื่อการฝึกอบรม ป้ายใหม่ที่ได้รับมอบหมายเลียนแบบด้วย null สมมติฐาน
ว่าไม่มีการเชื่อมโยงอย่างเป็นระบบระหว่างค่าบาร์และชั้นเรียน
เพื่อให้ป้ายชื่อชั้นสามารถใช้แทนกัน ความถูกต้องสุ่ม
ได้โดยเฉลี่ยสูงกว่า 50.0% (47.0-56.2%) เนื่องจากการเลือกของ
ที่ดีที่สุดของการทำซ้ำทั้งหมด ระดับความสำคัญของแต่ละบุคคลเป็น 0.05
ความสำคัญของผลการมีส่วนร่วมของแต่ละบุคคลเป็นตำแหน่ง centile ของ
ความถูกต้องสังเกตในหมู่ 250 ความถูกต้อง obtainedwith ซ้ำ
ขั้นตอนการสุ่ม อย่างมีนัยสำคัญที่ระดับกลุ่มที่ถูก
จัดตั้งขึ้นโดยมีค่าสัมประสิทธิ์ทวินามสะสมจะต้องคำนึงถึง
การสะสมของโอกาส. the
พารามิเตอร์ขึ้นของประสิทธิภาพการจำแนก
เนื่องจากมีปัจจัยหลายประการที่จะเลือกในขั้นตอน MVP ทั้ง
อิทธิพลของหลายเหล่านี้การตั้งค่าพารามิเตอร์ในการ ผล
เป็น investigated.With เกี่ยวกับคุณสมบัติการลด univariate เริ่มต้น
ขั้นตอนที่เราตรวจสอบผลกระทบของจำนวนของคุณสมบัติที่เลือก (ทั้งหมดที่
1000 5000 หรือ 2500 ชุ) และคะแนนที่ใช้สำหรับการเลือก De
Martino, et al (2008) ได้รับผลลัพธ์ที่ดีที่สุดในการที่ง่ายการเลือกปฏิบัติหู
งานที่มีคะแนนเน้นชุใช้งานมากที่สุด
ในแต่ละชั้นเรียนการฝึกอบรม ถึงแม้ว่าเราจะไม่ได้คาดหวังของเราใน
งานองค์ความรู้ที่ซับซ้อนมากขึ้นและ effortful ว่าชุใช้งานมากที่สุด
ก็จะเป็นชุสำคัญที่สุดที่จะแยกแยะความแตกต่างระหว่าง
ทั้งสองประเภทของการดึงหน่วยความจำเราตรวจสอบอย่างไรก็ตามผลกระทบ
ของการใช้คะแนนการเลือกนี้ ปัจจัยที่มีอิทธิพลที่อาจเกิดขึ้นที่สองคือ
ขั้นตอนวิธีการที่ใช้ ขณะที่ส่วนใหญ่ของการวิเคราะห์ที่ถูกทำกับแมงมุม
การดำเนินงานของ SVMbecause ของความเร็วของเรามีการยืนยันผล
o
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
แมงมุมเวกเตอร์เชิงเส้นสนับสนุนเครื่อง ( SVM ) ขั้นตอนวิธี ( รุ่น9 ; www.kyb . Tuebingen . mpg . de / BS / คน / แมงมุม formvp ) ถูกใช้วิเคราะห์ข้อมูล การเปรียบเทียบประสิทธิภาพการเรียกคืนสำหรับความล่าช้าการทดลองที่หน่วยความจำระยะยาวและการทดลองได้ทันทีเราก่อนสร้างใช้ปัญญาเท่า ของข้อมูล และตรวจสอบ โดยฝึกอบรมข้ามสอง และวิ่งทดสอบบนวิ่งที่เหลืออยู่ นี่ใช้ปัญญา crossvalidationเป็นอนุรักษ์นิยมมากกว่าใช้ปัญญาข้ามการตรวจสอบ สำหรับแต่ละประเภทมีวิธีการพับแยกคุณลักษณะการเริ่มต้นคุณสมบัติคือการแสดง คุณลักษณะการเริ่มต้นขั้นตอนประกอบด้วยการเลือก 5000 voxels ที่เลือกปฏิบัติมากที่สุด ระหว่างการฝึกอบรมในชั้นเรียน เลือกนี้ ขึ้นอยู่กับ tstatistic ไม่มีชื่อคำนวณแยกแต่ละคุณลักษณะ ที่สำคัญ การเลือกนี้ขั้นตอนการทดลองเท่านั้นรวมของชุดฝึกอบรมที่เฉพาะพับ ชุดฝึกอบรมภายในคอกยังแยก 10 ครั้ง แต่ละเวลาออกไปอีก 1 / 10 ของการทดลองใช้เพื่อหลีกเลี่ยงoverfitting . การ svmclassifierwas การฝึกอบรมในแต่ละแยก และโดยเฉลี่ยแน่นอนและน้ำหนัก ( | W | ) คุณสมบัติ ผ่านแยก สิบกำลังคำนวณ . averagedweightswere เหล่านี้ใช้ในลักษณะ recursiveการขจัดขั้นตอนการยกเลิก 10 % อย่างน้อยจำแนกคุณลักษณะคุณลักษณะการขจัดขั้นตอนการ recursive ห้าสิบครั้ง แต่ละเวลาทิ้ง 10% ของคุณสมบัติ ในแต่ละซ้ำความแม่นยำเฉลี่ย( และลักษณนามความแน่นอนมากกว่า 10 แยกของชุดฝึกอบรมคือคํานวณ ดังที่กล่าวข้างต้น ขั้นตอนทั้งหมดนี้คือสามซ้ำครั้ง ( ครั้งเดียวสำหรับแต่ละพับ ) เปลี่ยนการฝึกอบรมและการทดสอบวิ่ง ท้ายนี้สำหรับแต่ละผู้จัดระดับความแม่นยำในการจำแนกคุณลักษณะ( และตัวแน่นอน ) เฉลี่ยมากกว่า 3 เท่า ในระดับที่คือได้รับ วิธีการกำจัดที่ดีที่สุดคุณลักษณะระดับระดับกับความถูกต้องของการจำแนกโดยเฉลี่ยสูงสุดเมื่อการทดสอบวิชาฝึกแยกแยะได้ทันทีจากตัวอย่างการระยะยาวที่จะล่าช้าการทดลองสืบค้นเพียงเลื่อนการทดลองรวมอยู่ในชุดการทดสอบที่เกิดขึ้นในเรียกใช้สำหรับการฝึกอบรม นี้มั่นใจว่าระดับเดียวกันของรัฐอิสระระหว่างการฝึกอบรมและทดสอบข้อมูลทั้งสองประเภท ( อ้างอิงได้ทันทีและค้นคืนระยะยาว ) และเป้าหมาย ( ล่าช้าประเภทการสืบค้น )ในมาตรฐาน MVP การวิธีการ ที่ดีที่สุดซ้ำในวิธีการเลือกที่ RFE ตามความถูกต้องที่ได้รับในข้อมูลทดสอบ ดังนั้นเมื่อทดสอบบนล่าช้าตัวอย่างเป้าหมายสืบค้นซ้ำจะเลือกที่ให้สูงสุด การจำแนกการทดลองเป้าหมายเหล่านี้ อย่างไรก็ตาม เพื่อเพิ่มความเข้มงวดตรวจสอบย้อนกลับสมมติฐานอนุมานเรายังรายงานหมวดหมู่ความถูกต้องสำหรับตัวอย่างเป้าหมายที่ทำซ้ำที่เหมาะสมที่สุดสำหรับจำแนกอ้างอิง ตัวอย่าง เช่น ซ้ำที่ให้ความแม่นยำสูงสุดเมื่อเทียบกับตัวอย่างการสืบค้นได้ในระยะยาวสถิติที่ใช้ในการวิเคราะห์ข้อมูลต่อไปนี้ 250 อีกครั้งแน่นอนขั้นตอนเดียวกันตามที่อธิบายไว้ข้างต้น ( RFE เริ่มต้นลดลงและเลือกรูปที่ดีที่สุด ) แต่ด้วยการสุ่มของป้าย อบรม ฉลาก re งานเลียนแบบสมมติฐานว่างที่ไม่มีระบบความสัมพันธ์ระหว่างค่าคุณลักษณะและชั้นเรียนดังนั้นชั้นป้ายชื่อจะใช้แทนกันได้ ความถูกต้องแบบสุ่มได้โดยเฉลี่ยสูงกว่าร้อยละ 50.0 ( 47.0 เพื่อการกลั่น % ) เนื่องจากการเลือกของดีที่สุดของทั้งหมดซ้ำ . ระดับบุคคลสำคัญ 0.05 ที่ความสำคัญของผลลัพธ์ผู้เข้าร่วมแต่ละเป็น centile ตำแหน่งการตรวจสอบความถูกต้องระหว่าง 250 ความถูกต้อง obtainedwith ซ้ำกระบวนการควบคุม ความสำคัญในระดับกลุ่ม คือก่อตั้งขึ้นด้วยสัมประสิทธิ์ทวินามสะสม เพื่อใช้เป็นบัญชีการสะสมของโอกาสพารามิเตอร์การการปฏิบัติการเพราะมีหลายตัวให้เลือกในขั้นตอน MVP ทั้งหมดอิทธิพลของพารามิเตอร์เหล่านี้ในการตั้งค่าหลายผลศึกษาเกี่ยวกับคุณสมบัติการรักษาเบื้องต้นขั้นตอนที่เราทำการศึกษาผลของจำนวนของการเลือกคุณสมบัติ ( ทั้งหมด1 , 000 , 000 หรือ 2500 voxels ) และคะแนนที่ใช้ในการคัดเลือก เดอมาร์ติโน et al . ( 2008 ) ได้รับผลลัพธ์ที่ดีที่สุดในการรับง่าย ๆงานมีคะแนนเน้น voxels การใช้งานมากที่สุดภายในแต่ละของการฝึกอบรมในชั้นเรียน ถึงแม้ว่าเราไม่ได้คาดหวังในของเราซับซ้อนมากขึ้นและงานที่ใช้งานมากที่สุด voxels effortful ทางปัญญาก็จะ voxels สำคัญที่สุดที่จะแยกแยะระหว่างสองประเภทของการดึงความทรงจำ แต่เราศึกษาผลการใช้การเลือกนี้คะแนน สองปัจจัยที่มีอิทธิพลซ่อนเร้นอัลกอริทึมที่ใช้ ในขณะที่ส่วนใหญ่ของการวิเคราะห์คือ ทำ กับแมงมุมการดำเนินงานของ svmbecause ความเร็วของมัน เราได้รับการยืนยันผลโอ
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: