One downside of this method is the high computational cost of
GSVD, especially for large-scale and high-dimensional data.
Huang et al. [25] make use of the null space of SW for solving
the small-sample-size problem in LDA. The core idea is to project
all the samples onto the null space of SW , where the within-class
scatter is zero, and then the optimal discriminant vectors of LDA
are those vectors that can maximize the between-class scatter SB.
The authors propose a new method to tackle this problem in a
more computationally efficient way.
Kyperountas et al. [26] utilize weighted piecewise discriminant
hyperplanes in order to provide a more accurate discriminant
decision than the one produced by the traditional LDA approach,
while also avoiding the small-sample-size problem. To be more
specific, the dimensionality of the samples are broken down into
subsets of feature vectors of smaller dimensions, and LDA is
applied on each subset. The resulting discriminant weight sets are
weighted under a normalization criterion so that the piecewise
discriminant functions can be continuous in order to provide the
overall discriminant solution.
2.2. Trace ratio problem
Among many linear subspace modeling and embedding methods,
their objective is to maximize the “trace ratio” i.e. maximizeW
trðf 1ðWÞÞ=trðf 2ðWÞÞ ¼ maximizeW trðW> SiWÞ=trðW> ZiWÞ where
Si and Zi are the scatter matrices for some discriminant analysis,
to be discussed in the following sections. However, this optimization
is non-convex hence solving it directly is hard. Traditionally,
this is evaded by relaxing it to solving the “ratio trace”
problem i.e. maximizeW trðf 1ðWÞ=f 2ðWÞÞ ¼ maximizeW trðf 2ðWÞ
1
f 1ðWÞÞ ¼ maximizeW trððW> ZiWÞ
1ðW> SiWÞÞ. Simpler solution
can therefore be found. But the result is no longer optimal for the
original optimization.
One of the earliest attempts to solve the “trace ratio” problem
directly can be traced back to Guo et al. [27] where they propose
the generalized Foley–Sammon transform (GFST) on the basis of
generalized Fisher discriminant criterion. Following their derivation,
an iterative algorithm is proposed to converge to the precise
“trace ratio” solution. Shen et al. [28] reformulate the original nonconvex
“trace ratio” problem such that it can be solved by a
sequence of semi-definite feasibility problems efficiently, and the
solution is globally optimal via semi-definite programming. One
by-product of their method is that the projection matrix is naturally
orthonormal. Jia et al. [29] provide a theoretical overview of
the globally optimal solution to the “trace ratio” problem through
the equivalent trace difference problem where they first introduce
the eigenvalue perturbation theory to derive an efficient algorithm
that is based upon the Newton–Raphson method.
After extensive literature search, we find that there has not
been many studies on the exact recovery of the non-convex
solution, and this work, FKDA, will join them to provide an alternative
for finding the exact solution to the “trace ratio” problem.
หนึ่งในข้อเสียของวิธีนี้คือการคำนวณค่าใช้จ่ายสูงของ
GSVD โดยเฉพาะอย่างยิ่งสำหรับขนาดใหญ่และข้อมูลที่สูงมิติ.
Huang et al, [25] ทำให้การใช้งานของพื้นที่ว่างของ SW
สำหรับการแก้ปัญหาขนาดเล็กขนาดตัวอย่างในLDA แนวคิดหลักคือการฉายตัวอย่างทั้งหมดบนพื้นที่ว่างของ SW ที่อยู่ภายในชั้นที่กระจายเป็นศูนย์แล้วเวกเตอร์จำแนกที่ดีที่สุดของLDA เวกเตอร์ที่สามารถเพิ่มการกระจายระหว่างชั้น SB. ผู้เขียนนำเสนอ วิธีการใหม่ที่จะจัดการปัญหานี้ในวิธีที่มีประสิทธิภาพมากขึ้นคอมพิวเตอร์. Kyperountas et al, [26] ใช้ถ่วงน้ำหนักจำแนกค่hyperplanes เพื่อให้ถูกต้องมากขึ้นจำแนกการตัดสินใจมากกว่าหนึ่งที่ผลิตโดยวิธีการแบบดั้งเดิมLDA, ขณะเดียวกันก็หลีกเลี่ยงปัญหาเล็ก ๆ ตัวอย่างขนาด จะมีมากขึ้นเฉพาะมิติของกลุ่มตัวอย่างที่มีการแบ่งออกเป็นส่วนย่อยของเวกเตอร์คุณลักษณะของมิติที่มีขนาดเล็กและLDA ถูกนำมาใช้ในแต่ละเซต ชุดน้ำหนักจำแนกผลมีการถ่วงน้ำหนักต่ำกว่าเกณฑ์มาตรฐานเพื่อให้ค่ฟังก์ชั่นแนสามารถอย่างต่อเนื่องเพื่อให้การแก้ปัญหาการจำแนกโดยรวม. 2.2 ปัญหาอัตราการติดตามในบรรดาหลายแบบจำลองสเปซเชิงเส้นและการฝังวิธีวัตถุประสงค์ของพวกเขาคือการเพิ่ม"ร่องรอยอัตราส่วน" คือ maximizeW trðf1ðWÞÞ = trðf2ðWÞÞ¼ maximizeW trðW> SiWÞ = trðW> ZiWÞที่ศรีและZi เป็นเมทริกซ์กระจายสำหรับบางคนวิเคราะห์จำแนก , ที่จะกล่าวถึงในส่วนต่อไป แต่เพิ่มประสิทธิภาพนี้จะไม่นูนจึงแก้ได้โดยตรงเป็นเรื่องยาก ประเพณีนี้จะห่างหายจากการผ่อนคลายการแก้ "อัตราส่วนร่องรอย" ปัญหาคือ maximizeW trðf1ðWÞ f = 2ðWÞÞ¼ maximizeW trðf2ðWÞ 1 ฉ1ðWÞÞ¼ maximizeW trððW> ZiWÞ1ðW> SiWÞÞ วิธีการแก้ปัญหาที่เรียบง่ายจึงสามารถพบได้ แต่ผลที่ได้คือไม่มีอีกต่อไปที่ดีที่สุดสำหรับการเพิ่มประสิทธิภาพเดิม. หนึ่งในความพยายามที่เก่าแก่ที่สุดในการแก้ "อัตราส่วนร่องรอย" ปัญหาโดยตรงสามารถตรวจสอบกลับไปGuo et al, [27] ที่พวกเขาเสนอทั่วไปโฟลีย์-Sammon เปลี่ยน (GFST) บนพื้นฐานของเกณฑ์จำแนกฟิชเชอร์ทั่วไป ต่อไปนี้การมาของพวกเขาอัลกอริทึมซ้ำจะเสนอให้มาบรรจบกันไปได้อย่างแม่นยำ"อัตราส่วนร่องรอย" การแก้ปัญหา Shen et al, [28] reformulate nonconvex เดิม"อัตราส่วนร่องรอย" ปัญหาดังกล่าวว่าจะสามารถแก้ไขได้โดยลำดับของปัญหาความเป็นไปได้กึ่งชัดเจนอย่างมีประสิทธิภาพและวิธีการแก้ปัญหาที่ดีที่สุดคือทั่วโลกผ่านการเขียนโปรแกรมกึ่งแน่นอน หนึ่งผลิตภัณฑ์โดยวิธีการของพวกเขาก็คือเมทริกซ์ฉายเป็นธรรมชาติorthonormal เจี่ย et al, [29] ให้ภาพรวมทางทฤษฎีของการแก้ปัญหาที่ดีที่สุดทั่วโลกกับ"อัตราส่วนร่องรอย" ปัญหาผ่านปัญหาความแตกต่างร่องรอยเทียบเท่าที่พวกเขาเป็นครั้งแรกแนะนำทฤษฎีการก่อกวนeigenvalue ให้ได้มาซึ่งอัลกอริทึมที่มีประสิทธิภาพที่จะขึ้นอยู่กับวิธีนิวตันราฟสัน. หลังจากที่กว้างขวาง ค้นหาวรรณกรรมเราพบว่ายังไม่ได้มีการศึกษาจำนวนมากในการกู้คืนที่แน่นอนของที่ไม่นูนออกมาแก้ปัญหาและการทำงานนี้FKDA จะเข้าร่วมพวกเขาเพื่อให้เป็นทางเลือกสำหรับการหาคำตอบที่แท้จริงกับ"อัตราส่วนร่องรอย" ปัญหา
การแปล กรุณารอสักครู่..
