While in terms of supervised classification, there exists the contradiction between the limited training samples and the demanding for more than enough training samples to get satisfied accuracy given the high dimension of hyperspectral data, which is called the ‘‘Hughes” phenomenon (Landgrebe, 1999). The feasible choices should be: 1) using non-parametric classification models or classifiers i.e. kernel methods and SVM (Melgani & Bruzzone, 2004), sparse multinomial regression (Li, Bioucas-Dias, & Plaza, 2012) and so forth; 2) reducing the dimensionality of hyperspectral data into a subspace where various classes may have optimal separability. In this regard, linear transformations are well-used feature extraction methods to project hyperspectral features onto a lower dimensional space, such as principle component analysis (PCA), linear discrimination analysis (LDA) (Chang, 2003; Kang, Li, Fang, & Benediktsson, 2015), nonparametric weighted feature extraction (NWFE) (Kuo & Landgrebe, 2004) and so on.
ในขณะที่ในแง่ของการจัดประเภทดูแล มีความขัดแย้งระหว่างตัวอย่างจำกัดการฝึกอบรมและความต้องการสำหรับมากกว่าพอตัวอย่างการฝึกอบรมจะได้รับความพอใจกำหนดมิติความสูงของข้อมูล hyperspectral ซึ่งเรียกว่าปรากฏการณ์ ''ฮิวจ์ส" (Landgrebe, 1999) ตัวเลือกที่เป็นไปได้ควรจะ: 1) โดยใช้โมเดลการจำแนกที่ไม่ใช่พาราเมตริก หรือคำหลักภาษาเช่นเคอร์เนลวิธี และ SVM (Melgani & Bruzzone, 2004), ถดถอยก็ตามห่าง (Li, Bioucas ของ Dias และ พลาซ่า 2012) และอื่น ๆ 2) การลดมิติข้อมูล hyperspectral ใน subspace ที่ที่ชั้นเรียนต่าง ๆ อาจมี separability ที่ดีที่สุด ในเรื่องนี้ การแปลงเชิงเส้นมีคุณสมบัติดีที่ใช้วิธีการสกัดคุณลักษณะ hyperspectral โครงการบนพื้นที่มิติต่ำ เช่นการวิเคราะห์ส่วนประกอบหลัก (PCA), การวิเคราะห์เชิงเส้นแบ่งแยก (LDA) (ช้าง 2003 อง Li ฝาง & Benediktsson, 2015), nonparametric ถ่วงน้ำหนักสกัดคุณลักษณะ (NWFE) (Kuo & Landgrebe, 2004) และ
การแปล กรุณารอสักครู่..

ในขณะที่ในแง่ของการจัดหมวดหมู่ภายใต้การดูแลมีอยู่ความขัดแย้งระหว่างกลุ่มตัวอย่างที่ใช้ในการฝึกอบรมที่ จำกัด และเรียกร้องมานานกว่าตัวอย่างการฝึกอบรมมากพอที่จะได้รับความถูกต้องความพึงพอใจที่ได้รับมิติสูงของข้อมูล Hyperspectral ซึ่งเรียกว่า '' ฮิวจ์ส "ปรากฏการณ์ (Landgrebe 1999 ) ทางเลือกที่เป็นไปได้ควรจะ: 1) โดยใช้แบบจำลองการจัดหมวดหมู่ที่ไม่ใช่พาราหรือลักษณนามเช่นวิธีการเคอร์เนลและ SVM (Melgani & Bruzzone, 2004) เบาบางถดถอยพหุนาม (Li, Bioucas-เดียสแอนด์พลาซ่า, 2012) และอื่น ๆ ; 2) การลดมิติของข้อมูล Hyperspectral เข้าไปในสเปซชั้นเรียนต่างๆที่อาจจะมีการแยกตัวที่ดีที่สุด ในเรื่องนี้การแปลงเชิงเส้นเป็นอย่างดีใช้วิธีการสกัดคุณลักษณะโครงการคุณลักษณะ Hyperspectral สู่มิติที่ต่ำกว่าเช่นการวิเคราะห์องค์ประกอบหลักการ (PCA), การวิเคราะห์การเลือกปฏิบัติเชิงเส้น (LDA) (ช้าง 2003 คังหลี่ฝางและ Benediktsson, 2015), อิงพารามิเตอร์ดึงถ่วงน้ำหนัก (NWFE) (Kuo และ Landgrebe, 2004) และอื่น ๆ
การแปล กรุณารอสักครู่..

ขณะที่ในแง่ของการนิเทศ มีความขัดแย้งระหว่างตัวอย่างที่ จำกัด การฝึกอบรมและความต้องการมากกว่าตัวอย่างการฝึกเพียงพอที่จะได้รับความพึงพอใจความถูกต้องให้ขนาดสูงของข้อมูล hyperspectral ซึ่งเรียกว่า " "hughes ปรากฏการณ์ " ( แลนจริบ , 1999 ) ตัวเลือกที่เป็นไปได้ควร 1 ) ใช้แบบไม่ใช้พารามิเตอร์ประเภทคำลักษณนามเช่นเคอร์เนลหรือวิธีการและ SVM ( melgani & bruzzone , 2004 ) , เบาบางวิธี ถดถอย ( Li bioucas Dias แอนด์พลาซ่า , 2012 ) และอื่น ๆ ; 2 ) การลด dimensionality ข้อมูล hyperspectral เป็นย่อยที่ชั้นต่าง ๆ อาจจะแยกได้เหมาะสม . ในการนี้ การแปลงเชิงเส้นจะใช้วิธีการสกัดด้วยคุณลักษณะโครงการคุณสมบัติ hyperspectral บนล่างของอวกาศ เช่นการวิเคราะห์องค์ประกอบหลัก ( PCA ) , การวิเคราะห์จำแนกเชิงเส้น ( lda ) ( ช้าง , 2003 ; คัง หลี่ฟาง และ benediktsson 2015 ) น้ำหนัก 3 คุณลักษณะการสกัด ( nwfe ) & ( กั๋ว แลนจริบ , 2004 )
การแปล กรุณารอสักครู่..
