2. Background
This section presents a survey of existing methods for LiDAR data
processing. The state of the art in both LiDAR ground filtering and
DTM interpolation is presented.
2.1. Ground filtering algorithms
Ground filtering algorithms fall into four major classes: (1)
slope based, (2) interpolation based, (3) mathematical morphology
based, and (4) hybrid ground filters. A brief overview of these algorithms,
which from this point on may also be simply referred to as
filters, is given below.
2.1.1. Slope-based filters
Slope based filters work by comparing the slope between two
adjacent points to a pre-determined threshold value. The assumption
they make is that the slope (and hence the height) between
two adjacent ground points is smaller than the slope between a
ground point and a non-ground point. Hence, if the slope between
two points is larger than the threshold value, the point with a higher
altitude value is considered to be a non-ground point. An exam ple of a slope based filter is that proposed by Vosselman (2000).
The algorithm compares the height difference between two points
as a function of their distance apart against the acceptable height
difference. A point is regarded as a ground point only if there is
no other point such that the height difference between the two
points, computed as a function of their distance apart, is larger
than the allowed maximum.
Several studies have compared the performance of ground filtering
algorithms (e.g., Sithole and Vosselman, 2004; Liu, 2008;
Meng et al., 2010). These studies show that slope-based algorithms
work well with LiDAR data from relatively flat terrain but perform
poorly with data from complex and steep terrain. One reason for
the poor performance is the fact that in steep terrain the height
or slope between two ground points can be higher than the predetermined
threshold value, which causes many ground points to
be misclassified as non-ground. Moreover, determining a good
slope threshold may prove to be a very difficult task. To overcome
these difficulties, several adaptive filters have been proposed. For
example, to overcome the problem of determining a threshold, Sithole
(2001) proposed a modified slope-based filter in which the
threshold varied with the slope of the terrain. Using this approach
fewer ground points were misclassified.
2.1.2. Interpolation-based filters
While most slope-based algorithms work with two data points
at a time, interpolation-based filters operate on all points in the
data set at once. These filters are iterative algorithms which work
by fitting a surface on the data and iteratively filtering points based
on their residuals from the fitted surface. In the first iteration, an
averaging surface is fit into the data and the residuals of the data
points relative to the surface are computed. Ground points are
more likely to have negative residuals, so they are given more
weight in subsequent iterations. Kraus and Pfeifer (1998) were
the first to propose this approach. Their algorithm is based on linear
prediction, whereby in the first iteration all points are given
equal weights. A special function is used to compute weights for
each point based on their residuals. In each iteration, points with
large negative residuals are given maximum weights and thus they
attract the computed surface towards themselves. Points with
medium residuals get smaller weights and therefore have little
influence on the computed surface.
Like slope-based filters, interpolation-based filters perform
poorly in steep terrain. A similar method based on thin plate spline
surface interpolation has, however, been found to yield good results
in steep terrain. Mongus and Z˘alik (2012) have recently proposed
a ground filtering algorithm in which a thin plate spline
interpolated surface is used iteratively to approximate the ground
surface. The approach uses residuals of points from the surface in
each iteration with a gradually decreasing window size to filter
ground points.i While test results showed that the algorithm can
cope well with steep terrain, the results also showed that the algorithm
did not perform well with the low point densities commonly
found in forest data sets.
2.1.3. Mathematical-morphology-based filters
Mathematical-morphology-based filters are based on the concept
of mathematical morphology used in digital image analysis.
Unlike slope-based and interpolation-based filters, which work
on the original LiDAR data, filters based on mathematical morphology
transform the LiDAR data into digital images before performing
actual filtering. Filtering is done using morphological operations
such as opening and closing (Chen et al., 2007; Zhang et al., 2003).
These filters are simple and easy to implement and perform relatively
well in filtering surface objects, such as buildings, provided
that the data contain a high density of ground points. However, the
filters perform poorly with low point density in the data and steep terrains (Sithole and Vosselman, 2004; Liu, 2008; Meng et al.,
2010).
2.1.4. Hybrid filters
Some filtering algorithms do not directly fall into any of the
above classes. They either use a different approach to filtering or
make use of a combination of techniques used in other filters.
For example, Kobler et al. (2006) proposed a two-stage algorithm
whereby in the first stage negative outliers are removed using
some existing filtering algorithm (e.g., morphological filter) and
most non-ground points are then removed using a slope-based filter.
This stage produces partially filtered data which enters the second
stage of the algorithm. In the second stage, elevations at
unsampled locations are estimated from repeated independent
estimates of elevation samples taken from sampled points. By
combining different filtering methods, the algorithm performed
better than the individual filters.
2.2. DTM interpolation algorithms
With the exception of morphology-based filters, ground filtering
algorithms produce irregularly distributed ground points.
Interpolation is used with these points to estimate ground elevation
at places where measurements are missing. Interpolation
algorithms can be categorized based on the following criteria
(Ali, 2004): (1) exact or inexact (2) deterministic or stochastic,
and (3) local or global.
Exact interpolation algorithms produce DTM surfaces which pass
through every original data point, while approximative interpolation
methods produce surfaces which do not pass through every
original data point but rather follow the general trend in the data.
Examples of exact interpolation algorithms are inverse distance
weighting (IDW) and spline interpolation. An example of an inexact
interpolation algorithm is trend functions (surfaces). Deterministic
interpolation algorithms assume that every data point has influence
at an unsampled location that is inversely proportional to
its distance from the location. Stochastic algorithms, on the other
hand, make use of geostatistics to estimate a surface with some level
of uncertainty. Local interpolation algorithms use only neighboring
data points to estimate a value at an unsampled location,
while global algorithms use the entire data set to estimate values
at unsampled locations. Examples of commonly used interpolation
algorithms in DTM generation include inverse distance weighting
(IDW) (exact, deterministic, local), Kriging (approximative, global,
stochastic), and cubic splines (exact, local, deterministic) (Ali,
2004; Liu, 2008).
The choice of an interpolation algorithm to be implemented depends
on several factors, including the quality of data and required
level of accuracy. For example, IDW offers high accuracy but only
when data density is high.
2. พื้นหลังส่วนนี้นำเสนอการสำรวจวิธีการที่มีอยู่สำหรับข้อมูล LiDARการประมวลผล ทันสมัยทั้ง LiDAR ดินกรอง และการนำเสนอสอดแทรก DTM2.1. อัลกอริทึมการกรองล่างอัลกอริทึมกรองล่างตกชั้นสี่หลัก: (1)โดยใช้ความชัน สัณฐานวิทยาทางคณิตศาสตร์ (3) (2) สอดแทรกอยู่ไฮบริดตาม และ (4) ดินกรอง ภาพรวมโดยย่อของอัลกอริทึมเหล่านี้ซึ่งจากจุดนี้อาจเป็นเพียงหรือที่เรียกว่าการกรอง รับด้านล่าง2.1.1. ความชันตามตัวกรองความชันตามตัวกรองที่ทำงาน โดยการเปรียบเทียบความชันระหว่างสองจุดติดค่าขีดจำกัดที่กำหนดไว้ล่วงหน้า อัสสัมพวกเขาทำคือความชัน (และดังนั้นความสูง) ระหว่างสองจุดอยู่ติดพื้นดินมีขนาดเล็กกว่าความชันระหว่างการจุดล่างและจุดไม่ใช่พื้นดิน ดังนั้น ถ้าความลาดชันระหว่างสองจุดที่มีขนาดใหญ่กว่าขีดจำกัดค่า จุด มีมากค่าความสูงถือเป็นจุดไม่ใช่พื้นดิน เปิ้ลสอบการกรองตามลาดเป็นที่เสนอ โดย Vosselman (2000)อัลกอริทึมการเปรียบเทียบความแตกต่างสูงระหว่างสองจุดเป็นฟังก์ชันของระยะทางความห่างกันกับความสูงเป็นที่ยอมรับความแตกต่าง จุดถือเป็นการจุดดินเมื่อมีใครชี้เช่นความสูงความแตกต่างระหว่างสองจุด คำนวณเป็นฟังก์ชันของระยะทางที่ห่างกัน มีขนาดใหญ่กว่าสูงสุดที่อนุญาตหลายการศึกษาได้เปรียบเทียบประสิทธิภาพของกรองล่างอัลกอริทึม (เช่น Sithole และ Vosselman, 2004 หลิว 2008เมง et al., 2010) การศึกษานี้แสดงที่ความชันตามอัลกอริทึมแต่ทำงานกับข้อมูลจาก LiDAR จากภูมิประเทศค่อนข้างแบนไม่ดีกับข้อมูลจากสภาพภูมิประเทศที่ซับซ้อน และสูงชัน เหตุผลหนึ่งสำหรับประสิทธิภาพต่ำคือ ความจริงที่ว่า ใน steep ภูมิประเทศความสูงหรือความชันระหว่างจุดล่างสองสามารถสูงกว่าที่กำหนดไว้ค่าขีดจำกัด ซึ่งทำให้ภาคพื้นดินหลายจุดในการได้งานเป็นไม่ใช่พื้นดิน นอกจากนี้ กำหนดดีขีดจำกัดความชันอาจพิสูจน์ให้เป็นงานยากมาก การเอาชนะปัญหาเหล่านี้ กรองหลายแบบอะแดปทีฟได้รับการเสนอชื่อ สำหรับตัวอย่าง การเอาชนะปัญหาของการกำหนดขีดจำกัด Sithole(2001) เสนอแก้ไขความชันตามตัวซึ่งการขีดจำกัดแตกต่างกัน มีความลาดชันของภูมิประเทศ ใช้วิธีการนี้จุดดินน้อยมีงาน2.1.2 การแทรกข้อความโดยใช้ตัวกรองขณะที่สุดลาดตามอัลกอริทึมทำงานจุดข้อมูลที่สองที่ใช้สอดแทรกกรองมีคะแนนทั้งหมดในการข้อมูลชุดในครั้งเดียว อัลกอริทึมซ้ำซึ่งทำงานเป็นตัวกรองเหล่านี้โดยพื้นผิว ในข้อมูล และซ้ำ ๆ กรองตามจุดในการค่าคงเหลือจากพื้นผิวจัด ในการเกิดซ้ำครั้งแรก การหาค่าเฉลี่ยที่พื้นผิวอยู่พอดีเป็นข้อมูลและค่าคงเหลือของข้อมูลมีคำนวณคะแนนที่สัมพันธ์กับพื้นผิว พื้นดินคะแนนแนวโน้มที่จะมีค่าคงเหลือติดลบ พวกเขาจะได้รับเพิ่มเติมน้ำหนักต่อมาซ้ำ Kraus และ Pfeifer (1998)ครั้งแรกเสนอวิธีการนี้ อัลกอริทึมของพวกเขาอยู่บนเส้นตรงทำนาย โดยในการเกิดซ้ำครั้งแรก จุดได้น้ำหนักเท่ากัน ใช้เพื่อคำนวณน้ำหนักสำหรับฟังก์ชันพิเศษแต่ละจุดตามค่าคงเหลือของพวกเขา เนื่อง จุดด้วยค่าคงเหลือติดลบขนาดใหญ่ได้น้ำหนักสูงสุด และทำให้พวกเขาดึงดูดผิวคำนวณต่อตัวเอง สถานที่ค่าคงเหลือขนาดกลางรับน้ำหนักมีขนาดเล็ก และมีน้อยดังนั้นอิทธิพลในพื้นที่การคำนวณเช่นความชันตามตัวกรอง กรองตามแทรกแทรงทำงานในภูมิประเทศที่สูงชัน วิธีการคล้ายคลึงกันตามแผ่นบาง ๆ เหมือนแทรกแทรงผิวได้ อย่างไรก็ตาม การพบเพื่อผลลัพธ์ที่ดีในภูมิประเทศที่สูงชัน Mongus และ Z˘alik (2012) ได้นำเสนอเมื่อเร็ว ๆ นี้พื้นดินที่กรองอัลกอริทึมที่เหมือนแผ่นบางพื้นผิวการสใช้ซ้ำ ๆ ประมาณพื้นพื้นผิว วิธีการใช้ค่าคงเหลือคะแนนจากพื้นผิวในเนื่อง ด้วยขนาดหน้าต่างค่อย ๆ ลดเพื่อกรองพื้นดิน points.i ในขณะที่ผลการทดสอบพบว่า อัลกอริทึมที่สามารถรับมือกับสภาพภูมิประเทศที่สูงชัน ผลยังพบว่าอัลกอริทึมการไม่ได้ทำดีกับความหนาแน่นจุดต่ำทั่วไปพบในป่าค่า2.1.3. คณิตสัณฐานวิทยาใช้ตัวกรองคณิตสัณฐานวิทยาการกรองขึ้นอยู่กับแนวคิดของสัณฐานวิทยาทางคณิตศาสตร์ที่ใช้ในการวิเคราะห์ภาพดิจิตอลซึ่งแตกต่างจากตัวกรอง ตามแทรกแทรง และ ตามลาด ที่ทำงานข้อมูล LiDAR เดิม ตัวกรองตามสัณฐานวิทยาคณิตศาสตร์แปลงข้อมูลจาก LiDAR เป็นภาพดิจิตอลก่อนดำเนินการการกรองเกิดขึ้นจริง กรองเสร็จใช้การดำเนินงานของเช่นการเปิด และปิด (Chen et al., 2007 จางและ al., 2003)ตัวกรองเหล่านี้จะง่าย และง่ายต่อการใช้ และดำเนินการค่อนข้างในการกรองผิววัตถุ เช่นอาคาร บริการดีว่า ข้อมูลที่ประกอบด้วยความหนาแน่นสูงของพื้นดินจุด อย่างไรก็ตาม การตัวกรองทำงานอย่างไม่ มีจุดต่ำความหนาแน่นในข้อมูลและสูงชัน terrains (Sithole และ Vosselman, 2004 หลิว 2008 เมง et al.,2010)2.1.4 การผสมกรองบางอัลกอริทึมที่กรองไม่ตรงตกใด ๆเหนือชั้นด้วย พวกเขาใช้วิธีที่แตกต่างกันกับการกรอง หรือทำให้ใช้การรวมกันของเทคนิคที่ใช้ในตัวกรองอื่น ๆตัวอย่าง Kobler et al. (2006) เสนอมีสองอัลกอริทึมโดยในระยะแรก outliers เป็นค่าลบจะถูกเอาออกโดยใช้บางที่มีอยู่กรองอัลกอริทึม (เช่น สัณฐานกรอง) และคะแนนไม่ใช่ล่างสุดแล้วถูกเอาออกโดยใช้ตัวกรองตามลาดระยะนี้ให้ข้อมูลบางส่วนถูกกรองที่ป้อนที่สองขั้นตอนของอัลกอริทึมการ ในขั้นตอนสอง elevations ที่มีประเมินตำแหน่ง unsampled จากอิสระซ้ำประเมินตัวอย่างยกมาจากจุดตัวอย่าง โดยรวมวิธีการกรองต่าง ๆ ขั้นตอนวิธีการดำเนินการbetter than the individual filters.2.2. DTM interpolation algorithmsWith the exception of morphology-based filters, ground filteringalgorithms produce irregularly distributed ground points.Interpolation is used with these points to estimate ground elevationat places where measurements are missing. Interpolationalgorithms can be categorized based on the following criteria(Ali, 2004): (1) exact or inexact (2) deterministic or stochastic,and (3) local or global.Exact interpolation algorithms produce DTM surfaces which passthrough every original data point, while approximative interpolationmethods produce surfaces which do not pass through everyoriginal data point but rather follow the general trend in the data.Examples of exact interpolation algorithms are inverse distanceweighting (IDW) and spline interpolation. An example of an inexactinterpolation algorithm is trend functions (surfaces). Deterministicinterpolation algorithms assume that every data point has influenceat an unsampled location that is inversely proportional toits distance from the location. Stochastic algorithms, on the otherhand, make use of geostatistics to estimate a surface with some levelof uncertainty. Local interpolation algorithms use only neighboringdata points to estimate a value at an unsampled location,while global algorithms use the entire data set to estimate valuesat unsampled locations. Examples of commonly used interpolationalgorithms in DTM generation include inverse distance weighting(IDW) (exact, deterministic, local), Kriging (approximative, global,stochastic), and cubic splines (exact, local, deterministic) (Ali,2004; Liu, 2008).The choice of an interpolation algorithm to be implemented dependson several factors, including the quality of data and requiredlevel of accuracy. For example, IDW offers high accuracy but onlywhen data density is high.
การแปล กรุณารอสักครู่..
