Photogrammetry is the science of making measurements from photographs, especially for recovering the exact positions of surface points. Moreover, it may be used to recover the motion pathways of designated reference points located on any moving object, on its components and in the immediately adjacent environment. Photogrammetry may employ high-speed imaging and remote sensing in order to detect, measure and record complex 2-D and 3-D motion fields (see also sonar, radar, lidar etc.). Photogrammetry feeds the measurements from remote sensing and the results of imagery analysis into computational models in an attempt to successively estimate, with increasing accuracy, the actual, 3-D relative motions within the researched field.
low altitude aerial photograph for use in Photogrammetry - Location Three Arch Bay, Laguna Beach CA.
Its applications include satellite tracking of the relative positioning alterations in all Earth environments (e.g. tectonic motions etc.), the research on the swimming of fish, of bird or insect flight, other relative motion processes (International Society for Photogrammetry and Remote Sensing). The quantitative results of photogrammetry are then used to guide and match the results of computational models of the natural systems, thus helping to invalidate or confirm new theories, to design novel vehicles or new methods for predicting or/and controlling the consequences of earthquakes, tsunamis, any other weather types, or used to understand the flow of fluids next to solid structures and many other processes.
Photogrammetry is as old as modern photography, can be dated to the mid-nineteenth century, and its detection component has been emerging from radiolocation, multilateration and radiometry while its 3-D positioning estimative component (based on modeling) employs methods related to triangulation, trilateration and multidimensional scaling.
In the simplest example, the distance between two points that lie on a plane parallel to the photographic image plane can be determined by measuring their distance on the image, if the scale (s) of the image is known. This is done by multiplying the measured distance by 1/s.
Algorithms for photogrammetry typically attempt to minimize the sum of the squares of errors over the coordinates and relative displacements of the reference points. This minimization is known as bundle adjustment and is often performed using the Levenberg–Marquardt algorithm.
Contents
1 Photogrammetric methods
2 Integration
3 Applications
3.1 Stereophotogrammetry
4 See also
5 References
6 External links
Photogrammetric methods
Georg Wiora's data model of photogrammetry[1]
Photogrammetry uses methods from many disciplines, including optics and projective geometry. The data model on the right shows what type of information can go into and come out of photogrammetric methods.
The 3-D co-ordinates define the locations of object points in the 3-D space. The image co-ordinates define the locations of the object points' images on the film or an electronic imaging device. The exterior orientation of a camera defines its location in space and its view direction. The inner orientation defines the geometric parameters of the imaging process. This is primarily the focal length of the lens, but can also include the description of lens distortions. Further additional observations play an important role: With scale bars, basically a known distance of two points in space, or known fix points, the connection to the basic measuring units is created.
Each of the four main variables can be an input or an output of a photogrammetric method.
Photogrammetry has been defined by the American Society for Photogrammetry and Remote Sensing (ASPRS) as the art, science, and technology of obtaining reliable information about physical objects and the environment through processes of recording, measuring and interpreting photographic images and patterns of recorded radiant electromagnetic energy and other phenomena.[2]
Integration
Photogrammetric data with a dense range data in which scanners complement each other. Photogrammetry is more accurate in the x and y direction while range data are generally more accurate in the z direction. This range data can be supplied by techniques like LiDAR, laser scanners (using time of flight, triangulation or interferometry), white-light digitizers and any other technique that scans an area and returns x, y, z coordinates for multiple discrete points (commonly called "point clouds"). Photos can clearly define the edges of buildings when the point cloud footprint can not. It is beneficial to incorporate the advantages of both systems and integrate them to create a better product.
A 3-D visualization can be created by georeferencing the aerial photos and LiDAR data in the same reference frame, orthorectifying the aerial photos, and then draping the orthorectified images on top of the LiDAR grid. It is also possible to create digital terrain models and thus 3-D visualisations using pairs (or multiples) of aerial photographs or satellite (e.g. SPOT satellite imagery). Techniques such as adaptive least squares stereo matching are then used to produce a dense array of correspondences which are transformed through a camera model to produce a dense array of x, y, z data which can be used to produce digital terrain model and orthoimage products. Systems which use these techniques, e.g. the ITG system, were developed in the 1980s and 1990s but have since been supplanted by LiDAR and radar-based approaches, although these techniques may still be useful in deriving elevation models from old aerial photographs or satellite images.
Applications
File:Video of a 3d model of Horatio Nelson bust in Monmouth Museum, Wales, produced using photogrammetry.ogvPlay media
Video of a 3-D model of Horatio Nelson bust in Monmouth Museum, produced using photogrammetry
File:Gibraltar 1 3d model, created using photogrammetry.oggPlay media
Gibraltar 1 Neanderthal skull 3-D wireframe model, created with 123d Catch
Photogrammetry is used in different fields, such as topographic mapping, architecture, engineering, manufacturing, quality control, police investigation, and geology, as well as by archaeologists to quickly produce plans of large or complex sites and by meteorologists as a way to determine the actual wind speed of a tornado where objective weather data cannot be obtained.
It is also used to combine live action with computer-generated imagery in movie post-production; The Matrix is a good example of the use of photogrammetry in film (details are given in the DVD extras). Photogrammetry was used extensively to create photorealistic environmental assets for the PC game The Vanishing of Ethan Carter (see External Links).
A somewhat similar application is the scanning of objects and automatically making a 3D model of it. Some programs like 123D Catch and Bundler toolkit[3][4] have been made to allow people to quickly make 3D models using this photogrammetry method. It should be noted though that the produced model often still contains gaps, ... so additional cleanup with software like netfabb or MeshMixer is often still necessary.[5]
Photogrammetry is also commonly employed in collision engineering, especially with automobiles. When litigation for accidents occurs and engineers need to determine the exact deformation present in the vehicle, it is common for several years to have passed and the only evidence that remains is accident scene photographs taken by the police. Photogrammetry is used to determine how much the car in question was deformed, which relates to the amount of energy required to produce that deformation. The energy can then be used to determine important information about the crash (such as the velocity at time of impact).
Stereophotogrammetry
A more sophisticated technique, called stereophotogrammetry, involves estimating the three-dimensional coordinates of points on an object. These are determined by measurements made in two or more photographic images taken from different positions (see stereoscopy). Common points are identified on each image. A line of sight (or ray) can be constructed from the camera location to the point on the object. It is the intersection of these rays (triangulation) that determines the three-dimensional location of the point. More sophisticated algorithms can exploit other information about the scene that is known a priori, for example symmetries, in some cases allowing reconstructions of 3-D coordinates from only one camera position. Stereophotogrammetry is emerging as a robust non-contacting measurement technique to determine dynamic characteristics and mode shapes of non-rotating [6] and rotating structures.[7][8]
See also
ศฎเป็นวิทยาศาสตร์ของการทำการวัดจากภาพถ่าย โดยเฉพาะอย่างยิ่งสำหรับการกู้คืนตำแหน่งที่แน่นอนของจุดบนพื้นผิว นอกจากนี้ยังอาจถูกใช้เพื่อกู้คืนการเคลื่อนไหวทางเขตข้อมูลอ้างอิงใด ๆตั้งอยู่บนวัตถุที่เคลื่อนที่บนคอม และในสภาพแวดล้อมที่อยู่ติดกันทันที ศฎอาจจ้างถ่ายภาพความเร็วสูงและการรับรู้จากระยะไกลในการตรวจสอบวัดและบันทึกที่ซับซ้อนและเคลื่อนไหว 3 มิติ 2 มิติเขต ( ดูโซนาร์เรดาร์ , lidar ฯลฯ ) ศฎข้อมูลการวัดจากระยะไกลและการวิเคราะห์ภาพในแบบจำลองคอมพิวเตอร์ในความพยายามอย่างต่อเนื่องการประเมินมีความถูกต้องเพิ่มขึ้นจริง 3 มิติสัมพัทธ์ภาพเคลื่อนไหวภายในวิจัยภาคสนาม
ระดับความสูงต่ำภาพถ่ายทางอากาศเพื่อใช้ในศฎ - ที่ตั้งอ่าวทรีอาร์ช , ลากูน่าบีชแคลิฟอร์เนีย
โปรแกรมรวมถึงเครื่องติดตามผ่านดาวเทียมของญาติตำแหน่งการเปลี่ยนแปลงในสภาพแวดล้อมโลกทั้งหมด ( เช่น เปลือกโลกเคลื่อนไหว ฯลฯ ) , งานวิจัยเกี่ยวกับการว่ายของปลา นก หรือ แมลงบิน ,กระบวนการเคลื่อนไหวที่เกี่ยวข้องอื่น ๆ ( นานาชาติสังคมสำหรับศฎและการรับรู้จากระยะไกล ) ปริมาณของศฎแล้วใช้คู่มือและตรงกับผลลัพธ์ของการคำนวณแบบจำลองของระบบธรรมชาติจึงช่วยทำให้เป็นโมฆะหรือยืนยันทฤษฎีใหม่ในการออกแบบยานพาหนะใหม่หรือวิธีการใหม่เพื่อทำนายหรือ / และควบคุมผลกระทบของแผ่นดินไหวคลื่นสึนามิ , ประเภทใด ๆสภาพอากาศอื่น ๆหรือใช้เพื่อเข้าใจการไหลของของเหลวต่อของแข็งโครงสร้างและกระบวนการอื่น ๆอีกมากมาย
ศฎเป็นเก่าเป็นการถ่ายภาพที่ทันสมัย สามารถลงวันที่ในศตวรรษที่สิบเก้ากลาง และการตรวจสอบขององค์ประกอบที่ได้รับจาก radiolocation ใหม่ ,และ multilateration การทอดกฐินในขณะที่ 3 ตำแหน่ง estimative ประกอบ ( ตามแบบ ) ใช้วิธีการที่เกี่ยวข้องกับรูปสามเหลี่ยมและไตรเลเทอเรชั่น , multidimensional scaling
ในตัวอย่างที่ง่ายที่สุด ระยะทางระหว่างจุดสองจุดที่อยู่บนระนาบขนานกับภาพถ่ายเครื่องบินสามารถกำหนดโดยการวัดระยะห่างของรูปภาพถ้าระดับ ( s ) ของภาพที่เป็นที่รู้จัก นี้จะกระทำโดยคูณวัดระยะทาง 1 / S .
ขั้นตอนวิธีสำหรับศฎมักจะพยายามที่จะลดผลรวมของกำลังสองของข้อผิดพลาดเกินพิกัดและกระจัดสัมพัทธ์ของจุดอ้างอิง . การปรับนี้เป็นที่รู้จักกันเป็นกลุ่ม และมักจะมีการใช้ levenberg –มาร์คว
เนื้อหาขั้นตอนวิธี1 photogrammetric วิธีการ
2
3
3.1 การบูรณาการ stereophotogrammetry
4
5
6 ยังเห็นการอ้างอิงการเชื่อมโยงภายนอก
photogrammetric วิธีการ
จอร์จ wiora เป็นรูปแบบข้อมูลศฎ [ 1 ]
สบายกำหนดใช้วิธีการจากหลายสาขาวิชา รวมทั้งแสงและ projective เรขาคณิตแบบจำลองข้อมูลบนด้านขวาแสดงชนิดของข้อมูลที่สามารถเข้าและออกมาจากวิธี photogrammetric .
ordinates Co - กำหนดตำแหน่งของจุดวัตถุในสามมิติอวกาศ ภาพพิกัดกำหนดจุดที่ตั้งของวัตถุ ' ภาพบนฟิล์มหรืออุปกรณ์การถ่ายภาพอิเล็กทรอนิกส์ ปฐมนิเทศภายนอกของกล้องกำหนดตำแหน่งของมันในพื้นที่และทิศทางดูปฐมนิเทศภายในกำหนดพารามิเตอร์ทางเรขาคณิตของกระบวนการถ่ายภาพ นี้เป็นหลัก ความยาวโฟกัสของเลนส์ แต่ยังสามารถรวมถึงรายละเอียดของการบิดเบือนเลนส์ เพิ่มเติมเพื่อเพิ่มบทบาทสำคัญ : กับบาร์ขนาดโดยทั่วไปทราบระยะห่างของจุดสองจุดในพื้นที่ หรือ รู้จักจุดแก้ไขการเชื่อมต่อกับพื้นฐานการวัดหน่วยสร้างขึ้น
แต่ละสี่หลักตัวแปรสามารถ input หรือ output ของวิธีการ photogrammetric
ศฎถูกกำหนดโดยสังคมอเมริกันสำหรับศฎและการรับรู้จากระยะไกล ( asprs ) เป็นศิลปะ วิทยาศาสตร์ เทคโนโลยี และได้รับข้อมูลที่เชื่อถือได้เกี่ยวกับวัตถุทางกายภาพและสิ่งแวดล้อมผ่านกระบวนการของการบันทึกการวัดและการตีความภาพถ่ายและรูปแบบของบันทึกการแผ่รังสีพลังงานแม่เหล็กไฟฟ้าและปรากฏการณ์อื่น ๆ [ 2 ]
photogrammetric บูรณาการข้อมูลหนาแน่นด้วยช่วงข้อมูลที่สแกน กว่ากัน ศฎถูกต้องมากขึ้นในทิศทาง x และ y ในขณะที่ช่วงข้อมูลทั่วไปจะถูกต้องมากขึ้นใน Z ทิศทางช่วง นี้ข้อมูลสามารถจัดหาโดยเทคนิคเช่น LIDAR สแกนเนอร์เลเซอร์ ( ใช้เวลาในการบิน สามเหลี่ยม หรืออินเตอร์เฟอโรเมทรี ) , digitizers แสงสีขาว และเทคนิคอื่น ๆที่สแกนพื้นที่และส่งกลับค่า X , Y , Z พิกัดจุดไม่ต่อเนื่องหลาย ๆ ( มักเรียกว่า " เมฆ " จุด ) ภาพถ่ายชัดเจนสามารถกำหนดขอบของอาคารเมื่อเมฆจุดรอยไม่ได้เป็นประโยชน์ในการรวมข้อดีของทั้งสองระบบ และบูรณาการ เพื่อสร้างผลิตภัณฑ์ที่ดีกว่า
3 มิติภาพที่สามารถสร้างขึ้นโดย georeferencing ทางอากาศ ภาพถ่ายและข้อมูล LIDAR ในกรอบอ้างอิงเดียวกัน orthorectifying ภาพถ่ายทางอากาศ และการแต่งตัว orthorectified ภาพด้านบนของ lidar กริดนอกจากนี้ยังเป็นไปได้ที่จะสร้างแบบจำลองภูมิประเทศดิจิตอล 3 มิติ และ visualisations จึงใช้คู่ ( หรือหลาย ) จากภาพถ่ายทางอากาศ หรือ ดาวเทียม ( เช่นจุดดาวเทียม ) เทคนิคเช่นการปรับตัวอย่างน้อยสเตอริโอคู่จะใช้ผลิตอาร์เรย์ที่หนาแน่นของจดหมาย ซึ่งเปลี่ยนผ่านกล้องรุ่นที่จะผลิตอาร์เรย์ที่หนาแน่นของ X , Y ,Z ข้อมูลซึ่งสามารถใช้ในการผลิตผลิตภัณฑ์แบบจำลองภูมิประเทศดิจิตอลและ orthoimage . ระบบซึ่งใช้เทคนิคเหล่านี้ เช่น ยังระบบมีการพัฒนาในช่วงปี 1980 และปี 1990 แต่ได้รับตั้งแต่แทนที่ด้วย LIDAR และเรดาร์ตามแนวทาง แต่เทคนิคเหล่านี้ยังอาจเป็นประโยชน์ในการใช้แบบจำลองระดับความสูงจากภาพถ่ายทางอากาศหรือภาพถ่ายดาวเทียมเก่า
ไฟล์โปรแกรม .วิดีโอของรูปแบบ 3 มิติของโฮราชิโอเนลสันหน้าอกใน Monmouth พิพิธภัณฑ์ , เวลส์ , ที่ผลิตโดยใช้สื่อวีดิทัศน์
photogrammetry.ogvplay ของโมเดล 3 มิติของโฮราชิโอ เนลสันหน้าอกในพิพิธภัณฑ์มอน ผลิตโดยใช้ไฟล์ศฎ
: กิบ 1 แบบจำลอง 3 มิติที่สร้างขึ้นโดยใช้ photogrammetry.oggplay สื่อ
กิบ 1 กะโหลกมนุษย์ยุคหิน 3 มิติที่สร้างขึ้นด้วยกรอบแบบ 123d จับ
ศฎใช้ในสาขาที่แตกต่างกันเช่นการทำแผนที่ภูมิประเทศ , สถาปัตยกรรม , วิศวกรรม , การผลิต , การควบคุม , ธรณีวิทยาการสืบสวนของตำรวจ และคุณภาพ รวมทั้งแผนการผลิตได้อย่างรวดเร็วโดยนักโบราณคดีเว็บไซต์ขนาดใหญ่หรือซับซ้อนและนักอุตุนิยมวิทยาเป็นวิธีการตรวจสอบความเร็วลมที่แท้จริงของข้อมูลสภาพอากาศพายุทอร์นาโดที่วัตถุประสงค์ไม่ได้
)นอกจากนี้ยังใช้ในการรวมการแสดงกับสร้างจินตภาพในการผลิตภาพยนตร์โพสต์ ; เมทริกซ์ คือตัวอย่างที่ดีของการใช้ศฎในภาพยนตร์ ( รายละเอียดมีในดีวีดีพิเศษ ) ศฎถูกใช้อย่างกว้างขวางเพื่อสร้างทรัพย์สินสิ่งแวดล้อมศิลปะสำหรับพีซีเกมที่หายไปของอีธาน คาร์เตอร์ ( ดูลิงก์ภายนอก ) .
โปรแกรมคล้ายๆ กันคือ การสแกนของวัตถุโดยอัตโนมัติและสร้างแบบจำลอง 3 มิติของมัน บางโปรแกรม เช่น จับและ 123d bundler Toolkit [ 3 ] [ 4 ] ได้ทำเพื่อช่วยให้คนได้อย่างรวดเร็วสร้างโมเดล 3 มิติโดยใช้วิธีนี้ ศฎ . มันควรจะสังเกตว่าผลิตรุ่นมักจะยังคงมีช่องว่าง . . . . . . .ดังนั้นเพิ่มเติมล้างกับซอฟต์แวร์เช่น netfabb หรือ meshmixer มักจะยังคงจำเป็น [ 5 ]
ศฎโดยทั่วไปยังใช้ในการชน วิศวกรรม โดยเฉพาะอย่างยิ่งกับรถยนต์ เมื่อคดีอุบัติเหตุเกิดขึ้นและวิศวกรต้องกำหนดที่แน่นอนของอยู่ในรถมันเป็นเรื่องปกติสำหรับหลายปี ผ่านไป และ หลักฐานเดียวที่ยังคงอยู่คือฉากอุบัติเหตุรูปถ่ายที่ถ่ายโดยตำรวจ ศฎถูกใช้เพื่อกำหนดเท่าใด รถ ใน คำถาม คือ พิการที่เกี่ยวข้องกับปริมาณของพลังงานที่จำเป็นในการผลิตที่แมพพลังงานที่สามารถใช้เพื่อหาข้อมูลสำคัญเกี่ยวกับความผิดพลาด ( เช่นความเร็วที่เวลากระแทก )
stereophotogrammetry ซับซ้อนมากขึ้นเทคนิคที่เรียกว่า stereophotogrammetry , เกี่ยวข้องกับการประมาณสามมิติพิกัดของจุดบนวัตถุเหล่านี้จะถูกกำหนดโดยการวัดจากสองคนหรือมากกว่าภาพการถ่ายภาพ ถ่ายจากตำแหน่งที่แตกต่างกัน ( ดูการฆ่าคน ) จุดที่พบมีการระบุในแต่ละภาพ สายของสายตา ( หรือเรย์ ) สามารถถูกสร้างขึ้นจากตำแหน่งกล้องไปยังจุดบนวัตถุ มันเป็นจุดตัดของรังสีเหล่านี้ ( Triangulation ) กำหนดสถานที่สามมิติของจุดอัลกอริทึมที่ซับซ้อนมากขึ้น สามารถใช้ประโยชน์จากข้อมูลอื่น ๆที่เกี่ยวกับฉากที่เป็นที่รู้จักระหว่าง ตัวอย่างเช่น สมมาตร ในบางกรณีที่อนุญาตให้ การสร้างใหม่ของพิกัดสามมิติจากกล้องเพียงหนึ่งตำแหน่ง stereophotogrammetry นวยเป็นคงทนไม่ติดต่อเทคนิคการวัดเพื่อตรวจสอบคุณลักษณะแบบไดนามิกและรูปร่างโหมดที่ไม่หมุน [ 6 ] และหมุนโครงสร้าง[ 7 ] [ 8 ]
เจอยัง
การแปล กรุณารอสักครู่..
