Optical flow is an approximation of the local image motion based upon local derivatives in a given sequence of
images. That is, in 2D it specifies how much each image pixel moves between adjacent images while in 3D in specifies
how much each volume voxel moves between adjacent volumes. The 2D image sequences used here are formed
under perspective projection via the relative motion of a camera and scene objects. The 3D volume sequences
used here were formed under orthographic projection for a stationary sensor and a moving/deforming object. In
both cases, the moving patterns cause temporal varieties of the image brightness. It is assumed that all temporal
intensity changes are due to motion only. This is usually true but there are many exceptions (see below). 2D/3D
derivatives are usually computed by repeated application of lowpass and highpass filters, for example the filters
proposed by Simoncelli [2]. Thus the computation of differential optical flow is, essentially, a two-step procedure:
1. measure the spatio-temporal intensity derivatives (which is equivalent to measuring the velocities normal to
the local intensity structures) and
2. integrate normal velocities into full velocities, for example, either locally via a least squares calculation [4, 28]
or globally via a regularization [3, 28].
Such algorithms are generally designed to work on a specific form of image 1. There can be no occlusion (one
object moving in front of/or behind another object), again unless this is modelled for. Similarly we assume there
are no specularities in the scene (otherwise the light source(s) and sensor(s) positions would have to be explicitly
modelled).
Finally, all objects in the scene are rigid, no shape changes allowed. This assumption is often relaxed to local
rigidity. This assumption assures that optical flow actually captures real motions in a scene rather than expansions,
contractions, deformations and/or shears of various scene objects.
In general, the use of optical flow in a generic machine vision system will probably require a sophisticated analysis
of image content and motion in order to determine that all of the algorithmic assumptions are likely to be met.
Quantitative use of the data will also require quantitative predictions of accuracy. The algorithms described here
have been made available as a project within the Tina system, see [1].
กระแสแสงเป็นการประมาณการเคลื่อนไหวภายในภาพตามตราสารอนุพันธ์ภายในลำดับที่กำหนดภาพ คือ ในสองมิติ จะระบุจำนวนแต่ละพิกเซลของภาพย้ายระหว่างภาพติดใน 3D ในการระบุว็อกเซลไดรฟ์ข้อมูลแต่ละจำนวนย้ายระหว่างไดรฟ์ข้อมูลที่อยู่ติดกัน มีจัดลำดับภาพ 2D ที่ใช้ที่นี่ภายใต้มุมมองการฉายผ่านการเคลื่อนไหวที่สัมพันธ์กันของวัตถุที่กล้องและฉาก ลำดับเสียง 3Dใช้ที่นี่ได้ก่อตั้งขึ้นภายใต้การฉาย orthographic เซนเซอร์เครื่องเขียนและวัตถุที่ย้าย/เปลี่ยนรูป ในทั้งสองกรณี รูปเคลื่อนไหวทำให้สายพันธุ์ชั่วคราวของความสว่างของภาพ จะถือว่าเป็นที่ขมับทั้งหมดมีการเปลี่ยนแปลงความเข้มเนื่องจากการเคลื่อนไหวเท่านั้น ก็ปกติ แต่มีข้อยกเว้นมากมาย (ดูด้านล่าง) 2D/3Dตราสารอนุพันธ์มีมักจะคำนวณ โดยใช้ highpass และสัญญาณตัวกรอง ตัวกรองซ้ำนำเสนอ โดย Simoncelli [2] การคำนวณกระแสแตกต่างแสงจึง หลัก ขั้นตอนสองขั้นตอน:1. วัดอนุพันธ์ความเข้ม spatio ขมับ (ซึ่งจะเท่ากับวัดตะกอนปกติโครงสร้างความรุนแรงในท้องถิ่น) และ2. ปกติตะกอนรวมเป็นตะกอนเต็ม เช่น หรือในท้องถิ่นผ่านการคำนวณอย่างน้อยสี่เหลี่ยม [4, 28]หรือทั่วโลกผ่าน ทาง regularization [3, 28]อัลกอริทึมดังกล่าวถูกออกแบบมาเพื่อทำงานในแบบเฉพาะของภาพที่ 1 โดยทั่วไป จะไม่ไม่ควรมองข้าม(object moving in front of/or behind another object), again unless this is modelled for. Similarly we assume thereare no specularities in the scene (otherwise the light source(s) and sensor(s) positions would have to be explicitlymodelled).Finally, all objects in the scene are rigid, no shape changes allowed. This assumption is often relaxed to localrigidity. This assumption assures that optical flow actually captures real motions in a scene rather than expansions,contractions, deformations and/or shears of various scene objects.In general, the use of optical flow in a generic machine vision system will probably require a sophisticated analysisof image content and motion in order to determine that all of the algorithmic assumptions are likely to be met.Quantitative use of the data will also require quantitative predictions of accuracy. The algorithms described herehave been made available as a project within the Tina system, see [1].
การแปล กรุณารอสักครู่..
