Raskar et al. [25, 26, 27] first demonstrated a working implementation of SAR by registering a virtual 3D model with the underlying 3D physical object in order to overlay virtual content. This was followed by Underkoffler et al.’s concept of an I/O Bulb [35], a projector-camera pair capable of both sensing and providing computational illumination (i.e., augmentation). This I/O Bulb vision has been further developed with room [18, 28, 37], tabletop [3, 36], mobile [12, 24] and steerable form factors [23, 38].
With the emergence of widely available Microsoft Kinect depth cameras, research into larger scale SAR interactions has accelerated [3, 19, 36, 37, 38]. Our work draws inspiration from our earlier project, called LightSpace [37], which first demonstrated a system which combines three projector and depth camera pairs to augment the surfaces in the environment. The augmentations and interactions in LightSpace were constrained to the available surfaces and no perspective views were available.
Availability of real-time depth capture enables a new generation of SAR systems which can compensate for moving projection surfaces as well as provide correct perspective views [3, 34, 38]. For example, MirageTable [3] offers a perspective stereoscopic view to a single user working on a projected SAR tabletop by compensating the projection for the user’s hands and any other physical objects on the table. Our work extends the state of the art by both addressing the entire room and by providing multiple simultaneous perspective views to two users.
Raskar et al. [25, 26, 27] แสดงให้เห็นการดำเนินการทำงานของ SAR โดยลงทะเบียนแบบ 3 มิติเสมือนจริงกับวัตถุทางกายภาพ 3D ต้นแบบเพื่อซ้อนเนื้อหาเสมือนก่อน แล้วแนวคิดของ Underkoffler et al.หลอดมี I/O [35], คู่โปรเจคเตอร์กล้องสามารถตรวจจับ และให้คำนวณความสว่าง (เช่น เสริมหน้าอก) วิสัยทัศน์นี้ I/O หลอดได้ถูกพัฒนาเพิ่มเติมห้อง [18, 28, 37], โต๊ะ [3, 36], [12, 24] มือถือ และปัจจัยฟอร์มเพลาบังคับเลี้ยว [23, 38]มีการเกิดขึ้นของกล้องความลึก Microsoft Kinect ได้อย่างกว้างขวาง การวิจัยในขนาดใหญ่ระดับ SAR โต้มีเร่ง [3, 19, 36, 37, 38] งานของเราแรงบันดาลใจจากโครงการก่อนหน้านี้ เรียกว่า LightSpace [37], ซึ่งระบบที่ผสมผสานสามโปรเจคและคู่กล้องความลึกเพื่อเพิ่มพื้นผิวในสภาพแวดล้อม ที่แสดงให้เห็นก่อน Augmentations และโต้ตอบใน LightSpace ถูกจำกัดกับพื้นผิวว่าง และไม่มีมุมมองมุมมองได้ความพร้อมของการจับภาพความลึกแบบเรียลไทม์ช่วยให้ระบบ SAR ซึ่งสามารถชดเชยการเลื่อนฉาย เป็นผู้ให้มุมมองมุมมองที่ถูกต้อง [3, 34, 38] รุ่นใหม่ เช่น MirageTable [3] เสนอมุมมองให้มุมมองให้ผู้ทำงานบนโต๊ะ SAR คาดการณ์ไว้ชดเชยการฉายภาพมือของผู้ใช้และวัตถุทางกายภาพใด ๆ ในตาราง งานของเราขยายการทัน โดยทั้งสองจัดการกับห้องทั้งห้อง และมุมมองหลายมุมมองพร้อมกันให้ผู้ใช้สองคน
การแปล กรุณารอสักครู่..
Raskar et al, [25, 26, 27] ครั้งแรกที่แสดงให้เห็นถึงการดำเนินงานในการทำงานของ SAR โดยการลงทะเบียนรูปแบบ 3 มิติเสมือนจริงกับวัตถุพื้นฐานทางกายภาพ 3D เพื่อแสดงข้อมูลเนื้อหาเสมือน นี้ตามมาด้วย Underkoffler et al. ของแนวคิดของ I / O หลอดไฟ [35] คู่โปรเจคเตอร์กล้องที่มีความสามารถทั้งการตรวจจับและการให้ความสว่างในการคำนวณ (เช่นการเสริม) วิสัยทัศน์ของ I / O หลอดไฟนี้ได้รับการพัฒนาต่อไปด้วยห้องพัก [18, 28, 37], โต๊ะ [3 36], มือถือ [12, 24] ปัจจัยและจรวดนำรูปแบบ [23 38].
กับการเกิดของใช้ได้อย่างกว้างขวางของ Microsoft Kinect กล้องลึกการวิจัยในระดับขนาดใหญ่ปฏิสัมพันธ์ SAR ได้เร่ง [3, 19, 36, 37, 38] การทำงานของเราได้แรงบันดาลใจจากโครงการก่อนหน้านี้เราเรียกว่า LightSpace [37] ซึ่งแสดงให้เห็นถึงระบบแรกที่รวมสามโปรเจคเตอร์และกล้องความลึกคู่เพื่อเพิ่มพื้นผิวในสภาพแวดล้อมที่ augmentations และการมีปฏิสัมพันธ์ใน LightSpace ถูกบีบบังคับให้พื้นผิวที่มีอยู่และไม่มีมุมมองมุมมองที่มีอยู่.
พร้อมของเวลาจริงจับลึกช่วยให้คนรุ่นใหม่ของระบบ SAR ซึ่งสามารถชดเชยสำหรับการย้ายพื้นผิวการฉายเช่นเดียวกับการให้มุมมองมุมมองที่ถูกต้อง [3, 34, 38] ยกตัวอย่างเช่น MirageTable [3] มีมุมมองมุมมองสามมิติไปยังผู้ใช้คนเดียวที่ทำงานอยู่ใน SAR โต๊ะคาดการณ์โดยการฉายชดเชยสำหรับมือของผู้ใช้และวัตถุทางกายภาพอื่น ๆ บนโต๊ะ การทำงานของเราขยายรัฐของศิลปะโดยทั้งที่อยู่ในห้องทั้งห้องและให้มุมมองที่มุมมองพร้อมกันหลายผู้ใช้สองคน
การแปล กรุณารอสักครู่..
raskar et al . [ 25 , 26 , 27 ] แรกแสดงให้เห็นการทำงานของตนเองโดยการลงทะเบียนเป็นเสมือนแบบจำลอง 3 มิติกับ 3 มิติทางกายภาพของวัตถุต้นแบบในการวางซ้อนเสมือนเนื้อหา นี้ตามด้วย underkoffler et al . แนวคิดของ I / O หลอดไฟ [ 35 ] , โปรเจคเตอร์ กล้อง ทั้งคู่สามารถตรวจจับและการให้แสงสว่างคอมพิวเตอร์ ( เช่น เสริม ) นี้ I / O วิสัยทัศน์หลอดไฟได้พัฒนาต่อไปกับห้อง [ 18 , 28 , 37 ] , [ 3 ] โต๊ะ 36 , มือถือ [ 12 , 24 ] และปัจจัยรูปแบบ steerable 23 [ 38 ]กับการเกิดขึ้นของอย่างกว้างขวาง Microsoft Kinect ความลึกกล้อง , การวิจัยในขนาดใหญ่และการโต้ตอบได้เร่ง [ 3 , 19 , 36 , 37 , 38 ) งานของเราได้รับแรงบันดาลใจจากโครงการก่อนหน้านี้ เรียกว่า lightspace [ 37 ] ซึ่งแสดงให้เห็นว่าระบบแรกที่รวมสามโปรเจคเตอร์และความลึกกล้องคู่เพื่อเพิ่มพื้นผิวในสภาพแวดล้อม การปฏิสัมพันธ์ใน lightspace augmentations ถูกบังคับให้พื้นผิวที่ใช้งานและไม่มีมุมมองมุมมองมีความพร้อมของจับภาพความลึกแบบเรียลไทม์ช่วยให้คนรุ่นใหม่ของ SAR ซึ่งสามารถชดเชยการย้ายจากพื้นผิว รวมทั้งให้มุมมองมุมมองที่ถูกต้อง [ 3 , 34 , 38 ] ตัวอย่างเช่น miragetable [ 3 ] ให้มุมมองสามมิติมุมมองที่จะเป็นผู้ใช้คนเดียวทำงานบนโต๊ะ คาดว่า SAR โดยชดเชยการประมาณการสำหรับมือของผู้ใช้และวัตถุทางกายภาพอื่น ๆบนโต๊ะ งานของเราขยายสถานะของศิลปะโดยทั้งสองที่อยู่ในห้องทั้งหมด และโดยการให้มุมมองหลายๆมุมมองพร้อมกันถึงสองราย
การแปล กรุณารอสักครู่..