2. Related work
Bowman et al. [10] have designated three basic virtual object manipulation tasks for Virtual Reality (VR) and AR: selection, positioning and rotation. Authors define positioning as changing the 3D position of a virtual object. In this paper, we focus only on the HAR positioning task. In this section, we introduce AR positioning methods specific for handheld devices, and methods that utilize ray-casting applied in hardware other than handheld devices.
2.1. Handheld devices
Different manipulation methods for HAR have been widely studied. In related research, a single method is commonly implemented and evaluated for more than one manipulation task. For example, a method that combines positioning and rotation is often proposed. We present methods that have been designed solely for positioning or for more than one manipulation task including positioning. Here, the previous methods have been roughly divided into three groups: (1) buttons and touch-screen gestures, (2) mid-air gestures, and (3) device movement.
2.1.1. Buttons and touchscreen gestures
Button-based positioning uses either the physical or the touchscreen buttons of a handheld device to position virtual objects. Henrysson et al. [11] have utilized smartphone's physical buttons for positioning where different buttons are mapped for different Degrees Of Freedom (DOF). Castle et al. [12] have applied touchscreen buttons in tablet computer HAR system to position objects in three DOF. In the work of Bai et al. [26], the positioning in two DOF is conducted in a freezed AR view using a combination of buttons and gestures.
Touch gestures have become a standard for 2D manipulation on touchscreen handheld devices [13] and they have been used extensively in HAR 3D manipulation as well. Jung et al. [14] have developed a system where virtual objects can be positioned in 3D by controlling one DOF at a time with a single or multitouch drag gestures. The controlled DOF is based on the pose of the device relative to a ground plane. Marzo et al. [15] have used the DS3 technique [16] for 3D multitouch gesture positioning on a smartphone. Their method displayed a shadow on the ground plane below the virtual object as a depth cue. Mossel et al. [17] have developed a method where the positioning is done with a slide gesture. The controlled DOF is based on the pose of the device relative to a ground plane. Kasahara et al. [18] have developed a tablet system where positioning is done only by tapping to the desired location on the device's display. The position of a virtual object is determined by the feature points detected from the live AR view, which is then compared to an image database. Touchscreen gestures have also been utilized in commercial HAR applications like Minecraft Reality [19], Junaio [20] and the Ikea Catalog [21].
3D manipulation in VR has been widely studied and gesturebased positioning methods have also been applied for handheld VR systems. For example, Telkenaroglu et al. [22] and Tiefenbacher et al. [23] have experimented on 3D positioning in VR using touchscreen gestures. Interaction in handheld VR positioning shares similarities with HAR
2.
การทำงานที่เกี่ยวข้องโบว์แมนet al, [10] ได้กำหนดสามขั้นพื้นฐานงานการจัดการวัตถุเสมือนจริงสำหรับความจริงเสมือน (VR) และ AR: เลือกตำแหน่งและการหมุน ผู้เขียนกำหนดตำแหน่งการเปลี่ยนตำแหน่ง 3 มิติของวัตถุเสมือนจริง ในบทความนี้เรามุ่งเน้นเฉพาะในงานตำแหน่ง HAR ในส่วนนี้เราจะแนะนำวิธีการวางตำแหน่ง AR ที่เฉพาะเจาะจงสำหรับอุปกรณ์มือถือและวิธีการที่ใช้หล่อเรย์นำมาใช้ในฮาร์ดแวร์อื่น ๆ กว่าอุปกรณ์มือถือ.
2.1 อุปกรณ์มือถือวิธีการจัดการที่แตกต่างกันสำหรับ HAR ได้รับการศึกษาอย่างกว้างขวาง
ในงานวิจัยที่เกี่ยวข้องกับวิธีการเดียวที่จะดำเนินการทั่วไปและประเมินผลงานการจัดการมากกว่าหนึ่ง ตัวอย่างเช่นวิธีการที่รวมการวางตำแหน่งและการหมุนจะเสนอมักจะเป็น เรานำเสนอวิธีการที่ได้รับการออกแบบมาเพื่อให้ได้ตำแหน่ง แต่เพียงผู้เดียวหรือมากกว่าหนึ่งงานการจัดการรวมทั้งการวางตำแหน่ง นี่คือวิธีการที่ก่อนหน้านี้ได้รับการแบ่งออกเป็นสามกลุ่ม:. (1) ปุ่มและท่าทางสัมผัสหน้าจอ (2) ท่าทางกลางอากาศและ (3) การเคลื่อนไหวของอุปกรณ์
2.1.1
ปุ่มหน้าจอสัมผัสและท่าทางการวางตำแหน่งปุ่มที่ใช้ใช้ทั้งปุ่มทางกายภาพหรือหน้าจอสัมผัสของอุปกรณ์มือถือที่จะวางตำแหน่งวัตถุเสมือนจริง Henrysson et al, [11] ได้ใช้มาร์ทโฟนของปุ่มทางกายภาพสำหรับการวางตำแหน่งปุ่มที่แตกต่างกันสำหรับแมปที่แตกต่างกันขององศาเสรีภาพ (อานนท์) ปราสาท et al, [12] ได้นำมาใช้ปุ่มหน้าจอสัมผัสแท็บเล็ตในระบบคอมพิวเตอร์ HAR การวางตำแหน่งวัตถุในสามอานนท์ ในการทำงานของใบและอัล [26], ตำแหน่งในสองอานนท์จะดำเนินการในมุมมอง AR freezed โดยใช้การรวมกันของปุ่มและท่าทาง. the
สัมผัสท่าทางได้กลายเป็นมาตรฐานสำหรับการจัดการ 2D บนอุปกรณ์มือถือหน้าจอสัมผัส [13] และพวกเขาได้ถูกนำมาใช้อย่างกว้างขวางใน HAR จัดการ 3D ได้เป็นอย่างดี Jung et al, [14] ได้มีการพัฒนาระบบที่วัตถุเสมือนสามารถวางในแบบ 3 มิติโดยการควบคุมอานนท์หนึ่งในช่วงเวลาที่มีการลากท่าทางเดียวหรือมัลติทัช อานนท์ควบคุมจะขึ้นอยู่กับท่าเทียบอุปกรณ์ที่ระนาบพื้นดิน Marzo et al, [15] ได้ใช้เทคนิค DS3 [16] สำหรับ 3D ตำแหน่งท่าทาง multitouch มาร์ทโฟน วิธีการของพวกเขาปรากฏเงาบนเครื่องบินที่ลานด้านล่างวัตถุเสมือนเป็นคิวลึก มอสเซล et al, [17] ได้มีการพัฒนาวิธีการวางตำแหน่งที่จะทำกับท่าทางสไลด์ได้ อานนท์ควบคุมจะขึ้นอยู่กับท่าเทียบอุปกรณ์ที่ระนาบพื้นดิน Kasahara et al, [18] ได้มีการพัฒนาระบบแท็บเล็ตที่วางตำแหน่งจะทำเฉพาะโดยการแตะที่ยังตำแหน่งที่ต้องการบนหน้าจอของอุปกรณ์ ตำแหน่งของวัตถุเสมือนจะถูกกำหนดโดยจุดคุณลักษณะที่ตรวจพบจากมุมมอง AR สดซึ่งเป็นแล้วเมื่อเทียบกับฐานข้อมูลภาพ ท่าทางหน้าจอสัมผัสยังได้รับการใช้ประโยชน์ในการใช้งานในเชิงพาณิชย์เช่น HAR Minecraft จริง [19], Junaio [20] และแคตตาล็อก Ikea [21].
การจัดการ 3 มิติใน VR ได้รับการศึกษาอย่างกว้างขวางและวิธีการวางตำแหน่ง gesturebased ยังได้รับนำไปใช้สำหรับระบบ VR มือถือ ยกตัวอย่างเช่น Telkenaroglu et al, [22] และ Tiefenbacher et al, [23] ได้ทดลองในตำแหน่ง 3 มิติใน VR ใช้ท่าทางหน้าจอสัมผัส การทำงานร่วมกันในการวางตำแหน่ง VR คล้ายคลึงมือถือหุ้นกับ HAR
การแปล กรุณารอสักครู่..
