The scope of this thesis encompasses a detailed description of augment การแปล - The scope of this thesis encompasses a detailed description of augment ไทย วิธีการพูด

The scope of this thesis encompasse



The scope of this thesis encompasses a detailed description of augmented reality technologies, systems and applications as well as the future of augmented reality technologies as the author sees it. This research makes use of the iOS platform as a means to implement augmented reality and therefore the author believed it was important to introduce the useful iOS tools and steps to creating an augmented reality by introducing a designed and implemented non-augmented reality application and offering the augmented reality transformation design solution. As a result, chapter 3 of this thesis introduces iTranslatAR, a “picture translator” that uses Object Character Recognition (OCR) to translate text present in images, through explanation of the methods relevant to the transformation of iTranslatAR into an augmented reality application that is the use of Tesseract OCR and its implementation as a foreign library in iOS platform. Then the author offers a design for transforming iTranslatAR into an augmented reality application, which corresponds to the application “translating” text from real time video feed frames as opposed to pictures. In addition, section 4.3 presents an explanation to iOS AV Foundation framework and its implementation necessary for using and extracting video frames from the camera.

This research also foresaw that augmented reality brings the possibility of not only enhancing our current senses, but of possibly “making up” for missing ones. In this thesis, the author designed and implemented an augmented reality application for hearing augmentation where hearing-impaired users can see visual cues of what is being said to them in a natural and intuitive way to understand. The application, dubbed iHeAR, uses the iOS platform and an iPad2 as the supporting device. It is implemented using current algorithms for speech recognition and face detection in order to output the “heard” speech in real time next to the speaker’s face in a “text-bubble”. The speech recognition system used is the open source OpenEars which is a wrapper for iOS application of the PocketSphinx system for device speech recognition. A detailed explanation of OpenEars was provided in section 4.3. Face detection is achieved using OpenCV’s Viola-Jones method implementation for face detection, whose explanation was provided in section
4.4. In order to make the face detection algorithm work in real time and perform calculations for both speech recognition and face detection on the device, the author optimized the system to run the face detection algorithm only when speech is detected and only when a previous frame is not already being analyzed for a face since the detection algorithm runs slower than the video feed. In this way, the final system is not overloaded with heavy calculations. The system built assumes the following conditions and limitations:
• The user does not know sign language or how to read lips,
• The environment is quiet and free of background noise,
• The system will be used for one-on-one conversation,

• Speech recognition needs to happen on the device so as to not depend on network

availability.
This thesis challenges included the integration and selection of multiple components to build a hearing augmented reality application using the iOS platform. The APIs and libraries used as part of this research are listed in Table 5.1 along with comments to guide readers who wish to know more about the reasons for using these libraries. Readers should note that the Google Translate API while a good choice for this thesis work will no longer be available to use as a free open source library starting December 1st, 2011.




0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
ขอบเขตของวิทยานิพนธ์นี้ครอบคลุมคำอธิบายรายละเอียดของเทคโนโลยีภาพจำลองเสมือนจริง ระบบ และโปรแกรมประยุกต์ตลอดจนอนาคตของเทคโนโลยีภาพจำลองเสมือนจริงผู้เขียนเห็นว่ามัน ทำให้งานวิจัยนี้ใช้แพลตฟอร์ม iOS การใช้งานเติมความเป็นจริง และผู้เขียนเชื่อว่า มันเป็นสิ่งสำคัญในการแนะนำเครื่องมือ iOS มีประโยชน์และขั้นตอนเพื่อสร้างเป็นภาพจำลองเสมือนจริงโดยแนะนำโปรแกรมออกแบบ และนำมาใช้ไม่ใช่ความเป็นจริง และเสนอการแก้ไขปัญหาการออกแบบการแปลงเติมความเป็นจริง เป็นผล บทที่ 3 ของวิทยานิพนธ์นี้แนะนำ iTranslatAR "ภาพนักแปล" ที่ใช้การรู้จำอักขระวัตถุ (OCR) เพื่อแปลข้อความในรูปภาพ ผ่านคำอธิบายของวิธีการที่เกี่ยวข้องกับการเปลี่ยนแปลงของ iTranslatAR ลงในโปรแกรมประยุกต์ภาพจำลองเสมือนจริงที่มีการใช้ Tesseract OCR และการดำเนินงานเป็นคลังต่างแพลตฟอร์ม iOS แล้ว ผู้เขียนมีการออกแบบสำหรับเปลี่ยน iTranslatAR การประยุกต์ใช้ภาพจำลองเสมือนจริง ซึ่งสอดคล้องกับแอพลิเคชัน "การแปล" ข้อความจากเฟรมฟีดวิดีโอเวลาจริงเมื่อเทียบกับรูปภาพ นอกจากนี้ ส่วน 4.3 แสดงคำอธิบายการ iOS มูลนิธิ AV กรอบและการดำเนินงานที่จำเป็นสำหรับการใช้ และการสกัดภาพวิดีโอจากกล้อง งานวิจัยนี้ยังรุ่งเรืองที่เติมความเป็นจริงซึ่งไม่เพียงเพิ่มความรู้สึกของเราปัจจุบัน แต่อาจจะ "ทำขึ้น" สำหรับคนที่หายไป ในวิทยานิพนธ์นี้ ผู้ออกแบบ และดำเนินการโปรแกรมภาพจำลองเสมือนจริงสำหรับการเพิ่มเติมฟังเทศน์ผู้ใช้สามารถดูสิ่งที่แสดงของสิ่งที่คนพูดกับพวกเขาในวิธีง่าย และเป็นธรรมชาติจะเข้าใจ โปรแกรมประยุกต์ ขนานนาม iHeAR ใช้แพลตฟอร์ม iOS และ iPad2 ที่เป็นอุปกรณ์สนับสนุน นำมาใช้โดยใช้ปัจจุบันอัลกอริทึมการตรวจจับใบหน้าและการรู้พูดเพื่อออกเสียง "ได้ยิน" ในเวลาจริงถัดจากใบหน้าของผู้บรรยายใน "ข้อความฟอง" ระบบการรู้จำเสียงที่ใช้เป็นแหล่งเปิด OpenEars ซึ่งเป็น wrapper สำหรับการประยุกต์ใช้ระบบ PocketSphinx สำหรับการรู้จำเสียงของอุปกรณ์ iOS คำอธิบายโดยละเอียดของ OpenEars ไว้ให้ในส่วน 4.3 ตรวจจับใบหน้าสามารถทำได้โดยใช้ของ OpenCV Viola-โจนส์วิธีการใช้งานสำหรับการตรวจจับใบหน้า คำอธิบายที่ให้ไว้ในส่วน4.4. เพื่อทำให้อัลกอริธึมตรวจจับใบหน้าทำงานในเวลาจริง และการคำนวณสำหรับทั้งคำพูดการรู้หน้าตรวจจับและอุปกรณ์ ผู้เขียนปรับปรุงให้ระบบเรียกใช้อัลกอริทึมการตรวจจับใบหน้าเท่านั้น และเฉพาะเมื่อมีการตรวจพบเสียงเมื่อเฟรมก่อนหน้านี้ไม่ได้แล้วกำลังจะวิเคราะห์สำหรับใบหน้าเนื่องจากอัลกอริทึมการตรวจจับทำงานช้ากว่าวีดีโอ ในวิธีนี้ ระบบสุดท้ายคือไม่มากเกินไปกับการคำนวณที่หนัก ระบบสร้างอนุมานเงื่อนไขและข้อจำกัดต่อไปนี้:•ผู้ใช้ไม่ทราบภาษาหรือวิธีการอ่านริมฝีปาก•สภาพแวดล้อมเงียบสงบ และเสียงพื้นหลัง ฟรี•ระบบจะใช้สำหรับการสนทนาแบบตัวต่อตัว •รู้ต้องเกิดขึ้นบนอุปกรณ์เพื่อที่จะไม่ขึ้นกับเครือข่ายที่ว่างวิทยานิพนธ์นี้ท้าทายรวมรวมและเลือกหลายส่วนเพื่อสร้างเป็นภาพจำลองเสมือนจริงประยุกต์โดยใช้แพลตฟอร์ม iOS APIs และไลบรารีที่ใช้เป็นส่วนหนึ่งของการวิจัยนี้แสดงอยู่ในตาราง 5.1 พร้อมกับข้อคิดเห็นเพื่อแนะนำผู้อ่านที่ต้องการทราบข้อมูลเพิ่มเติมเกี่ยวกับสาเหตุของการใช้ไลบรารีเหล่านี้ ผู้อ่านควรทราบว่า Google Translate API ในขณะที่ทางเลือกดีสำหรับงานวิทยานิพนธ์นี้จะไม่มีให้ใช้เป็นคลังฟรีเปิดแหล่งที่มาเริ่ม 1 ธันวาคม 2011
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!


ขอบเขตของวิทยานิพนธ์ฉบับนี้ครอบคลุมคำอธิบายรายละเอียดของเทคโนโลยีความเป็นจริงยิ่งระบบและการใช้งานเช่นเดียวกับอนาคตของเทคโนโลยีความเป็นจริงยิ่งเป็นผู้เขียนเห็นว่ามัน การวิจัยครั้งนี้ทำให้การใช้แพลตฟอร์ม iOS เป็นวิธีการที่จะใช้ความเป็นจริงยิ่งและดังนั้นผู้เขียนเชื่อว่ามันเป็นสิ่งสำคัญที่จะแนะนำเครื่องมือ iOS และขั้นตอนที่มีประโยชน์ในการสร้างความเป็นจริงยิ่งโดยการแนะนำโปรแกรมที่ออกแบบและดำเนินการที่ไม่ได้เติมความเป็นจริงและนำเสนอ เติมความเป็นจริงแก้ปัญหาการออกแบบการเปลี่ยนแปลง เป็นผลให้บทที่ 3 ของวิทยานิพนธ์ฉบับนี้แนะนำ iTranslatAR เป็น "ภาพแปล" ที่ใช้การรับรู้วัตถุตัวอักษร (OCR) ในการแปลปัจจุบันข้อความในภาพผ่านคำอธิบายของวิธีการที่เกี่ยวข้องกับการเปลี่ยนแปลงของ iTranslatAR ลงในการประยุกต์ใช้ความเป็นจริงยิ่งที่เป็น การใช้งานของ Tesseract OCR และการดำเนินการที่เป็นห้องสมุดต่างประเทศในแพลตฟอร์ม iOS จากนั้นผู้เขียนมีการออกแบบสำหรับการเปลี่ยน iTranslatAR เป็นแอพลิเคชันเติมความเป็นจริงซึ่งสอดคล้องกับแอพลิเคชัน "แปล" ข้อความจากเวลาจริงเฟรมฟีดวิดีโอเมื่อเทียบกับภาพ นอกจากนี้ในส่วน 4.3 นำเสนอคำอธิบายกรอบ iOS AV มูลนิธิและการดำเนินงานที่จำเป็นสำหรับการใช้และการสกัดภาพวิดีโอจากกล้องที่.

งานวิจัยนี้ยังเล็งเห็นว่าความเป็นจริงยิ่งนำความเป็นไปได้ไม่เพียง แต่เพิ่มความรู้สึกของเราในปัจจุบัน แต่อาจจะเป็น "การทำ ขึ้น "สำหรับคนที่ขาดหายไป ในวิทยานิพนธ์ฉบับนี้ผู้เขียนได้รับการออกแบบและดำเนินการการประยุกต์ใช้ความเป็นจริงยิ่งสำหรับการได้ยินการเสริมที่ผู้บกพร่องทางการได้ยินสามารถดูตัวชี้นำภาพของสิ่งที่ถูกกล่าวแก่พวกเขาในทางธรรมชาติและใช้งานง่ายที่จะเข้าใจ แอพลิเคชันขนานนาม iHear ใช้แพลตฟอร์ม iOS และ iPad2 เป็นอุปกรณ์ที่สนับสนุน จะดำเนินการโดยใช้กลไกในปัจจุบันสำหรับการรับรู้การพูดและการตรวจจับใบหน้าเพื่อการส่งออก "ได้ยิน" คำพูดในเวลาจริงถัดไปที่ใบหน้าของผู้พูดใน "ข้อความฟอง" ระบบรู้จำเสียงพูดที่ใช้เป็นแหล่งที่มาเปิด OpenEars ซึ่งเป็นเสื้อคลุมสำหรับการประยุกต์ใช้ iOS ของระบบ PocketSphinx สำหรับการจดจำเสียงอุปกรณ์ คำอธิบายรายละเอียดของ OpenEars ถูกบัญญัติไว้ในมาตรา 4.3 ตรวจจับใบหน้าจะประสบความสำเร็จโดยใช้วิธีการดำเนินงานของ OpenCV Viola โจนส์สำหรับการตรวจจับใบหน้าที่มีคำอธิบายที่ถูกบัญญัติไว้ในมาตรา
4.4 เพื่อที่จะทำให้การทำงานที่ใบหน้าวิธีการตรวจสอบในเวลาจริงและดำเนินการคำนวณสำหรับการรู้จำเสียงพูดทั้งสองและตรวจจับใบหน้าบนอุปกรณ์ที่ผู้เขียนที่ดีที่สุดระบบทำงานขั้นตอนวิธีการตรวจหาใบหน้าเฉพาะเมื่อคำพูดมีการตรวจพบและเมื่อกรอบก่อนหน้านี้ไม่ได้ แล้วจะถูกวิเคราะห์สำหรับใบหน้าตั้งแต่ขั้นตอนวิธีการตรวจสอบทำงานช้ากว่าฟีดวิดีโอ ด้วยวิธีนี้ระบบสุดท้ายคือไม่มากเกินไปกับการคำนวณหนัก ระบบที่สร้างขึ้นจะถือว่าเงื่อนไขและข้อ จำกัด ต่อไปนี้:
•ผู้ใช้ไม่ทราบว่าภาษามือหรือวิธีการอ่านริมฝีปาก
•สภาพแวดล้อมที่เงียบสงบและปราศจากสัญญาณรบกวนพื้นหลัง
•ระบบจะถูกนำมาใช้อย่างใดอย่างหนึ่งต่อหนึ่งการสนทนา

• รู้จำเสียงพูดต้องเกิดขึ้นบนอุปกรณ์เพื่อให้เป็นไปได้ขึ้นอยู่กับเครือข่าย

พร้อมใช้งาน.
ความท้าทายวิทยานิพนธ์ฉบับนี้รวมถึงการบูรณาการและการเลือกองค์ประกอบหลายอย่างที่จะสร้างแอพลิเคชันการได้ยินเติมความเป็นจริงโดยใช้แพลตฟอร์ม iOS API สำหรับห้องสมุดและใช้เป็นส่วนหนึ่งของการวิจัยนี้ได้แสดงในตารางที่ 5.1 พร้อมด้วยการแสดงความคิดเห็นเพื่อเป็นแนวทางให้ผู้อ่านที่ต้องการทราบข้อมูลเพิ่มเติมเกี่ยวกับสาเหตุของการใช้ห้องสมุดเหล่านี้ ผู้อ่านควรทราบว่า Google Translate API ในขณะที่ทางเลือกที่ดีสำหรับการทำงานวิทยานิพนธ์ฉบับนี้จะไม่สามารถใช้เป็นห้องสมุดมาเปิดฟรีเริ่มต้นที่ 1 ธันวาคม 2011




การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
วิทยานิพนธ์นี้ครอบคลุมรายละเอียดของความเป็นจริง Augmented เทคโนโลยี ระบบ และการใช้งาน รวมทั้งอนาคตของความเป็นจริงเสมือนเทคโนโลยีที่ผู้เขียนเห็น งานวิจัยนี้ใช้ iOS เป็นวิธีการที่จะใช้ความเป็นจริงเสมือนและดังนั้นผู้เขียนเชื่อว่ามันเป็นสิ่งสำคัญที่จะแนะนำที่เป็นประโยชน์เครื่องมือ iOS และขั้นตอนการสร้างความเป็นจริงเติมโดยการแนะนำ มาประยุกต์ใช้บนความเป็นจริงเติมใบสมัครและเสนอความเป็นจริง Augmented การเปลี่ยนแปลงการออกแบบโซลูชั่น ผลคือ บทที่ 3 ของงานวิจัยนี้ได้เสนอ itranslatar , " แปล " ภาพที่ใช้วัตถุการรู้จำอักขระ ( OCR ) เพื่อแปลข้อความที่อยู่ในรูป ผ่านคำอธิบายของวิธีการที่เกี่ยวข้องกับการเปลี่ยนแปลงของ itranslatar ในความเป็นจริง Augmented โปรแกรมที่ใช้ประจำและใช้ OCR เป็นห้องสมุดในต่างประเทศ . แพลตฟอร์ม แล้วผู้เขียนมีการออกแบบสำหรับการเปลี่ยน itranslatar ในความเป็นจริงเติมใบสมัครซึ่งสอดคล้องกับการ " แปล " ข้อความจากเวลาจริงฟีดวิดีโอเฟรมเป็นนอกคอกรูปภาพ นอกจากนี้ในส่วนแสดงคำอธิบายเป็น iOS 4.3 มูลนิธิและกรอบปฏิบัติที่จำเป็นสำหรับการใช้ AV และการสกัดเฟรมวิดีโอจากกล้องงานวิจัยนี้ยังเห็นว่าความเป็นจริงเติมนำความเป็นไปได้ของการไม่เพียง แต่การรับรู้ของเราในปัจจุบัน แต่อาจจะ " ทำ " ไปที่ ในวิทยานิพนธ์ฉบับนี้ ผู้เขียนได้รับการออกแบบ และใช้ความเป็นจริง Augmented การเสริมการได้ยินที่ผู้ใช้สามารถดูภาพ ที่มีคิวของสิ่งที่ถูกกล่าวแก่พวกเขาในวิธีธรรมชาติและง่ายที่จะเข้าใจ โปรแกรม ihear ขนานนามใช้ iOS และ iPad2 เป็นสนับสนุนอุปกรณ์ มันคือการใช้ขั้นตอนวิธีในปัจจุบันสำหรับการรู้จำเสียงพูดและตรวจจับใบหน้าเพื่อที่จะออก " ได้ยิน " เสียงในเวลาจริง ถัดจากลำโพงหน้าในข้อความ " ฟอง " การพูดการรับรู้ระบบที่ใช้เป็นแหล่งเปิด openears ซึ่งเป็นเสื้อคลุมสำหรับ iOS การประยุกต์ใช้ระบบ pocketsphinx สำหรับการรู้จำเสียงพูดอุปกรณ์ อธิบายรายละเอียดของ openears เคยให้ไว้ในส่วน 4.3 . ตรวจจับใบหน้าได้โดยใช้วิธีการของวิโอล่า โจนส์ เป็นการตรวจจับใบหน้าที่มีคำอธิบายที่ให้ไว้ในมาตรา4.4 . เพื่อให้ใบหน้าขั้นตอนวิธีทำงานในเวลาจริงและทำการคำนวณทั้งการรู้จำเสียงและการตรวจหาใบหน้าบนอุปกรณ์ ผู้เขียนเพิ่มประสิทธิภาพระบบ เพื่อใช้ตรวจจับใบหน้าขั้นตอนวิธีเฉพาะเมื่อคำพูดที่ตรวจพบและเมื่อเฟรมเดิมไม่ได้ถูกวิเคราะห์ใบหน้า ตั้งแต่การตรวจสอบขั้นตอนวิธีวิ่งช้ากว่าวิดีโออาหาร ในวิธีนี้ระบบสุดท้ายคือไม่มากเกินไปกับการคำนวณหนัก ระบบสร้างขึ้นถือว่าเงื่อนไขและข้อจำกัดต่อไปนี้ :- ผู้ใช้ไม่รู้ภาษาหรือวิธีการอ่านริมฝีปาก- มีสภาพแวดล้อมที่เงียบสงบ และปราศจากเสียงรบกวนพื้นหลัง- ระบบจะถูกใช้สำหรับการสนทนาแบบตัวต่อตัว- การรู้จำเสียงพูดต้องเกิดขึ้นบนอุปกรณ์เพื่อที่จะไม่ได้ขึ้นอยู่กับเครือข่ายห้องว่างวิทยานิพนธ์ฉบับนี้ คือ การรวม และการท้าทายของส่วนประกอบหลายสร้างได้ยินความเป็นจริง Augmented ใช้ iOS แพลตฟอร์ม APIs และห้องสมุดที่ใช้เป็นส่วนหนึ่งของการวิจัยมีการระบุไว้ในตารางที่ 5.1 พร้อมกับความเห็นที่จะแนะนำผู้อ่านที่ต้องการทราบเพิ่มเติมเกี่ยวกับเหตุผลในการใช้ห้องสมุดนี้ ผู้อ่านควรทราบว่า Google แปล API ในขณะที่เป็นทางเลือกที่ดีสำหรับงานวิทยานิพนธ์นี้จะไม่สามารถใช้เป็นฟรีเปิดแหล่งที่มาห้องสมุด เริ่มตั้งแต่วันที่ 1 ธันวาคม 2554
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: