Another paper was written by D.Yang et al, in order to develop a real time assistive system for blind people. The name of the device was given after its algorithm named EBCOT which stands for Embedded Block Coding with Optimized Truncation. The main idea of this algorithm is to apply two-tier coding and optimal wavelet base. The ability of coding with embedded block and minimum ratedistortion are the main features of this algorithm. The system receives real time images via a regular camera, processes them and the resultant sounds are transferred to the headphones. Finally they compared their system with existing compression methods, such as SPIHT and EZW. The results showed that EBCOT algorithm has the highest time efficiency among existing methodologies.
Another paper written by P. Codognet and G. Nouno presents a real time system that generates sound according to the blinking lights which were placed into the highest skyscrapers in Tokyo. Red Light Spotters Project encompassed artistic creation process embedding image tracking and beat prediction algorithms. The key idea was to achieve an emergent rhythmic process for the musical creation and generative music. Results showed that the system could be applicable to any other city under one condition, the necessity of rhythmic flow of lights.
One of the studies related with sound to image mapping was written by K. Abe et al. In their work, they developed a sound classification method based on timefrequency image processing. They classified sound in four different classes: “Speech”, “Noise”, “Speech in Noise” and “Classical Music”. The initial idea was to develop a system that could calibrate the hearing aids automatically according to the acoustic environmental changes. Their algorithm generates images from the sounds that are coming to hearing aids. According to the characteristics of the images, sound is
classified into four classes. The authors state that the proposed method has a possibility to establish a sound classification in
hearing aid system as the first and rough trial. Another paper about image to sound conversion techniques was written by A.
Fusiello et al [7]. Sonification techniques were used to create a system named Multimodal Electronically Travel Aid Device.
Their system includes an earphone, a portable computer, a laser pointer which would be used to estimate the z-depth. Finally, a stereo camera pair was used in order to generate stereo vision. The algorithm tracks down the sound signals, applies 3D reconstruction and with the help of sonification techniques sound is generated. Results have shown that laser usage could create problems about the analysis of depth, but the overall results were satisfactory. In one of the researches about auditory display [8], they stated that image can be visualized as a two dimensional pixel-space and with each pixel having a discrete value. They claimed that an image can be represented as a threedimensional matrix having three indices: x-position, y-position and its intensity value. For this reason they conclude that image sonification can be applicable to real life. With the usage of image sonification, data can be converted from a static twodimensional domain to a one dimensional time domain. The helical coordinate system [9] could be used for this transformation. One of comparison studies about image to sound conversion methodologies is published by R. Sarkar et al[10]. They stated that the initial attempts of image to sound
mapping failed because of the ignorance of the principles of psychoacoustic during the implementation of previously proposed systems and algorithms. They concluded that the multi channel image data analysis will be in demand for the upcoming researches for image sonification. It is recognized that the intensity, the frequency and the temporal discrimination of static
audible sounds have more importance in image to sound mapping as stated on certain articles [11]-[13]. Further studies proved that one to one mapping from image to sound can ensure the preservation of visual information [1].
กระดาษอีก เขียนโดย หยาง et al , เพื่อพัฒนาระบบช่วยเวลาจริงสำหรับคนตาบอด ชื่อของอุปกรณ์ที่ได้รับหลังจาก ebcot ซึ่งย่อมาจากชื่อของขั้นตอนวิธีการเข้ารหัสที่มีประสิทธิภาพฝังตัวป้องกันการตัดเป็นท่อนๆ แนวคิดหลักของวิธีนี้คือการใช้รหัสฐานสองชั้นและวิธีการที่เหมาะสม ความสามารถในการเขียนโปรแกรมฝังตัวที่มีบล็อก และ ratedistortion ขั้นต่ำเป็นคุณสมบัติหลักของขั้นตอนวิธีนี้ ระบบรับภาพเวลาจริงผ่านทางกล้องปกติกระบวนการพวกเขาและเสียงซึ่งจะถูกโอนไปยังหูฟัง ในที่สุดพวกเขาเปรียบเทียบระบบของพวกเขาด้วยวิธีการบีบอัดที่มีอยู่ เช่น spiht และ ezw . ผลการศึกษาพบว่า ขั้นตอนวิธี ebcot ได้สูงสุดเวลาประสิทธิภาพระหว่างวิธีการที่มีอยู่เขียนโดยหน้ากระดาษอื่น codognet G nouno แสดงเวลาจริงระบบที่สร้างเสียงตามแสงไฟกระพริบที่ถูกวางไว้เป็นตึกระฟ้าที่สูงที่สุดในโตเกียว โครงการไฟส่องสว่างไฟสีแดงครอบคลุมถึงศิลปะการสร้างกระบวนการติดตามและชนะการฝังภาพขั้นตอนวิธีการพยากรณ์ ความคิดหลักคือเพื่อให้บรรลุกระบวนการจังหวะฉุกเฉินสำหรับการสร้างเซลล์และดนตรีเพลง ผลการศึกษาพบว่า ระบบสามารถใช้ได้กับเมืองอื่น ๆภายใต้เงื่อนไขที่จำเป็นของการไหลเป็นจังหวะของแสงหนึ่งของการศึกษาที่เกี่ยวข้องกับเสียงกับแผนที่ภาพที่ถูกเขียนโดย K . อาเบะ et al . ในงานของพวกเขา พวกเขาได้รับการจำแนกตามเสียงวิธีการประมวลผลภาพ timefrequency . พวกเขาจำแนกเสียงสี่ชั้นเรียนแตกต่างกัน : " การพูด " , " เสียง " , " เสียง " และ " เพลงคลาสสิก " ความคิดเริ่มต้นที่จะพัฒนาระบบที่สามารถปรับเครื่องช่วยฟังโดยอัตโนมัติตามเสียงสิ่งแวดล้อมเปลี่ยนแปลง ขั้นตอนวิธีการสร้างภาพจากเสียงที่กำลังได้ยินเอดส์ ตามลักษณะของภาพ เสียง คือแบ่งออกเป็นสี่ชั้น ผู้เขียนระบุว่า วิธีที่นำเสนอมีความเป็นไปได้ที่จะสร้างเสียงในการจำแนกเครื่องช่วยฟังระบบเป็นครั้งแรกและการพิจารณาคดีในที่ขรุขระ กระดาษอีกเกี่ยวกับภาพเสียงเทคนิคการแปลงถูกเขียนโดย .fusiello et al [ 7 ] เทคนิค sonification ถูกใช้เพื่อสร้างระบบตั้งชื่อแบบอิเล็กทรอนิกส์เดินทางอุปกรณ์ช่วยระบบของพวกเขารวมถึงหูฟัง , คอมพิวเตอร์แบบพกพา , ตัวชี้เลเซอร์ซึ่งจะใช้ในการประมาณการ z-depth . ในที่สุด , กล้องสเตอริโอคู่ถูกใช้เพื่อสร้างวิสัยทัศน์สเตอริโอ ขั้นตอนวิธีการแกะรอยสัญญาณเสียงใช้มิติการสร้างใหม่และด้วยความช่วยเหลือของเทคนิค sonification เสียงจะถูกสร้างขึ้น ผลลัพธ์ที่ได้แสดงให้เห็นว่าการใช้เลเซอร์สามารถสร้างปัญหาเกี่ยวกับการวิเคราะห์ของความลึก แต่ผลโดยรวมน่าพอใจ หนึ่งในงานวิจัยที่เกี่ยวกับการแสดงผลการได้ยิน [ 8 ] พวกเขากล่าวว่า ภาพที่สามารถมองเห็นเป็นสองมิติพิกเซลพื้นที่และกับแต่ละพิกเซลจะมีค่าไม่ต่อเนื่อง พวกเขาอ้างว่า ภาพที่สามารถแสดงเป็นเมทริกซ์แบบมีสามดัชนี : x-position y-position , ค่าของความเข้ม ด้วยเหตุผลนี้จึงสรุปได้ว่า ภาพ sonification สามารถใช้ได้กับชีวิตจริง ด้วยการใช้ภาพ sonification ข้อมูลจะถูกแปลงจากแบบคงที่ twodimensional โดเมนหนึ่งมิติเวลาโดเมน ระบบพิกัด 5 [ 9 ] อาจจะใช้สำหรับการเปลี่ยนแปลงนี้ หนึ่งของการเปรียบเทียบการศึกษาเกี่ยวกับภาพเสียง วิธีการแปลงเผยแพร่โดย ซาร์คาร์ et al [ 10 ] พวกเขากล่าวว่าเริ่มต้นความพยายามของภาพเสียงแผนที่ล้มเหลว เพราะความโง่ของหลักการ psychoacoustic ระหว่างการดำเนินงานของระบบที่เสนอก่อนหน้านี้และขั้นตอนวิธี พวกเขาสรุปว่าหลายช่องสัญญาณภาพการวิเคราะห์ข้อมูลจะเป็นในความต้องการสำหรับงานวิจัยที่จะเกิดขึ้นสำหรับภาพ sonification . เป็นที่ยอมรับว่า ความรุนแรง ความถี่และค่าอำนาจจำแนก และสถิตเสียงที่ได้ยินมีความเสียงในรูปแผนที่ตามที่ระบุในบางบทความ [ 11 ] - [ 13 ] การศึกษาได้พิสูจน์แล้วว่าหนึ่งในแผนที่จากภาพที่เสียงสามารถตรวจสอบการเก็บรักษาของภาพข้อมูล [ 1 ]
การแปล กรุณารอสักครู่..
