Abstract: In this study, the authors propose a complete framework base การแปล - Abstract: In this study, the authors propose a complete framework base ไทย วิธีการพูด

Abstract: In this study, the author

Abstract: In this study, the authors propose a complete framework based on a hierarchical activity model to understand
and recognise activities of daily living in unstructured scenes. At each particular time of a long-time video, the framework
extracts a set of space-time trajectory features describing the global position of an observed person and the motion of his/
her body parts. Human motion information is gathered in a new feature that the authors call perceptual feature chunks
(PFCs). The set of PFCs is used to learn, in an unsupervised way, particular regions of the scene (topology) where the
important activities occur. Using topologies and PFCs, the video is broken into a set of small events (‘primitive events’)
that have a semantic meaning. The sequences of ‘primitive events’ and topologies are used to construct hierarchical
models for activities. The proposed approach has been tested with the medical field application to monitor patients
suffering from Alzheimer’s and dementia. The authors have compared their approach to their previous study and a
rule-based approach. Experimental results show that the framework achieves better performance than existing works
and has the potential to be used as a monitoring tool in medical field applications.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
Abstract: In this study, the authors propose a complete framework based on a hierarchical activity model to understandand recognise activities of daily living in unstructured scenes. At each particular time of a long-time video, the frameworkextracts a set of space-time trajectory features describing the global position of an observed person and the motion of his/her body parts. Human motion information is gathered in a new feature that the authors call perceptual feature chunks(PFCs). The set of PFCs is used to learn, in an unsupervised way, particular regions of the scene (topology) where theimportant activities occur. Using topologies and PFCs, the video is broken into a set of small events (‘primitive events’)that have a semantic meaning. The sequences of ‘primitive events’ and topologies are used to construct hierarchicalmodels for activities. The proposed approach has been tested with the medical field application to monitor patientssuffering from Alzheimer’s and dementia. The authors have compared their approach to their previous study and arule-based approach. Experimental results show that the framework achieves better performance than existing worksand has the potential to be used as a monitoring tool in medical field applications.
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
บทคัดย่อ:
การศึกษาครั้งนี้ผู้เขียนได้นำเสนอกรอบการทำงานที่สมบูรณ์แบบขึ้นอยู่กับรูปแบบกิจกรรมที่มีลำดับชั้นในการทำความเข้าใจและรับรู้กิจกรรมในชีวิตประจำวันในฉากที่ไม่มีโครงสร้าง ในแต่ละช่วงเวลาโดยเฉพาะอย่างยิ่งของวิดีโอเป็นเวลานานกรอบสารสกัดจากชุดของวิถีพื้นที่เวลาอธิบายคุณลักษณะตำแหน่งทั่วโลกของผู้สังเกตและการเคลื่อนไหวของเขา / ชิ้นส่วนร่างกายของเธอ ข้อมูลการเคลื่อนไหวของมนุษย์จะรวมตัวกันในคุณลักษณะใหม่ที่ผู้เขียนเรียกชิ้นคุณลักษณะการรับรู้(PFCs) ชุดของ PFCs ที่ใช้ในการเรียนรู้ในทางที่ใกล้ชิดภูมิภาคโดยเฉพาะอย่างยิ่งของฉาก (ทอพอโลยี) ซึ่งกิจกรรมที่สำคัญเกิดขึ้น การใช้โครงสร้างและ PFCs วิดีโอถูกแบ่งออกเป็นชุดของเหตุการณ์ที่เกิดขึ้นขนาดเล็ก ('เหตุการณ์ดั้งเดิม) ที่มีความหมายความหมาย ลำดับของเหตุการณ์ที่เกิดขึ้นแบบดั้งเดิมและโครงสร้างที่ใช้ในการสร้างลำดับชั้นรูปแบบการจัดกิจกรรม วิธีการที่นำเสนอได้รับการทดสอบด้วยโปรแกรมด้านการแพทย์ในการตรวจสอบผู้ป่วยที่ทุกข์ทรมานจากความเสื่อมและภาวะสมองเสื่อม ผู้เขียนได้มีการเปรียบเทียบแนวทางของพวกเขาในการศึกษาก่อนหน้านี้ของพวกเขาและวิธีการตามกฎ ผลการทดลองแสดงให้เห็นว่ากรอบการทำงานประสบความสำเร็จในการปฏิบัติงานที่ดีกว่าผลงานที่มีอยู่และมีศักยภาพที่จะนำมาใช้เป็นเครื่องมือในการตรวจสอบในการใช้งานด้านการแพทย์








การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
บทคัดย่อ : การศึกษานี้ผู้เขียนจะนำเสนอที่สมบูรณ์ขึ้นอยู่กับกิจกรรมลำดับชั้นแบบเข้าใจ
และตระหนักถึงกิจกรรมชีวิตประจำวันในฉากใหม่ ในแต่ละครั้ง โดยเฉพาะวิดีโอนาน สารสกัดจากกรอบ
ชุดของกาล- อวกาศโคจรคุณสมบัติอธิบายตำแหน่งทั่วโลกของการตรวจสอบบุคคล และการเคลื่อนไหวของเขา /
ส่วนร่างกายของเธอข้อมูลการเคลื่อนไหวของมนุษย์จะถูกรวบรวมในลักษณะใหม่ที่ผู้เขียนเรียกการรับรู้คุณลักษณะชิ้น
( pfcs ) ชุด pfcs ใช้เพื่อการเรียนรู้ ในลักษณะที่เป็นคนเดียว เฉพาะภูมิภาคของฉาก ( ทอพอโลยี ) ที่
กิจกรรมสำคัญเกิดขึ้น และใช้รูปแบบ pfcs วิดีโอยังแบ่งออกเป็นชุดของเหตุการณ์เล็ก ๆ ( ของเหตุการณ์ 'primitive )
ที่มีความหมาย .ลำดับเหตุการณ์ของ ' ' แบบดั้งเดิมและรูปแบบจะใช้เพื่อสร้างลำดับชั้น
รูปแบบกิจกรรม วิธีการที่เสนอได้ถูกทดสอบกับเขตข้อมูลทางการแพทย์การตรวจสอบผู้ป่วย
ทุกข์จากโรคอัลไซเมอร์และโรคสมองเสื่อม ผู้เขียนได้ศึกษาเปรียบเทียบวิธีการของพวกเขาของพวกเขาก่อนหน้านี้และ
กฎแนวทางผลการทดลองแสดงให้เห็นว่ากรอบใช้งานได้ดีกว่าที่มีอยู่งาน
และมีศักยภาพที่จะสามารถใช้เป็นเครื่องมือตรวจสอบในการใช้งานด้านการแพทย์
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: