Nowadays, there are many applications (e.g. surveillance, human–comput การแปล - Nowadays, there are many applications (e.g. surveillance, human–comput ไทย วิธีการพูด

Nowadays, there are many applicatio

Nowadays, there are many applications (e.g. surveillance, human–
computer interaction etc.) that require an efficient and accurate
analysis of human activities using video input. For example, in the
medical field, the behaviour of patients (e.g. those suffering from
dementia or Alzheimer’s disease) needs to be studied for a long period
of time (days and weeks) in order to help medical staff (doctors, carers
and nurses) to understand the difficulties of patients and propose
solutions that can ameliorate their daily living conditions [1].
Modelling and recognising activities are rising fields in computer
vision and machine learning. Recent approaches [2, 3] address the
problem of detecting complex daily activities using egocentric
wearable cameras which enable the viewer to have a close view and
see the objects in their natural positions. However, a wearable
camera can be very intrusive for the user, especially for people
suffering from dementia. Visual information can also be obtained
with fixed cameras. The majority of work in activity recognition
using fixed cameras addresses short-term actions (i.e. a few seconds)
in acted footage of posture-defined classes such as ‘punching’ [4, 5].
In order to recognise human activities, scenes need to be analysed
from a sequence of frames (low-level task of computer vision) and
interpreted (high-level task). The inability to connect these two
levels (high-level and low-level tasks) is called the semantic gap
problem [6] and its reduction is still a challenging task.
In this paper, we propose a new approach to reduce this gap by
constructing, in an unsupervised manner, an intermediate layer
between low-level information (tracked objects from video) and
high-level interpretation of activity (e.g. cooking, eating and
sitting). Our method is a novel approach allowing the detection of
complex activities with long duration in an unstructured scene. We
have developed a complete vision-based framework that enables us
to model, discover and recognise activities online while monitoring
a patient. The two main contributions of this work are as follows:
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
Nowadays, there are many applications (e.g. surveillance, human–computer interaction etc.) that require an efficient and accurateanalysis of human activities using video input. For example, in themedical field, the behaviour of patients (e.g. those suffering fromdementia or Alzheimer’s disease) needs to be studied for a long periodof time (days and weeks) in order to help medical staff (doctors, carersand nurses) to understand the difficulties of patients and proposesolutions that can ameliorate their daily living conditions [1].Modelling and recognising activities are rising fields in computervision and machine learning. Recent approaches [2, 3] address theproblem of detecting complex daily activities using egocentricwearable cameras which enable the viewer to have a close view andsee the objects in their natural positions. However, a wearablecamera can be very intrusive for the user, especially for peoplesuffering from dementia. Visual information can also be obtainedwith fixed cameras. The majority of work in activity recognitionusing fixed cameras addresses short-term actions (i.e. a few seconds)in acted footage of posture-defined classes such as ‘punching’ [4, 5].In order to recognise human activities, scenes need to be analysedfrom a sequence of frames (low-level task of computer vision) andinterpreted (high-level task). The inability to connect these twolevels (high-level and low-level tasks) is called the semantic gapproblem [6] and its reduction is still a challenging task.
In this paper, we propose a new approach to reduce this gap by
constructing, in an unsupervised manner, an intermediate layer
between low-level information (tracked objects from video) and
high-level interpretation of activity (e.g. cooking, eating and
sitting). Our method is a novel approach allowing the detection of
complex activities with long duration in an unstructured scene. We
have developed a complete vision-based framework that enables us
to model, discover and recognise activities online while monitoring
a patient. The two main contributions of this work are as follows:
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
ปัจจุบันมีการใช้งานมาก
(เช่นการเฝ้าระวังของมนุษย์มีปฏิสัมพันธ์คอมพิวเตอร์ฯลฯ )
ที่ต้องมีประสิทธิภาพและถูกต้องวิเคราะห์จากกิจกรรมของมนุษย์โดยใช้สัญญาณวิดีโอ ยกตัวอย่างเช่นในด้านการแพทย์พฤติกรรมของผู้ป่วย(เช่นความทุกข์ทรมานจากภาวะสมองเสื่อมหรือโรคอัลไซเม) จะต้องมีการศึกษาเป็นระยะเวลานานของเวลา (วันและสัปดาห์) เพื่อช่วยให้บุคลากรทางการแพทย์ (แพทย์ผู้ดูแลและพยาบาล) ที่จะเข้าใจความยากลำบากของผู้ป่วยและนำเสนอโซลูชั่นที่สามารถเยียวยาสภาพความเป็นอยู่ในชีวิตประจำวัน [1]. การสร้างแบบจำลองและกิจกรรมที่มีการรับรู้ที่เพิ่มขึ้นในสาขาคอมพิวเตอร์วิสัยทัศน์และการเรียนรู้เครื่อง วิธีการล่าสุด [2, 3] อยู่ที่ปัญหาของการตรวจสอบกิจกรรมประจำวันที่ซับซ้อนโดยใช้เห็นแก่ตัวกล้องเครื่องแต่งตัวที่ช่วยให้ผู้ชมที่จะมีมุมมองที่ใกล้ชิดและเห็นวัตถุที่อยู่ในตำแหน่งธรรมชาติของพวกเขา อย่างไรก็ตามการสวมใส่กล้องสามารถล่วงล้ำมากสำหรับผู้ใช้โดยเฉพาะอย่างยิ่งสำหรับคนที่ทุกข์ทรมานจากภาวะสมองเสื่อม ข้อมูลภาพยังสามารถได้รับกับกล้องคงที่ ส่วนใหญ่ของการทำงานในการรับรู้กิจกรรมการใช้กล้องคงอยู่การดำเนินการระยะสั้น (เช่นไม่กี่วินาที) ในภาพทำหน้าที่ของการเรียนท่าที่กำหนดไว้เช่น 'ไล่' [4, 5]. เพื่อที่จะรับรู้การกระทำของมนุษย์ฉากต้อง ได้รับการวิเคราะห์จากลำดับของเฟรม(งานในระดับต่ำของวิสัยทัศน์คอมพิวเตอร์) และตีความ(งานระดับสูง) ไม่สามารถที่จะเชื่อมต่อทั้งสองระดับ (ระดับสูงและงานในระดับต่ำ) เรียกว่าช่องว่างความหมายปัญหา[6] และการลดลงของมันยังคงเป็นงานที่ท้าทาย. ในบทความนี้เรานำเสนอแนวทางใหม่ในการลดช่องว่างนี้โดยการสร้างในลักษณะที่ใกล้ชิด, ชั้นกลางระหว่างข้อมูลในระดับต่ำ(การติดตามวัตถุจากวิดีโอ) และการตีความระดับสูงของกิจกรรม(เช่นการปรุงอาหารรับประทานอาหารและนั่ง) วิธีการของเราเป็นแนวทางใหม่ที่ช่วยให้การตรวจสอบของกิจกรรมที่ซับซ้อนที่มีระยะเวลานานในฉากที่ไม่มีโครงสร้าง เราได้มีการพัฒนากรอบวิสัยทัศน์ตามที่สมบูรณ์แบบที่ช่วยให้เราในการจำลองค้นพบและรับรู้กิจกรรมออนไลน์ในขณะที่การตรวจสอบผู้ป่วย ทั้งสองผลงานหลักของงานนี้มีดังนี้




























การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
ในปัจจุบันมีหลายโปรแกรม เช่น การเฝ้าระวัง และคอมพิวเตอร์ปฏิสัมพันธ์ของมนุษย์
ฯลฯ ) ที่ต้องมีประสิทธิภาพ การวิเคราะห์กิจกรรมของมนุษย์โดยใช้สัญญาณวิดีโอและถูกต้อง

ตัวอย่างเช่นใน
ฟิลด์การแพทย์ พฤติกรรมของผู้ป่วย ( เช่น ผู้ที่ทุกข์จาก
โรคสมองเสื่อมหรืออัลไซเมอร์ ) จะต้องศึกษาเพื่อ
ยาวนานเวลา ( วันอาทิตย์ ) เพื่อช่วยให้บุคลากรทางการแพทย์ ( แพทย์ และพยาบาลผู้ดูแล
) เข้าใจปัญหาของผู้ป่วยและนำเสนอโซลูชั่นที่สามารถกระเตื้อง
ทุกวันสภาพความเป็นอยู่ [ 1 ] .
แบบจำลองและตระหนักถึงกิจกรรมที่เพิ่มขึ้นคือเขตข้อมูลในคอมพิวเตอร์วิสัยทัศน์
และการเรียนรู้เครื่อง ล่าสุดแนวทาง [ 2 , 3 ] ที่อยู่
ปัญหาของการตรวจสอบกิจกรรมในชีวิตประจำวันที่ซับซ้อนโดยใช้กล้องเครื่องแต่งตัวเห็นแก่ตัว
ซึ่งช่วยให้ผู้ชมที่จะมีมุมมองที่ใกล้ชิดและ
เห็นวัตถุในตำแหน่งธรรมชาติของพวกเขา แต่กล้องเครื่องแต่งตัว
สามารถมาก ซึ่งสำหรับผู้ใช้ โดยเฉพาะคน
ทุกข์ทรมานจากภาวะสมองเสื่อม ข้อมูลยังสามารถได้รับ
กับซ่อมกล้อง ส่วนใหญ่ทำงานใน
รับรู้กิจกรรมใช้ซ่อมกล้องที่อยู่การกระทำระยะสั้น ( เช่นไม่กี่วินาที )
ในทำภาพท่ากำหนดชั้นเรียนเช่น ' เจาะ ' [ 4 , 5 ] .
ในการจักกิจกรรมมนุษย์ ฉาก ต้องวิเคราะห์
จากลำดับของเฟรม ( งานระดับล่างของวิสัยทัศน์คอมพิวเตอร์และ
( งานพื้นฐาน ) แปล . ไม่สามารถเชื่อมต่อทั้งสอง
ระดับพื้นฐาน และระดับงาน ) เรียกว่า อรรถปัญหาช่องว่าง
[ 6 ] และลด ยังเป็นงานที่ท้าทาย .
ในกระดาษนี้เรานำเสนอวิธีการใหม่เพื่อลดช่องว่างนี้โดย
สร้างในลักษณะ unsupervised , กลางชั้น
ระหว่างข้อมูลระดับต่ำ ( ติดตามวัตถุจากวีดีโอ
การตีความของกิจกรรมระดับสูง ( เช่นอาหาร , การรับประทานอาหารและ
นั่ง )วิธีของเราคือแนวทางใหม่ที่ช่วยให้การตรวจหากิจกรรมที่ซับซ้อนด้วย
เป็นระยะเวลายาวนานในฉากใหม่ เราได้พัฒนาวิสัยทัศน์ที่สมบูรณ์ตาม

แบบกรอบที่ช่วยให้เราค้นพบและยอมรับการตรวจสอบกิจกรรมออนไลน์ในขณะที่
คนไข้ สองผลงานหลักของงานนี้ มีดังนี้
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: