Image: GoogleGoogle’s self-driving cars roam the sunny streets of Moun การแปล - Image: GoogleGoogle’s self-driving cars roam the sunny streets of Moun ไทย วิธีการพูด

Image: GoogleGoogle’s self-driving



Image: Google
Google’s self-driving cars roam the sunny streets of Mountain View, Calif., in public but much of the technology that powers them has never seen the light of day. Yesterday, attendees at the IEEE International Conference on Robotics and Automation (ICRA) in Seattle got a rare glimpse into a new safety feature the tech giant is working on.

Anelia Angelova, a research scientist at Google working on computer vision and machine learning, presented a new pedestrian detection system that works on video images alone. Recognizing, tracking, and avoiding human beings is a critical capability in any driverless car, and Google’s vehicles are duly festooned with lidar, radar, and cameras to ensure that they identify people within hundreds of meters.

But that battery of sensors is expensive; in particular, the spinning lidar unit on the roof can cost nearly $10,000 (or more if for multiple units). If autonomous vehicles could reliably locate humans using cheap cameras alone, it would lower their cost and, hopefully, usher in an era of robotic crash-free motoring all the sooner. But video cameras have their issues. “Visual information gives you a wider view [than radars] but is slower to process,” Angelova told IEEE Spectrum.

At least it used to be. The best video analysis systems use deep neural networks—machine learning algorithms that can be trained to classify images (and other kinds of data) extremely accurately. Deep neural networks rely on multiple processing layers between the input and output layers. For image recognition, the input layer learns features of the pixels of an image. The next layer learns combinations of those features, and so on through the intermediate layers, with more sophisticated correlations gradually emerging. The output layer makes a guess about what the system is looking at.

Modern deep networks can outperform humans in tasks such as recognizing faces, with accuracy rates of over 99.5 percent. But traditional deep networks applied to pedestrian detection are very slow, dividing each street image into 100,000 or more tiny patches, explains Angelova, and then analyzing each in turn. This can take seconds or even minutes per frame, making them useless for navigating city streets. Long before a car using such a network has identified a pedestrian, it might have run the person over.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
ภาพ: Googleถนนซันภูเขา รัฐแคลิฟอร์เนีย ในที่สาธารณะเดินเตร่ของ Google เองขับรถยนต์ ได้มากเทคโนโลยีอำนาจที่พวกเขาไม่เคยเห็นแสงของวัน เมื่อวาน ผู้เข้าร่วมประชุมในการประชุมนานาชาติ IEEE วิทยาการหุ่นยนต์และระบบอัตโนมัติ (ICRA) ในซีแอตเทิลมีเหลือบหายากเป็นคุณลักษณะความปลอดภัยใหม่ยักษ์เทคโนโลยีนี้ทำAnelia Angelova วิจัยนักวิทยาศาสตร์ที่ทำงานบนคอมพิวเตอร์วิทัศน์และเรียนรู้ของเครื่อง Google นำเสนอระบบตรวจจับคนเดินเท้าใหม่ที่ทำงานบนภาพวิดีโอเพียงอย่างเดียว จดจำ ติดตาม และหลีกเลี่ยงมนุษย์ความสำคัญใด ๆ รถ driverless และยานพาหนะของ Google จะดูแล festooned lidar เรดาร์ และกล้องเพื่อให้แน่ใจว่า พวกเขาระบุคนในร้อยเมตรแต่ว่าแบตเตอรี่ของเซ็นเซอร์จะแพง โดยเฉพาะ หน่วย lidar ปั่นบนหลังคาสามารถต้นทุนเกือบ $10000 (หรือถ้าเพิ่มเติมสำหรับหลายหน่วย) ถ้ายานพาหนะเขตปกครองตนเองได้สามารถค้นหามนุษย์ใช้กล้องเพียงอย่างเดียวราคาประหยัด มันจะลดต้นทุนของตน และ หวัง นำในยุคหุ่นยนต์ชนฟรีบนทั้งหมดจะเร็ว แต่กล้องวิดีโอมีปัญหาของพวกเขา "ข้อมูลภาพให้มุมมองกว้าง [กว่า radars] แต่ช้าในการประมวลผล Angelova บอก IEEE Spectrumน้อย มันใช้ได้ ระบบวิเคราะห์วิดีโอสุดใช้เครือข่ายประสาทลึก — เครื่องจักรเรียนรู้อัลกอริทึมที่สามารถฝึกอบรมในการจัดประเภทภาพ (และข้อมูลชนิดอื่น ๆ) อย่างถูกต้องมาก ขึ้น เครือข่ายประสาทลึกอาศัยหลายประมวลผลชั้นระหว่างชั้นอินพุต และเอาท์พุต สำหรับจดจำภาพ ชั้นเข้าเรียนรู้คุณลักษณะของพิกเซลของรูปภาพ ชั้นถัดไปรู้ชุดคุณลักษณะเหล่านั้น และผ่านชั้นกลาง มีความซับซ้อนมากขึ้นความสัมพันธ์ที่ค่อย ๆ เกิดขึ้น ชั้นออกทำให้เดาเกี่ยวกับระบบเป็นสิ่งที่เครือข่ายลึกที่ทันสมัยสามารถมีประสิทธิภาพสูงกว่ามนุษย์ในงานเช่นการจดจำใบหน้า ราคาความแม่นยำมากกว่า 99.5 เปอร์เซ็นต์ แต่เครือข่ายแบบดั้งเดิมที่ใช้ตรวจจับคนเดินเท้าลึกช้า แบ่งภาพแต่ละถนน 100000 หรือเล็กกว่าแพทช์ Angelova อธิบาย ความแล้ว วิเคราะห์แต่ละในการ นี้สามารถใช้เวลาวินาทีหรือนาทีต่อกรอบ ทำให้ไร้ประโยชน์สำหรับนำทางถนนเมือง ก่อนรถใช้เครือข่ายดังกล่าวได้ระบุว่าการเดิน ระยะยาวมันอาจมีทับบุคคล
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!


ภาพ: Google
ของ Google รถตัวเองขับรถเดินเตร่ถนนแดดเมาน์เทนวิวรัฐแคลิฟอร์เนียในที่สาธารณะ แต่มากของเทคโนโลยีที่อำนาจพวกเขาไม่เคยเห็นแสงของวัน. เมื่อวานนี้ผู้เข้าร่วมประชุมในการประชุมนานาชาติ IEEE กับวิทยาการหุ่นยนต์และระบบอัตโนมัติ (ICRA) ในซีแอตเติได้เหลือบหายากเป็นคุณลักษณะด้านความปลอดภัยใหม่ยักษ์เทคโนโลยีเป็นคนที่ทำงาน. Anelia Angelova นักวิทยาศาสตร์วิจัยที่ Google ทำงานอยู่บนคอมพิวเตอร์วิสัยทัศน์และการเรียนรู้เครื่องที่นำเสนอ ระบบตรวจจับคนเดินเท้าใหม่ที่ทำงานบนภาพวิดีโอเพียงอย่างเดียว ตระหนักถึงการติดตามและหลีกเลี่ยงมนุษย์เป็นความสามารถที่สำคัญในรถ driverless ใด ๆ และยานพาหนะของ Google จะประดับรับรองสำเนาถูกต้องด้วย LIDAR เรดาร์และกล้องเพื่อให้แน่ใจว่าพวกเขาระบุคนในหลายร้อยเมตร. แต่แบตเตอรี่ของเซ็นเซอร์ที่มีราคาแพง; โดยเฉพาะอย่างยิ่งหน่วย LIDAR ปั่นบนหลังคาสามารถค่าใช้จ่ายเกือบ $ 10,000 (หรือมากกว่าถ้าหลายหน่วย) หากยานพาหนะของตนเองได้อย่างน่าเชื่อถือสามารถหามนุษย์ใช้กล้องราคาถูกเพียงอย่างเดียวก็จะลดค่าใช้จ่ายของพวกเขาและหวังว่านำในยุคของเครื่องยนต์ผิดพลาดฟรีหุ่นยนต์ทั้งหมดไม่ช้าก็เร็ว แต่กล้องวิดีโอมีปัญหาของพวกเขา "ข้อมูลภาพช่วยให้คุณมีมุมมองที่กว้างขึ้น [กว่าเรดาร์] แต่จะช้าในการประมวลผล" Angelova บอก IEEE Spectrum. อย่างน้อยก็เคยเป็น ที่ดีที่สุดของระบบการวิเคราะห์วิดีโอใช้เครือข่ายประสาทลึกเครื่องขั้นตอนวิธีการเรียนรู้ที่สามารถผ่านการฝึกอบรมในการจำแนกภาพ (และชนิดอื่น ๆ ของข้อมูล) มากได้อย่างถูกต้อง เครือข่ายประสาทลึกพึ่งพาการประมวลผลหลายชั้นระหว่างอินพุทและเอาท์พุทชั้น สำหรับการรับรู้ภาพชั้นอินพุตเรียนรู้คุณสมบัติของพิกเซลของภาพ ชั้นต่อไปเรียนรู้การรวมกันของคุณสมบัติเหล่านั้นและอื่น ๆ ผ่านชั้นกลางที่มีความสัมพันธ์ที่ซับซ้อนมากขึ้นค่อยๆเกิดขึ้นใหม่ ชั้นการส่งออกทำให้การคาดเดาเกี่ยวกับสิ่งที่ระบบกำลังมองหาที่. โมเดิร์นเครือข่ายลึกสามารถดีกว่ามนุษย์ในงานต่างๆเช่นการตระหนักถึงใบหน้าที่มีอัตราความถูกต้องมากกว่าร้อยละ 99.5 แต่เครือข่ายลึกแบบดั้งเดิมมาประยุกต์ใช้กับการตรวจจับคนเดินช้ามากแบ่งภาพสถานที่แต่ละคนเป็น 100,000 คนหรือมากกว่าแพทช์เล็ก ๆ อธิบาย Angelova แล้วการวิเคราะห์ในทางกลับกัน ซึ่งอาจใช้เวลาไม่กี่วินาทีหรือนาทีต่อกรอบทำให้พวกเขาไร้ประโยชน์สำหรับการนำทางถนนในเมือง นานก่อนที่รถโดยใช้เครือข่ายดังกล่าวมีการระบุคนเดินเท้าก็อาจจะมีการเรียกใช้คนมากกว่า







การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: