ReLU layer[edit]ReLU is the abbreviation of Rectified Linear Units. Th การแปล - ReLU layer[edit]ReLU is the abbreviation of Rectified Linear Units. Th ไทย วิธีการพูด

ReLU layer[edit]ReLU is the abbrevi

ReLU layer[edit]
ReLU is the abbreviation of Rectified Linear Units. This is a layer of neurons that use the non-saturating activation function . It increases the nonlinear properties of the decision function and of the overall network without affecting the receptive fields of the convolution layer.
Other functions are used to increase nonlinearity. For example the saturating hyperbolic tangent , , and the sigmoid function . Compared to tanh units, the advantage of ReLU is that the neural network trains several times faster.[22]
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
ชั้น ReLU [แก้ไข]ReLU เป็นตัวย่อของหน่วยเชิงแก้ไข ชั้นของ neurons ที่ใช้ฟังก์ชันการเรียกใช้ saturating ไม่อยู่ มันเพิ่มคุณสมบัติไม่เชิงเส้นฟังก์ชันตัดสินใจ และเครือข่ายโดยรวมสภาพชั้น convolution ด้านครอบครัวใช้ฟังก์ชันอื่น ๆ เพิ่ม nonlinearity เช่นแทนเจนต์ไฮเพอร์โบลิ saturating และฟังก์ชัน sigmoid เมื่อเทียบกับหน่วย tanh ประโยชน์ของ ReLU คือ ว่า เครือข่ายประสาทรถไฟหลายครั้งได้เร็วขึ้น [22]
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
Relu ชั้น [แก้ไข]
Relu เป็นตัวย่อของหน่วย Rectified แบบจำลองเชิงเส้น นี้เป็นชั้นของเซลล์ประสาทที่ใช้ฟังก์ชั่นการเปิดใช้งานที่ไม่อิ่มตัว มันจะเพิ่มคุณสมบัติเชิงเส้นของการทำงานและการตัดสินใจของเครือข่ายโดยรวมโดยไม่มีผลต่อสาขาที่เปิดกว้างของชั้นบิด.
ฟังก์ชั่นอื่น ๆ ที่ใช้ในการเพิ่มไม่เป็นเชิงเส้น ตัวอย่างเช่น saturating สัมผัสซึ่งเกินความจริงและฟังก์ชั่น sigmoid เมื่อเทียบกับหน่วย tanh ประโยชน์จาก Relu คือรถไฟเครือข่ายประสาทหลายครั้งได้เร็วขึ้น. [22]
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
relu ชั้น [ แก้ไข ]
relu เป็นตัวย่อของการแก้ไขเชิงเส้นหน่วย นี้เป็นชั้นของประสาทที่ใช้ไม่สูงกระตุ้นการทำงาน . มันเพิ่มค่าคุณสมบัติของการทำงานและการตัดสินใจของเครือข่ายโดยรวมโดยไม่มีผลต่อข้อมูลที่อ่อนไหวของขดชั้น .
หน้าที่อื่น ๆที่ใช้ในการเพิ่มค่า . ตัวอย่างเช่น saturating ไฮเพอร์โบลิกแทนเจนต์ ,และฟังก์ชันซิกมอยด์ . เทียบกับหน่วย Tan , ประโยชน์ของ relu คือโครงข่ายรถไฟหลายครั้งเร็ว [ 22 ]
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: