The computational networktoolkit (CNTK) is a generalpurposemachine-lea การแปล - The computational networktoolkit (CNTK) is a generalpurposemachine-lea ไทย วิธีการพูด

The computational networktoolkit (C

T
he computational network
toolkit (CNTK) is a generalpurpose
machine-learning
tool that supports training
and evaluation of arbitrary
computational networks (CNs), i.e.,
machine-learning models that can be
described as a series of computational
steps. It runs under both Windows and
Linux and on both central processing unit
(CPU) and Compute Unified Device Architecture
(CUDA)-enabled graphics processing
unit (GPU) devices. The source code,
periodic release builds, documents, and
example setups can all be found at http://
cntk.codeplex.com.
Motivation
In the past several years, powered by the
significant improvements in computing facilities
and the great increase of data, deep
learning techniques became the new state
of the art in many fields such as speech
recognition and image classification.
The deep neural network (DNN) is the
first successful deep learning model [1]. In
DNNs, the combined hidden layers conduct
complex nonlinear feature transformation,
and the top layer classifies the
samples. DNNs jointly optimize the feature
transformation and the classification.
Though powerful, DNNs do not explicitly
exploit structures such as translational
variability in images, nor do they explicitly
apply operations such as pooling and aggregation
to reduce feature variability.
The convolutional neural network
(CNN) improves upon the DNN with the
explicit modeling of the translational variability
by tiling shared local filters across
observations to detect the same pattern at
different locations [2]. The pattern-detection
results are then aggregated through
either maximum or average pooling.
However, CNNs only deal with translational
variability and cannot handle other
variations such as horizontal reflections
or color intensity differences. Furthermore,
CNNs, like DNNs, cannot take advantage
of dependencies and correlations
between adjacent samples in a sequence.
To address this deficiency, recurrent
neural networks (RNNs) were introduced
[3]. RNNs can exploit information fed back
from hidden and/or output layers in the
previous time steps and are often trained
with the backpropagation through time
algorithm. Unfortunately, simple RNNs
are difficult to train and have difficulty
modeling long-range dependencies.
The long short-term memory (LSTM)-
RNN [3] addresses this difficulty by employing
input, output, and forget gates. It
significantly improves upon the simple
RNN and has been successfully applied in
many pattern recognition tasks. However,
it may not be optimal for a specific problem
at hand since LSTM is a generic model
that does not take into account special
structures in particular tasks.
To exploit the structure and information
inside a particular task, we need to
design customized models. Unfortunately,
testing customized models is time consuming
without proper tools. Typically,
we need to design the model, derive the
training algorithm, implement them, and
run the tests. The majority of the time is
spent in the algorithm development and
model implementation, which are often
error prone and time-consuming. To
make things worse, the right model is
rarely found on the first trial. We often
need to design and evaluate many models
with different architectures before settling
down with the right one for a
specific task. CNTK intends to provide
means to reduce the effort required by
these two steps and therefore increase the
speed of innovation by focusing on problem
analysis and model design.
Computational Networks
If we examine DNNs, CNNs, RNNs, and
LSTM-RNNs, we notice that all of these
models can be reduced as a series of
computational steps. If we know how to
compute each step as well as the order
in which they are computed, we have an
implementation of these models. This
observation suggests that we can generalize
and treat all these models as special
cases of CNs [10].
A CN can be described as a directed
graph where each vertex, called a computation
node, represents a computation,
and each edge represents the
operator-operant relationship. Note that
the order of operands matters for some
operations such as matrix multiplication.
Leaf nodes in the graph do not
have children and are used to represent
input values or model parameters that
are not result of some computation.
Figure 1 illustrates the correspondence
between the NN and the CN representations
for a single-hidden-layer
neural network with a recurrent loop
from the hidden layer to itself. The operations
performed by the neural network
at time t can be captured by the following
three equations:
p W x b , ( ) ( ) ( ) t t 1 1 1 = + (1)
s W s p , ( ) ( ) ( ) t t t 3 1
1 1 = v` - + j (2)
o Wf , s b ( ) ( ) t t 2 2 = ` + j (3)
where W(.)
and b(.)
are weights and bias
defining the behavior of the NN and that
will be learnt during the training phase.
Equations (1) and (3) capture the
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
Tเครือข่ายคอมพิวเตอร์ของเขาgeneralpurpose เป็นเครื่องมือ (CNTK)เรียนรู้เครื่องเครื่องมือที่สนับสนุนการฝึกอบรมและประเมินผลกำหนดคอมพิวเตอร์เครือข่าย (CNs), เช่นเรียนรู้เครื่องรุ่นที่สามารถเป็นชุดของการคำนวณขั้นตอนการ มันทำงานทั้ง Windows และLinux และทั้งสองหน่วยประมวลผลกลาง(CPU) และการคำนวณโดยรวมอุปกรณ์สถาปัตยกรรม(CUDA) -เปิดใช้งานการประมวลผลกราฟิกอุปกรณ์หน่วย (GPU) รหัสแหล่งที่มาสร้างนำออกใช้เป็นครั้งคราว เอกสาร และตั้งค่าตัวอย่างสามารถทั้งหมดพบได้ที่ http://cntk.codeplex.com ที่แรงจูงใจในอดีต หลายปี ขับเคลื่อนโดยการปรับปรุงที่สำคัญในการใช้งานสิ่งอำนวยความสะดวกและที่ดีเพิ่มข้อมูล ลึกเรียนรู้เทคนิคเป็น รัฐใหม่ศิลปะในหลายสาขาเช่นคำพูดประเภทการรับรู้และรูปภาพเครือข่ายประสาทลึก (DNN)แรกเรียนลึกสำเร็จรูป [1] ในทำชั้นซ่อนรวม DNNsการเปลี่ยนแปลงลักษณะการทำงานซับซ้อนไม่เชิงเส้นและชั้นบนแบ่งประเภทการตัวอย่างการ DNNs ปรับลักษณะการทำงานร่วมกันการเปลี่ยนแปลงและการจัดประเภทมีประสิทธิภาพ แม้ว่า DNNs ไม่ชัดเจนใช้โครงสร้างเช่น translationalความแปรผันในภาพ หรือทำพวกเขาอย่างชัดเจนใช้งานร่วมกันและรวมการลดความแปรผันของลักษณะการทำงานเครือข่ายประสาท convolutional(CNN) ปรับปรุงเมื่อ DNN กับการสร้างโมเดลอย่างชัดเจนความแปรผัน translationalโดยเรียงตัวกรองภายในที่ใช้ร่วมกันสังเกตพบรูปแบบเดียวกันที่ต่าง ๆ สถาน [2] ตรวจสอบรูปแบบผลลัพธ์จะรวมแล้วผ่านสูงสุด หรือค่าเฉลี่ยร่วมกันอย่างไรก็ตาม CNNs จัดการกับ translational เท่านั้นสำหรับความผันผวน และไม่สามารถจัดการอื่น ๆรูปแบบเช่นสะท้อนแนวนอนหรือความแตกต่างความเข้มของสี นอกจากนี้CNNs เช่น DNNs ไม่มีประโยชน์ความสัมพันธ์และความสัมพันธ์ระหว่างตัวอย่างที่ติดกันในลำดับที่อยู่นี้ขาด เกิดซ้ำเครือข่ายประสาท (RNNs) ได้แนะนำ[3] . RNNs สามารถใช้ประโยชน์ข้อมูลเลี้ยงกลับจากชั้นซ่อน และ/หรือผลลัพธ์ในการขั้นตอนเวลาก่อนหน้าและจะมักจะผ่านการฝึกอบรมกับ backpropagation ผ่านเวลาอัลกอริทึมการ อับ RNNs ง่ายยากต่อการฝึก และมีความยากลำบากสร้างโมเดลความสัมพันธ์ระยะยาวหน่วยความจำระยะสั้นระยะยาว (LSTM) -RNN [3] อยู่ปัญหานี้ โดยใช้ป้อน ผลลัพธ์ และลืมประตู มันการปรับปรุงอย่างมีนัยสำคัญเมื่อนำRNN และได้ถูกนำไปใช้ในงานการรู้จำรูปแบบต่าง ๆ อย่างไรก็ตามมันอาจไม่เหมาะสมที่สุดสำหรับปัญหาเฉพาะตั้งแต่ LSTM ที่เป็นรูปแบบทั่วไปที่ไม่นำเข้าบัญชีพิเศษโครงสร้างโดยเฉพาะงานการใช้ประโยชน์โครงสร้างและข้อมูลภายในงานเฉพาะ เราจำเป็นต้องออกแบบรูปแบบกำหนดเอง อับทดสอบแบบจำลองที่กำหนดเองเป็นเวลานานโดยเครื่องมือที่เหมาะสม โดยทั่วไปเราจำเป็นต้องออกแบบรูปแบบ ได้รับการอัลกอริทึม การฝึกอบรมนั้น ๆ และรันการทดสอบ ส่วนใหญ่ของเวลาเป็นใช้เวลาในการพัฒนาอัลกอริทึม และใช้งานแบบจำลอง ซึ่งมักข้อผิดพลาดโอกาส และเสียเวลา ถึงทำสิ่งที่เลว เป็นรุ่นเหมาะสมไม่ค่อยพบในการทดลองครั้งแรก เรามักจะจำเป็น ต้องออกแบบประเมินหลายรูปแบบมีสถาปัตยกรรมที่แตกต่างกันก่อนที่จะชำระเป็นหนึ่งเหมาะสำหรับการเฉพาะงาน CNTK มุ่งมั่นที่จะให้หมายถึงการช่วยลดความจำเป็นทั้งสองขั้นตอน และเพิ่มการความเร็วของนวัตกรรม โดยเน้นปัญหาออกแบบวิเคราะห์และแบบจำลองเครือข่ายคอมพิวเตอร์ถ้าเราตรวจ DNNs, CNNs, RNNs และLSTM-RNNs เราสังเกตที่ทั้งหมดนี้สามารถลดรูปแบบเป็นชุดขั้นตอนการคำนวณ ถ้าเรารู้วิธีการคำนวณแต่ละขั้นตอนเป็นลำดับในการที่พวกเขาจะคำนวณ การใช้รุ่นนี้ นี้สังเกตแนะนำว่า เราสามารถทั่วไปและรุ่นนี้เป็นพิเศษกรณีของ CNs [10]CN สามารถอธิบายเป็นแบบโดยตรงกราฟซึ่งจุดยอดแต่ละ เรียกการคำนวณโหน แสดงแบบคำนวณและขอบแต่ละoperant ดำเนินความสัมพันธ์ หมายเหตุว่าลำดับของตัวถูกดำเนินเรื่องบางการดำเนินงานเช่นการคูณเมทริกซ์ไม่มีใบโหนดในกราฟมีเด็ก และใช้ในการแสดงป้อนค่า หรือรูปแบบพารามิเตอร์ที่ไม่มีผลลัพธ์การคำนวณบางอย่างรูปที่ 1 แสดงการโต้ตอบระหว่าง NN แทน CNสำหรับการซ่อนชั้นเดียวเครือข่ายประสาทกับวนเกิดซ้ำจากชั้นซ่อนตัวเอง การดำเนินงานดำเนินการ โดยเครือข่ายประสาทที่เวลา t สามารถบันทึก โดยต่อไปนี้สมการที่สาม:p W x b, ()()() t t 1 1 1 = + (1)s W s p, ()()() t t t 3 11 1 = v'-j (2) +โอดับเบิลยูเอฟ เอสบี()() t t 2 2 = ' + เจ (3)ที่ W(.) และ b(.) น้ำหนักและความโน้มเอียงการกำหนดลักษณะการทำงานเอ็นเอ็นและที่จะเรียนรู้ในระหว่างขั้นตอนการฝึกอบรมสมการ (1) และ (3) จับ
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
T
เขาเครือข่ายการคำนวณเครื่องมือ (CNTK) เป็น generalpurpose เครื่องการเรียนรู้เครื่องมือที่สนับสนุนการฝึกอบรมและการประเมินผลโดยพลเครือข่ายการคำนวณ(CNS) คือเครื่องรุ่นการเรียนรู้ที่สามารถอธิบายได้ว่าเป็นชุดของการคำนวณขั้นตอน มันทำงานภายใต้ทั้ง Windows และLinux และทั้งหน่วยประมวลผลกลาง(CPU) และ Unified Compute สถาปัตยกรรมอุปกรณ์(CUDA) ที่เปิดใช้งานการประมวลผลกราฟิกหน่วย(GPU) อุปกรณ์ รหัสที่มาปล่อยเป็นระยะสร้างเอกสารและการตั้งค่าตัวอย่างทั้งหมดจะสามารถพบได้ที่http: //. cntk.codeplex.com แรงจูงใจในหลายปีที่ผ่านมาขับเคลื่อนโดยการปรับปรุงที่สำคัญในการคำนวณสิ่งอำนวยความสะดวกและเพิ่มขึ้นอย่างมากของข้อมูลลึกเทคนิคการเรียนรู้กลายเป็นรัฐใหม่ของศิลปะในหลายสาขาเช่นการพูดการรับรู้และการจำแนกภาพ. เครือข่ายประสาทลึก (DNN) เป็นรูปแบบการเรียนรู้ครั้งแรกที่ประสบความสำเร็จลึก[1] ในDNNs, ชั้นที่ซ่อนอยู่รวมกันดำเนินการเปลี่ยนแปลงคุณลักษณะเชิงเส้นที่ซับซ้อนและชั้นบนจัดประเภทตัวอย่าง DNNs ร่วมกันเพิ่มประสิทธิภาพคุณลักษณะการเปลี่ยนแปลงและการจัดหมวดหมู่. แม้ว่าจะมีประสิทธิภาพ DNNs ไม่ชัดเจนใช้ประโยชน์จากโครงสร้างเช่นการแปลความแปรปรวนในภาพหรือไม่ได้อย่างชัดเจนนำไปใช้ดำเนินการเช่นการร่วมกันและการรวมเพื่อลดความแปรปรวนคุณลักษณะ. เครือข่ายประสาทสับสน(ซีเอ็นเอ็น) ช่วยเพิ่ม เมื่อ DNN กับการสร้างแบบจำลองที่ชัดเจนของความแปรปรวนแปลโดยปูกระเบื้องที่ใช้ร่วมกันกรองท้องถิ่นทั่วสังเกตในการตรวจสอบรูปแบบเดียวกันในสถานที่ต่างกัน[2] รูปแบบการตรวจสอบผลที่ได้รวมแล้วผ่านทั้งร่วมกันสูงสุดหรือเฉลี่ย. อย่างไรก็ตาม CNNs จัดการเฉพาะกับการแปลความแปรปรวนและไม่สามารถจัดการอื่นๆรูปแบบเช่นการสะท้อนแนวนอนหรือความแตกต่างของความเข้มของสี นอกจากนี้CNNs เช่น DNNs ไม่สามารถใช้ประโยชน์จากการอ้างอิงและความสัมพันธ์ระหว่างกลุ่มตัวอย่างที่อยู่ติดกันในลำดับ. เพื่อแก้ไขข้อบกพร่องนี้เกิดขึ้นอีกเครือข่ายประสาท (RNNs) ถูกนำมา [3] RNNs สามารถใช้ประโยชน์ข้อมูลป้อนกลับจากที่ซ่อนอยู่และ/ หรือชั้นการส่งออกในขั้นตอนเวลาก่อนหน้านี้และได้รับการฝึกฝนมักจะมีbackpropagation ผ่านช่วงเวลาที่อัลกอริทึม แต่น่าเสียดายที่ RNNs ง่ายเป็นเรื่องยากในการฝึกอบรมและมีปัญหาในการสร้างแบบจำลองการอ้างอิงในระยะยาว. หน่วยความจำระยะสั้นระยะยาว (LSTM) - RNN [3] ที่อยู่ปัญหานี้โดยการนำเข้าส่งออกและลืมประตู มันอย่างมีนัยสำคัญปรับปรุงเมื่อง่ายRNN และได้รับการใช้ประสบความสำเร็จในรูปแบบงานที่ได้รับการยอมรับหลาย แต่มันอาจจะไม่เหมาะสมสำหรับปัญหาเฉพาะที่มือตั้งแต่LSTM เป็นรูปแบบทั่วไปที่ไม่ได้คำนึงถึงความพิเศษของโครงสร้างในการทำงานโดยเฉพาะอย่างยิ่ง. เพื่อใช้ประโยชน์จากโครงสร้างและข้อมูลภายในงานโดยเฉพาะอย่างยิ่งที่เราต้องออกแบบรูปแบบที่กำหนดเอง แต่น่าเสียดายที่การทดสอบรูปแบบที่กำหนดเองเป็นเวลานานโดยไม่ต้องเครื่องมือที่เหมาะสม โดยปกติแล้วเราต้องออกแบบรูปแบบที่ได้รับมาขั้นตอนวิธีการฝึกอบรมการใช้พวกเขาและเรียกใช้การทดสอบ ส่วนใหญ่ของเวลาที่มีการใช้เวลาในการพัฒนาอัลกอริทึมและการดำเนินงานรูปแบบซึ่งมักจะผิดพลาดง่ายและใช้เวลานาน เพื่อให้ได้สิ่งที่แย่กว่านั้นคือรูปแบบที่เหมาะสมจะไม่ค่อยพบในการทดลองครั้งแรก เรามักจะต้องออกแบบและประเมินผลหลายรุ่นที่มีสถาปัตยกรรมที่แตกต่างกันก่อนที่จะนั่งลงกับหนึ่งที่เหมาะสมสำหรับงานที่เฉพาะเจาะจง CNTK ตั้งใจที่จะให้วิธีการที่จะลดความพยายามที่จำเป็นโดยทั้งสองขั้นตอนและดังนั้นจึงเพิ่มความเร็วของนวัตกรรมโดยมุ่งเน้นไปที่ปัญหาการวิเคราะห์และการออกแบบรูปแบบ. เครือข่ายคอมพิวเตอร์ถ้าเราตรวจสอบ DNNs, CNNs, RNNs และ LSTM-RNNs เราสังเกตเห็นว่าทุก เหล่านี้รูปแบบจะลดลงเป็นชุดของขั้นตอนการคำนวณ ถ้าเรารู้วิธีการคำนวณแต่ละขั้นตอนเช่นเดียวกับคำสั่งซื้อที่มีการคำนวณเรามีการดำเนินการตามรูปแบบเหล่านี้ นี้สังเกตเห็นว่าเราสามารถพูดคุยและรักษาทุกรูปแบบเหล่านี้เป็นพิเศษกรณีที่ระบบประสาทส่วนกลาง[10]. CN สามารถอธิบายเป็นกำกับกราฟที่แต่ละจุดสุดยอดที่เรียกว่าการคำนวณโหนดแสดงให้เห็นถึงการคำนวณ, และขอบแต่ละแสดงให้เห็นถึงoperator- ความสัมพันธ์ผ่าตัด โปรดทราบว่าคำสั่งของเรื่องถูกดำเนินการสำหรับบางดำเนินการเช่นการคูณเมทริกซ์. โหนดใบในกราฟไม่ได้มีลูกและมีการใช้ในการแสดงค่าที่ป้อนเข้าหรือพารามิเตอร์รูปแบบที่ไม่ได้ส่งผลให้เกิดการคำนวณบาง. รูปที่ 1 แสดงให้เห็นถึงความสอดคล้องระหว่างNN และการแสดง CN สำหรับชั้นที่ซ่อนเดียวเครือข่ายประสาทพร้อมห่วงกำเริบจากชั้นที่ซ่อนอยู่ในตัวของมันเอง การดำเนินงานที่ดำเนินการโดยเครือข่ายประสาทเวลาt สามารถบันทึกโดยต่อไปนี้สามสมการ: พี W XB () () () tt 1 1 1 + = (1) s W SP () () () TTT 3 1 1 1 = v` - + เจ (2) o Wf, SB () () tt = 2 2 + `ญ (3) ที่ W (.) และ B (.) มีน้ำหนักและมีอคติการกำหนดลักษณะการทำงานของ NN และที่จะได้รับการเรียนรู้ในระหว่างขั้นตอนการฝึกอบรม. สมการ (1) และ (3) การจับภาพ
































































































































การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
เขาคำนวณเครือข่าย T

Toolkit ( cntk ) เป็นเครื่อง generalpurpose

เรียนเครื่องมือที่สนับสนุนการฝึกอบรมและการประเมินผลของเครือข่ายคอมพิวเตอร์
พล
( CNS ) ได้แก่ เครื่องรุ่นที่สามารถเรียน

อธิบายเป็นชุดของขั้นตอนการคำนวณ

มันทำงานภายใต้ Windows และ Linux ทั้ง

และหน่วยประมวลผลกลาง ( CPU ) และคำนวณรวมอุปกรณ์สถาปัตยกรรม
( การ ) - เปิดใช้งาน
หน่วยประมวลผลกราฟิก ( GPU ) อุปกรณ์ รหัสต้นฉบับ
ปล่อยเป็นระยะสร้างเอกสารและ
ตัวอย่างการตั้งค่าสามารถพบได้ที่ http : / /
cntk . การสร้างแรงจูงใจ .

ในช่วงหลายปีที่ผ่านมา , ขับเคลื่อนโดยการปรับปรุงในคอมพิวเตอร์เครื่อง

) และเพิ่มขึ้นอย่างมากของข้อมูลลึก
เทคนิคการเรียนรู้ที่เป็นใหม่ รัฐของศิลปะในสาขา

มากมาย เช่น การพูดการรับรู้และการจัดหมวดหมู่ภาพ
เครือข่ายประสาทลึก ( dnn ) เป็นครั้งแรกที่ประสบความสำเร็จในการเรียนรู้แบบลึก
[ 1 ] ใน
dnns , รวมชั้นซ่อนซับซ้อนคุณลักษณะการแปลงเชิงเส้นกำกับ

, และ ชั้นบนจัด
ตัวอย่าง dnns ร่วมกันเพิ่มประสิทธิภาพการแปลงและการจำแนกคุณลักษณะ
.
แต่ทรงพลัง dnns ไม่ได้อย่างชัดเจนจากโครงสร้างเช่นแปล

ความผันแปรในรูป หรือทำพวกเขาอย่างชัดเจน
ใช้การดำเนินการเช่นการรวมคุณลักษณะและเพื่อลดความแปรปรวน
.

คอนเครือข่ายประสาท ( ซีเอ็นเอ็น ) ปรับปรุงเมื่อ dnn ด้วย

แบบที่ชัดเจนในการใช้ตัวกรองโดยการปูกระเบื้องสำหรับท้องถิ่นข้าม
สังเกตตรวจสอบรูปแบบเดียวกันในสถานที่ที่แตกต่างกัน [
2 ] รูปแบบการตรวจสอบ
ได้ผลแล้วรวมสูงสุด หรือ เฉลี่ยรวมทั้งผ่าน
.
แต่ cnns เพียงจัดการกับการแปล
แปรปรวนและไม่สามารถจัดการกับรูปแบบอื่น ๆเช่น แนวนอนสะท้อน

หรือความแตกต่างความเข้มสี นอกจากนี้
cnns เหมือน dnns ไม่สามารถใช้ประโยชน์ของการอ้างอิงและความสัมพันธ์ระหว่าง

ตัวอย่างที่อยู่ในลำดับ .
ที่อยู่กำเริบ
ขาดนี้โครงข่ายประสาทเทียม ( rnns ) ถูกนํา
[ 3 ] rnns สามารถใช้ประโยชน์จากข้อมูลป้อนกลับจากที่ซ่อนและ / หรือออก

ชั้นในขั้นตอนก่อนหน้านี้ และมักจะฝึก
กับแบบผ่านขั้นตอนเวลา

แต่น่าเสียดายที่ง่าย rnns
ยากที่จะรถไฟ และมีปัญหา

แบบการอ้างอิงระยะไกล ความจำระยะสั้นยาว ( lstm ) -
rnn [ 3 ] ที่อยู่นี้ปัญหาโดยอาศัย
นำเข้าส่งออกและลืมประตู มันอย่างมีนัยสำคัญปรับปรุงเมื่อ rnn ง่าย

และได้สมัครเรียบร้อยแล้วใน
หลายรูปแบบงาน อย่างไรก็ตาม ,
มันอาจจะเหมาะสมสำหรับปัญหาเฉพาะ
มือเนื่องจาก lstm เป็นรูปแบบทั่วไป
ที่ไม่ใช้ลงในบัญชีพิเศษ

โครงสร้างในงานโดยเฉพาะ เพื่อใช้ประโยชน์จากโครงสร้างและข้อมูล
ภายในงานโดยเฉพาะ เราต้องการ

ออกแบบเองแบบ แต่น่าเสียดายที่การทดสอบ ปรับรุ่นเป็นเวลานาน

ไม่มีเครื่องมือที่เหมาะสม โดยปกติ
เราต้องออกแบบรูปแบบการสืบทอด
ฝึกขั้นตอนวิธีที่ใช้พวกเขาและ
ทดสอบไป ส่วนใหญ่ของเวลาที่ใช้ในขั้นตอนวิธีและการพัฒนา

ใช้รูปแบบซึ่งมักจะ
ข้อผิดพลาดง่ายและใช้เวลานาน

ทำให้เหตุการณ์เลวร้ายลง รูปแบบเหมาะสมเป็น
ไม่ค่อยพบในการทดลองครั้งแรก เรามักจะ
ต้องออกแบบและประเมินหลายรุ่นที่มีสถาปัตยกรรมที่แตกต่างกันก่อนที่จะจ่ายเงิน

ลงกับหนึ่งที่เหมาะสมสำหรับ
งานเฉพาะ cntk เน้นให้
หมายถึงการลดความพยายามบังคับใช้โดย
เหล่านี้สองขั้นตอน และดังนั้นจึง เพิ่มความเร็วของนวัตกรรมโดยเน้น

และรูปแบบ การวิเคราะห์ปัญหา การออกแบบ เครือข่าย คอมพิวเตอร์

ถ้าเราตรวจสอบ dnns cnns , ,rnns และ
lstm rnns เราสังเกตเห็นว่าทุกรุ่นเหล่านี้
จะลดลงเป็นชุดของ
ขั้นตอนการคำนวณ ถ้าเรารู้วิธีการ
คำนวณแต่ละขั้นตอนเป็นลำดับ
ซึ่งพวกเขาจะคำนวณเรามี
ใช้รูปแบบเหล่านี้ การสำรวจครั้งนี้ แสดงให้เห็นว่า เราสามารถอนุมาน

และรักษาทุกรุ่นเหล่านี้เป็นกรณีพิเศษ
3 [ 10 ] .
เป็น CN สามารถอธิบายเป็นกำกับ
กราฟที่แต่ละจุดยอดเรียกว่าการคำนวณ
โหนด แทนการคำนวณ , และขอบแทน

แต่ละผู้ประกอบการที่มีผลความสัมพันธ์ หมายเหตุ
ใบสั่งเรื่องเปอแรนด์สำหรับบางงาน เช่น การคูณเมทริกซ์
.
ใบโหนดในกราฟไม่ได้
มีเด็ก และใช้เพื่อแสดงข้อมูลหรือพารามิเตอร์แบบค่า

ไม่ใช่ผลของการคำนวณ .
รูปที่ 1 แสดงให้เห็นถึงความสอดคล้อง
ระหว่าง NN และ CN ตัวแทน
สำหรับเดี่ยวชั้นซ่อน
เครือข่ายประสาทกำเริบด้วยห่วง
จากชั้นซ่อนเอง การดำเนินงานโดยเครือข่ายประสาท

) ที่เวลา t สามารถบันทึกโดยสามสมการต่อไปนี้
:
p w x B ( ) ( ) ( ) T T 1 1 1 = ( 1 )
S W S P ( ) ( ) ( ) T T T 3 1
1 = 1 5 ` - J ( 2 ) WF
o ,S ( B ) T T 2 2 = ` J ( 3 )
w
( ตรงไหน ) และ B (

) มีน้ำหนักและมีการกำหนดพฤติกรรมของดินและ
จะเรียนรู้ในระหว่างการฝึกอบรมระยะ .
สมการ ( 1 ) และ ( 3 ) จับ
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: