The technique of principal components analysis (PCA) is well known as  การแปล - The technique of principal components analysis (PCA) is well known as  ไทย วิธีการพูด

The technique of principal componen

The technique of principal components analysis (PCA) is well known as one of the techniques used for the size
reduction of a set of multivariable data. Originally [20], it was a technique of linear mapping of multidimensional
data in lower dimensions, minimizing the loss of information. However, as it is a linear mapping method, it becomes inadequate in many engineering problems, which are nonlinear, and since the components are smaller they may contain important information and therefore should not be discarded [23]. Consequentially, the analysis of the principal nonlinear components [23] was resorted to.
One of the ways to develop the principal components is using artificial neural networks, as described by Haykin [20]
in the case of auto-representation. In this case, they can be used as much for reducing the components of represen-
tation, as for discriminating pattern classes.
In the present work we resorted to the principal components for nonlinear discrimination, implemented with the neural networks, having been developed with the error backpropagation algorithm. Three types of develop-ment of the principal components were studied: the components that acted independently and those that acted cooperatively, which are divided into two types.
As the initial input vector is made up of four components, four feature defects, the two principal independent components of nonlinear discrimination were used to visualize the class separation problem of defects in two dimensions. Also the principal components found with the three forms are used as inputs of the nonlinear classifier to evaluate their performance in reduced dimension. The methodology developed is described below.
Taking a pattern classification system with a vector x of size n as an input, then in order to reduce the size of the input
vector for a vector z of size m; m , n; containing only the most relevant information of the set of data, it is represented thus:

0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
The technique of principal components analysis (PCA) is well known as one of the techniques used for the size
reduction of a set of multivariable data. Originally [20], it was a technique of linear mapping of multidimensional
data in lower dimensions, minimizing the loss of information. However, as it is a linear mapping method, it becomes inadequate in many engineering problems, which are nonlinear, and since the components are smaller they may contain important information and therefore should not be discarded [23]. Consequentially, the analysis of the principal nonlinear components [23] was resorted to.
One of the ways to develop the principal components is using artificial neural networks, as described by Haykin [20]
in the case of auto-representation. In this case, they can be used as much for reducing the components of represen-
tation, as for discriminating pattern classes.
In the present work we resorted to the principal components for nonlinear discrimination, implemented with the neural networks, having been developed with the error backpropagation algorithm. Three types of develop-ment of the principal components were studied: the components that acted independently and those that acted cooperatively, which are divided into two types.
As the initial input vector is made up of four components, four feature defects, the two principal independent components of nonlinear discrimination were used to visualize the class separation problem of defects in two dimensions. Also the principal components found with the three forms are used as inputs of the nonlinear classifier to evaluate their performance in reduced dimension. The methodology developed is described below.
Taking a pattern classification system with a vector x of size n as an input, then in order to reduce the size of the input
vector for a vector z of size m; m , n; containing only the most relevant information of the set of data, it is represented thus:

การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
The technique of principal components analysis (PCA) is well known as one of the techniques used for the size
reduction of a set of multivariable data. Originally [20], it was a technique of linear mapping of multidimensional
data in lower dimensions, minimizing the loss of information. However, as it is a linear mapping method, it becomes inadequate in many engineering problems, which are nonlinear, and since the components are smaller they may contain important information and therefore should not be discarded [23]. Consequentially, the analysis of the principal nonlinear components [23] was resorted to.
One of the ways to develop the principal components is using artificial neural networks, as described by Haykin [20]
in the case of auto-representation. In this case, they can be used as much for reducing the components of represen-
tation, as for discriminating pattern classes.
In the present work we resorted to the principal components for nonlinear discrimination, implemented with the neural networks, having been developed with the error backpropagation algorithm. Three types of develop-ment of the principal components were studied: the components that acted independently and those that acted cooperatively, which are divided into two types.
As the initial input vector is made up of four components, four feature defects, the two principal independent components of nonlinear discrimination were used to visualize the class separation problem of defects in two dimensions. Also the principal components found with the three forms are used as inputs of the nonlinear classifier to evaluate their performance in reduced dimension. The methodology developed is described below.
Taking a pattern classification system with a vector x of size n as an input, then in order to reduce the size of the input
vector for a vector z of size m; m , n; containing only the most relevant information of the set of data, it is represented thus:

การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
เทคนิคการวิเคราะห์องค์ประกอบหลัก ( PCA ) เป็นที่รู้จักกันดีเป็นหนึ่งในเทคนิคที่ใช้สำหรับการลดขนาด
ชุดข้อมูล multivariable . แต่เดิม [ 20 ] มันเป็นเทคนิคของแผนที่เชิงเส้นของข้อมูลหลายมิติ
ในขนาดต่ำ ลดการสูญเสียของข้อมูล อย่างไรก็ตาม , มันเป็นวิธีการทำแผนที่เชิงเส้น มันก็จะไม่เพียงพอ ปัญหาทางวิศวกรรมมากที่เป็นเชิงเส้น และเนื่องจากส่วนประกอบที่มีขนาดเล็กอาจจะประกอบด้วยข้อมูลที่สำคัญ ดังนั้นจึงไม่ควรทิ้ง [ 23 ] เพราะเหตุจากการวิเคราะห์ส่วนประกอบหลักเชิงเส้น [ 23 ] มี resorted .
วิธีหนึ่งที่จะพัฒนาส่วนประกอบหลักใช้จึงจำเป็นต้อง่เครือข่ายประสาท ตามที่อธิบายไว้โดย haykin [ 20 ]
ในกรณีของการแสดงรถยนต์ ในกรณีนี้พวกเขาสามารถใช้มากเพื่อลดส่วนประกอบของ represen -
tation เพื่อจำแนกรูปแบบชั้นเรียน .
ในงานปัจจุบันเราใช้ส่วนประกอบหลักสำหรับการวินิจฉัยเชิงเส้น ใช้กับเครือข่ายประสาทได้รับการพัฒนากับแบบ Error ขั้นตอนวิธี สามประเภทของการพัฒนา ment ขององค์ประกอบหลักได้แก่ :ส่วนประกอบที่ทำหน้าที่อย่างอิสระ และผู้ที่ได้ปฏิบัติร่วมกัน ซึ่งจะแบ่งออกเป็น 2 ประเภท ได้แก่
เป็นอินพุตเวกเตอร์เริ่มต้นถูกสร้างขึ้นจากสี่ส่วน สี่คุณสมบัติข้อบกพร่อง , สองหลักที่เป็นอิสระเชิงเส้นเป็นส่วนประกอบของการใช้เห็นการแยกชั้นเรียนปัญหาข้อบกพร่องใน 2 มิติยังพบว่ามีองค์ประกอบหลักสามรูปแบบ เช่น มีการใช้ปัจจัยการผลิตของเส้นจึง classi เอ้อเพื่อประเมินประสิทธิภาพของพวกเขาในการลดขนาด วิธีการพัฒนาที่อธิบายไว้ด้านล่าง .
เอารูปแบบ classi จึงบวกกับระบบเวกเตอร์ x ขนาด N เป็น input แล้วเพื่อลดขนาดของอินพุต
เวกเตอร์สำหรับเวกเตอร์ Z ขนาด M ; M , N ;ที่มีเฉพาะข้อมูลที่เกี่ยวข้องมากที่สุดของชุดข้อมูลจะแสดงดังนี้

การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: