B, V, Mn, Zn, Fe, Al, Cu, Sr, Ba, Rb, Na, P, Ca, Mg, K in
wine samples were measured by ICP-OES. Both cluster
analysis and principal component analysis were used to
investigate the structure of the data and the three-layer
ANN model was used to classify the wine samples. The
results obtained by ANN were compared with those
obtained by conventional Bayes discrimination analysis
and Fisher discrimination methods.
Chemometric fundamentals
The principles of principal component analysis, cluster
analysis, Bayes discrimination analysis and Fisher discrimination
analysis are described in [44Ð47].
Details of ANN have been extensively explained in
[34, 35, 40, 42, 43]. In the present paper the weights
between hidden node j and input node i are adjusted in
the following way:
*w+*(q)"ed1+o1*#a*w+*(q!1) (1)
where the meaning of the symbols is the same as in
[31, 32, 37]. In this paper, the output of input node i for
the training pattern p, o1* in Eq. (1), was equal to the
input signal to node i, which was in fact the corresponding
element in vector a1, and these input data
were all normalized by the Min-Max procedure [35].
An equation similar to Eq. (1) was used to adjust the
connection weights between output node k and hidden
node j.
A feed-forward ANN model with three layers of
nodes was constructed as shown in Fig. 1. Fifteen
element concentration values (mg/L) were measured at
seventeen di¤erent wavelengths for each wine sample
p (see Experimental section) and the 17-dimensional
concentration vector a1(a11, a12,2, a117) served as the
input pattern; so the input layer contained 17 input
nodes plus 1 bias node. The output layer represented
the six di¤erent geographical origins. The code
(100000) represents wine samples from the Þrst origin
FS, FR and FM (see Table 1); (0 1 0 0 0 0) those from
GW, GR and GS; (0 0 1 0 0 0) those from BG, BS and
BR; (0 0 0 1 0 0) those from DR, DK and DG; (000010)
those from NR andNMand (000001) those from OS,
OM and OR, outputting through six nodes.
During the networkÕs learning process, a series of
input patterns (i.e. 17-dimensional concentration vectors)
with their corresponding expected output patterns
(i.e. the true class of wine samples) were presented to the
network to learn, with the connection weights between
nodes of di¤erent layers adjusted in an iterative fashion
by the error-back-propagation algorithm [39, 40].
When the desired precision level for the discrepancies
between the networkÕs actual and expected outputs was
achieved, the learning process stopped.
Because the concentration range of the trace elements
in wine samples varies, the following Min-Max
Fig. 1 Architecture of a three-layer feed-forward ANN model
p"1, 2,2, 170
transformation for the networkÕs expected output
codes c1, was used to make them lie between 0.20 and
0.80 for smooth convergency:
c+,"0.2#0.6(a+,!a,,.*/)/(a,,.!9!a,,.*/)
(j"1, 2,2, 170; k"1, 2,2, 17) (2)
In order to achieve an optimum learning rate, the
adaptive learning rate method of Vogl [48] was used. If
E1(q))E1(q!1), then e(q#1) was set equal to 0.70:
e(q) to reduce the learning rate; if E1(q)'E1(q!1), then
e(q#1) was set equal to 1.05: e(q) to slightly speed up
the learning rate. This method allowed the network to
rapidly stride across the detrimental search space. In
order to maintain a certain convergency speed of the
network with the decreasing of the objective function E1,
a minimum learning rate of 0.10 was set. Earlier investigations
[32, 33, 37, 49] indicated that this rule worked
better than employing a Þxed learning rate during the
whole training process, i.e., the networkÕs convergency
speed was increased and the prediction accuracy for
classiÞcation or calibration was also improved.
B, V, Mn, Zn, Fe, Al, Cu, Sr, Ba, Rb นา P, Ca, Mg, K ใน
ตัวอย่างไวน์ถูกวัด โดยการวิจัย คลัสเตอร์ทั้ง
วิเคราะห์และวิเคราะห์ส่วนประกอบหลักที่ใช้
ตรวจสอบโครงสร้างของข้อมูลและชั้นสาม
แอนรุ่นถูกใช้งานตัวอย่างไวน์ ใน
ผลที่ได้รับ โดยแอนถูกเทียบกับ
รับ โดยวิเคราะห์แบ่งแยก Bayes ธรรมดา
วิธีการแบ่งแยก Fisher ได้
Chemometric พื้นฐาน
คลัสเตอร์หลักของการวิเคราะห์ส่วนประกอบหลัก
วิเคราะห์ วิเคราะห์แบ่งแยก Bayes และแบ่งแยก Fisher
วิเคราะห์ไว้ใน [44Ð47]
รายละเอียดของแอนน์ได้รับการอธิบายอย่างกว้างขวางใน
[34, 35, 40, 42, 43] ในปัจจุบันกระดาษน้ำหนัก
ระหว่างเจซ่อนโหนดและโหนเข้าฉันมีการปรับปรุงใน
วิธีต่อไปนี้:
* w * (q) " ed1 o1 * #a * *(q!1) w (1)
ความหมายของสัญลักษณ์เหมือนกับใน
[31, 32, 37] ในเอกสารนี้ ผลลัพธ์ของอินพุตโหนสำหรับฉัน
ฝึกอบรมรูปแบบ p, o1 * ใน Eq. (1), ไม่เท่ากับ
ป้อนสัญญาณโหน i ซึ่งในความเป็นจริงให้สอดคล้องกับ
องค์ประกอบในเวกเตอร์ a1 และเหล่านี้ป้อนข้อมูล
ได้ทั้งหมดตามปกติ โดยขั้นตอนต่ำสุดสูงสุด [35] .
สมการคล้ายกับ Eq. (1) ถูกใช้เพื่อปรับปรุง
เชื่อมต่อน้ำหนักระหว่างผลโหน k และซ่อน
เจโหน
แบบแอนอาหารไปชั้นสามด้วย
โหนดที่ถูกสร้างขึ้นตามที่แสดงใน Fig. 1 15
ถูกวัดค่าความเข้มข้นขององค์ประกอบ (mg/L)
17 ความยาวคลื่น di¤erent สำหรับแต่ละตัวอย่างไวน์
p (ดูส่วนที่ทดลอง) และ 17 มิติ
สมาธิเวกเตอร์ a1 (a11, a12, 2, a117) เป็นการ
รูปแบบอินพุต ดังนั้นชั้นที่เข้าอยู่ 17 ใส่
โหนดและโหนตั้ง 1 ชั้นออกแสดง
กำเนิดภูมิศาสตร์ di¤erent 6 Code
(100000) แสดงถึงตัวอย่างไวน์จากต้นกำเนิด Þrst
FS, FR และ FM (ดูตารางที่ 1); (0 1 0 0 0 0) จาก
GW, GR และ GS (0 0 1 0 0 0) จาก BG, BS และ
BR (0 0 0 1 0 0) จาก DR, DK และ กิจ (000010)
จาก andNMand NR (000001) จาก OS,
ออมและหรือ แสดงผลผ่านหกโหน
ระหว่าง networkÕs การเรียนรู้กระบวนการ ชุด
ป้อนรูปแบบ (เช่นสมาธิ 17 มิติเวกเตอร์)
กับรูปแบบของผลลัพธ์ที่คาดไว้ตรง
(เช่นจริงชั้นตัวอย่างไวน์) ถูกนำเสนอไป
เครือข่ายการเรียนรู้ มีน้ำหนักเชื่อมต่อระหว่าง
โหน di¤erent ชั้นที่ปรับปรุงในการซ้ำ
โดยอัลกอริทึมเผยแพร่กลับข้อผิดพลาด [39, 40] .
เมื่อระดับความแม่นยำที่ต้องการขัดแย้ง
ระหว่างแสดงผลจริง และที่คาดว่า networkÕs ถูก
สำเร็จ กระบวนการเรียนรู้หยุด.
เนื่องจากช่วงความเข้มข้นขององค์ประกอบติดตาม
ในไวน์ ตัวอย่างแตกต่างกันไป ต่ำสุดสูงสุดต่อ
ฟิก สถาปัตยกรรมแบบแอนดึงไปข้างหน้า 3 ชั้น 1
p " 1, 2,2, 170
แปลงสำหรับ networkÕs คาดว่าผลผลิต
รหัส c1 ถูกใช้เพื่อทำให้พวกเขาอยู่ระหว่าง 0.20 และ
1.03 สำหรับ convergency เรียบ:
c, " 0.2#0.6(a,!a,,.*/) / (การ,,9 ! เป็น * /)
(เจ "1, 2,2, 170; k" 1, 2,2, 17) (2)
เพื่อให้บรรลุอัตราการเรียนรู้ที่เหมาะสม การ
แบบอะแดปทีฟ Vogl [48] วิธีอัตราการเรียนรู้ที่ใช้ If
E1(q))E1(q!1) แล้ว e(q#1) ตั้งค่าเท่ากับ 0.70:
e(q) เพื่อลดอัตราการเรียนรู้ ถ้า E1(q)'E1(q!1), then
e(q#1) มีการตั้งค่าเท่ากับ 1.05: e(q) เล็กน้อยเร็ว
อัตราการเรียนรู้ วิธีนี้สามารถใช้เครือข่าย
ย่างกลข้ามพื้นที่การค้นหาผลดีอย่างรวดเร็ว ใน
สั่งการรักษาเป็นบาง convergency ความเร็วของการ
เครือข่ายที่ มีการลดลงของฟังก์ชันวัตถุประสงค์ E1,
อัตราการเรียนรู้ขั้นต่ำ 0.10 ถูกตั้งค่า สอบสวนก่อนหน้านี้
[32, 33, 37, 49] ระบุว่า กฎนี้ทำงาน
ดีกว่าใช้อัตราเรียน Þxed ในระหว่าง
ทั้งฝึกกระบวน เช่น networkÕs convergency
เพิ่มขึ้นความเร็ว และความถูกต้องของการคาดเดาสำหรับ
classiÞcation หรือเทียบถูกปรับปรุงยัง
การแปล กรุณารอสักครู่..

B, V, Mn, Zn, Fe, Al, Cu, Sr, Ba, Rb, Na, P, Ca, Mg, K in
wine samples were measured by ICP-OES. Both cluster
analysis and principal component analysis were used to
investigate the structure of the data and the three-layer
ANN model was used to classify the wine samples. The
results obtained by ANN were compared with those
obtained by conventional Bayes discrimination analysis
and Fisher discrimination methods.
Chemometric fundamentals
The principles of principal component analysis, cluster
analysis, Bayes discrimination analysis and Fisher discrimination
analysis are described in [44Ð47].
Details of ANN have been extensively explained in
[34, 35, 40, 42, 43]. In the present paper the weights
between hidden node j and input node i are adjusted in
the following way:
*w+*(q)"ed1+o1*#a*w+*(q!1) (1)
where the meaning of the symbols is the same as in
[31, 32, 37]. In this paper, the output of input node i for
the training pattern p, o1* in Eq. (1), was equal to the
input signal to node i, which was in fact the corresponding
element in vector a1, and these input data
were all normalized by the Min-Max procedure [35].
An equation similar to Eq. (1) was used to adjust the
connection weights between output node k and hidden
node j.
A feed-forward ANN model with three layers of
nodes was constructed as shown in Fig. 1. Fifteen
element concentration values (mg/L) were measured at
seventeen di¤erent wavelengths for each wine sample
p (see Experimental section) and the 17-dimensional
concentration vector a1(a11, a12,2, a117) served as the
input pattern; so the input layer contained 17 input
nodes plus 1 bias node. The output layer represented
the six di¤erent geographical origins. The code
(100000) represents wine samples from the Þrst origin
FS, FR and FM (see Table 1); (0 1 0 0 0 0) those from
GW, GR and GS; (0 0 1 0 0 0) those from BG, BS and
BR; (0 0 0 1 0 0) those from DR, DK and DG; (000010)
those from NR andNMand (000001) those from OS,
OM and OR, outputting through six nodes.
During the networkÕs learning process, a series of
input patterns (i.e. 17-dimensional concentration vectors)
with their corresponding expected output patterns
(i.e. the true class of wine samples) were presented to the
network to learn, with the connection weights between
nodes of di¤erent layers adjusted in an iterative fashion
by the error-back-propagation algorithm [39, 40].
When the desired precision level for the discrepancies
between the networkÕs actual and expected outputs was
achieved, the learning process stopped.
Because the concentration range of the trace elements
in wine samples varies, the following Min-Max
Fig. 1 Architecture of a three-layer feed-forward ANN model
p"1, 2,2, 170
transformation for the networkÕs expected output
codes c1, was used to make them lie between 0.20 and
0.80 for smooth convergency:
c+,"0.2#0.6(a+,!a,,.*/)/(a,,.!9!a,,.*/)
(j"1, 2,2, 170; k"1, 2,2, 17) (2)
In order to achieve an optimum learning rate, the
adaptive learning rate method of Vogl [48] was used. If
E1(q))E1(q!1), then e(q#1) was set equal to 0.70:
e(q) to reduce the learning rate; if E1(q)'E1(q!1), then
e(q#1) was set equal to 1.05: e(q) to slightly speed up
the learning rate. This method allowed the network to
rapidly stride across the detrimental search space. In
order to maintain a certain convergency speed of the
network with the decreasing of the objective function E1,
a minimum learning rate of 0.10 was set. Earlier investigations
[32, 33, 37, 49] indicated that this rule worked
better than employing a Þxed learning rate during the
whole training process, i.e., the networkÕs convergency
speed was increased and the prediction accuracy for
classiÞcation or calibration was also improved.
การแปล กรุณารอสักครู่..

B , V , MN , Zn , Fe , Al , Cu , Sr , Ba , RB , นา , P , Ca , Mg , K ในตัวอย่างไวน์
วัดจากรูปแบบ . ทั้งกลุ่ม
การวิเคราะห์และการวิเคราะห์ส่วนประกอบหลักใช้
ศึกษาโครงสร้างของข้อมูลและรูปแบบสามชั้น
แอนใช้จำแนกไวน์ตัวอย่าง
ผลโดย แอน มาเปรียบเทียบกับผู้ที่ได้จากการวิเคราะห์แบบเบส์
จำแนกฟิชเชอร์การแบ่งแยกและวิธีการพื้นฐานคีโมเมตริกซ์
หลักการของการวิเคราะห์องค์ประกอบหลัก การวิเคราะห์จำแนกกลุ่ม
, เบส์และการวิเคราะห์จำแนก
ฟิชเชอร์อธิบายไว้ใน [ 44 Ð 47 ] .
รายละเอียดของแอนได้รับอย่างกว้างขวางอธิบาย
[ 34 , 35 , 40 , 42 , 43 ) ใน ปัจจุบัน กระดาษน้ำหนัก
ระหว่างโหนดโหนด J ใส่ที่ซ่อนอยู่และผมจะถูกปรับ
วิธีดังต่อไปนี้ :* w * ( Q ) " ed1 01 * # * w * ( q ! 1 ) ( 1 )
ที่ความหมายของสัญลักษณ์ที่เป็นเช่นเดียวกับใน
[ 31 , 32 , 37 ) ในกระดาษนี้ การแสดงผลของข้อมูลโหนดฉัน
การฝึกอบรมแบบ P , 01 * ในอีคิว ( 1 ) เท่ากับสัญญาณ
นำเข้าโหนดพ่อ ซึ่งในความเป็นจริงองค์ประกอบที่สอดคล้องกันในเวกเตอร์
A1 และเหล่านี้ข้อมูล
เป็นปกติโดย Min Max ขั้นตอน [ 35 ] .
สมการคล้ายคลึงกับอีคิว( 1 ) คือใช้ในการปรับความสัมพันธ์ระหว่างโหนดออกน้ำหนัก
K และซ่อนปม J .
เป็น feed-forward แอนแบบสามชั้นของ
โหนดถูกสร้างขึ้นดังแสดงในรูปที่ 1 สิบห้า
องค์ประกอบมีค่าความเข้มข้น ( มก. / ล. ) เป็นวัดที่
สิบเจ็ด di ¤ erent ความยาวคลื่นสำหรับแต่ละไวน์ตัวอย่าง
P ( ดูมาตรา 17 คน ) และมิติ
ความเข้มข้นเวกเตอร์ A1 ( a12,2 A11 , ทำหน้าที่เป็น
a117 )ป้อนรูปแบบ ดังนั้นใส่ชั้นอยู่ 17 ใส่
โหนดบวก 1 ตั้งค่าโหนด การแสดงผลชั้นแทน
6 ดิ ¤ erent ทางภูมิศาสตร์ที่ต้นกำเนิด รหัส
( 100000 ) หมายถึงตัวอย่างไวน์จากÞ RST กำเนิด
FS , FR และ FM ( ดูตารางที่ 1 ) ; 0 1 0 0 0 0 ) จาก
GW , GR และ GS ( 0 0 1 0 0 0 ) จาก BG , BS และ
br ( 0 0 0 1 0 0 ) จากดร DK กับ DG ( 000010 )
;จาก andnmand NR ( , 1 ) นั้นมาจาก OS
โอมและหรือสร้างผ่านหกโหนด .
ในระหว่างÕเครือข่ายการเรียนรู้ ชุด
รูปแบบการป้อนข้อมูล ( เช่น 17 มิติความเข้มข้นเวกเตอร์ )
กับสอดคล้องกับผลผลิตที่คาดหวังรูปแบบ
( เช่นห้องตัวอย่างจริงของไวน์ ) เสนอต่อ
เครือข่ายการเรียนรู้ที่มีต่อน้ำหนักระหว่าง
โหนดของ ดิ ¤ erent ชั้นปรับใน
แฟชั่นซ้ำโดยข้อผิดพลาดหลังกระจายขั้นตอนวิธี [ 39 , 40 ] .
เมื่อที่ต้องการความเที่ยงตรงระดับความแตกต่างระหว่างเครือข่ายÕ
ที่เป็นจริงและที่คาดหวังผลคือได้เรียนรู้กระบวนการหยุด .
เพราะความเข้มข้นในช่วงของธาตุ
ในตัวอย่าง ไวน์ที่แตกต่างกันไป ต่อไปนี้ Min Max
ฟิค1 ของสถาปัตยกรรมแบบสามชั้น feed-forward แอน
P " 1 , 2 , 2 , 170
เปลี่ยนแปลงเพื่อÕเครือข่ายออกรหัส C1
คาดว่าจะถูกใช้เพื่อให้อยู่ระหว่าง 0.20 0.80 และเรียบ convergency
:
c " # 0.2 0.6 ( ! , , * / / ( , , ! 9 , , , , , , , . * / )
( J " 1 , 2 , 2 , 170 ; k " 1 , 2 , 2 , 17 ) ( 2 )
เพื่อให้บรรลุอัตราการเรียนรู้ให้เหมาะสม ปรับอัตราการเรียนรู้วิธีการ vogl
[ 48 ] ใช้ ถ้า E1
( Q ) E1 ( Q ! 1 )แล้ว E ( Q # 1 ) เป็นชุด เท่ากับ 0.70 :
e ( Q ) เพื่อลดอัตราการเรียนรู้ ถ้า E1 ( q ) 'e1 ( Q ! 1 ) ,
e ( Q # 1 ) คือชุดเท่ากับ 1.05 : e ( q )
เล็กน้อยเร่งอัตราการเรียนรู้ วิธีนี้อนุญาตให้เครือข่าย
อย่างรวดเร็วก้าวข้ามช่องว่างค้นหา detrimental . ในเพื่อที่จะรักษาความเร็ว convergency
บางเครือข่ายที่มีการลดลงของฟังก์ชันวัตถุประสงค์ E1
อัตราการเรียนรู้ขั้นต่ำ 0.10 คือชุด ก่อนหน้านี้การตรวจสอบ
[ 32 , 33 , 37 , 49 ] ระบุว่า กฎนี้ใช้ได้
ดีกว่าใช้Þ xed อัตราการเรียนรู้ระหว่าง
กระบวนการฝึกอบรมทั้งหมด เช่น Õเครือข่ายความเร็ว convergency
เพิ่มขึ้นและความถูกต้องในการพยากรณ์
Þ classi หรือสอบเทียบก็ปรับปรุง
การแปล กรุณารอสักครู่..
