2.1.2 The Supervised Learning Problem
Defining the Problem
The Supervised Learning Problem is, given a finite training set, t, to update w so as to
minimise equation (2.5). It can be seen that this is the challenge of reconstructing the map
φ from the set t, in spite of the fact that it is a limited, noisy sample of φ’s behaviour.
We have w′ ← L(f, t, w), which indicates that our learning algorithm L has updated the
parameter vector w. For the class of predictors we will be considering, it is common for an
input to the learning algorithm to be a random initialisation of the parameter vector, drawn
according to the distribution of the random variable W, which for this thesis we define as
uniform over [ −0.5, 0.5]k.
The “trained” function f( ·; w) is dependent on two random variables, T and W. Once
trained, for any input from the space X, the function will now map2 it to a point in the
output space Y; if it received a different training set or parameter initialization, it may have
performed a different mapping. As previously mentioned, when calculating any measure
based on our predictor, we would like to eliminate these random influences. For a particular
input vector x, the expected value of the predictor f is defined as:
2.1.2 The Supervised Learning ProblemDefining the ProblemThe Supervised Learning Problem is, given a finite training set, t, to update w so as tominimise equation (2.5). It can be seen that this is the challenge of reconstructing the mapφ from the set t, in spite of the fact that it is a limited, noisy sample of φ’s behaviour.We have w′ ← L(f, t, w), which indicates that our learning algorithm L has updated theparameter vector w. For the class of predictors we will be considering, it is common for aninput to the learning algorithm to be a random initialisation of the parameter vector, drawnaccording to the distribution of the random variable W, which for this thesis we define asuniform over [ −0.5, 0.5]k.The “trained” function f( ·; w) is dependent on two random variables, T and W. Oncetrained, for any input from the space X, the function will now map2 it to a point in theoutput space Y; if it received a different training set or parameter initialization, it may haveperformed a different mapping. As previously mentioned, when calculating any measurebased on our predictor, we would like to eliminate these random influences. For a particularinput vector x, the expected value of the predictor f is defined as:
การแปล กรุณารอสักครู่..

2.1.2 ดูแลปัญหาการเรียน
การกำหนดปัญหาการเรียน ปัญหาคือ ให้จำกัดการตั้งค่า , t , W เพื่อปรับปรุง
ลดสมการ ( 2 ) จะเห็นได้ว่า นี่คือความท้าทายของการฟื้นฟูการφแผนที่
จากชุดที ทั้งๆที่ความจริง มันเป็นเสียงของφจำกัด ตัวอย่างของพฤติกรรม เราต้องดูแล←
w L ( f , t , W )ซึ่งพบว่า การเรียนรู้ของเรามีการปรับปรุงอัลกอริทึม L
เวกเตอร์สำหรับชั้นเรียนตัวแปรพารามิเตอร์ . เรา จะ พิจารณา มันเป็นเรื่องธรรมดาสำหรับ
ใส่ขั้นตอนวิธีการเรียนรู้เป็น initialisation สุ่มของตัวแปรเวกเตอร์ , วาด
ตามการกระจายของตัวแปรสุ่ม W ซึ่งในวิทยานิพนธ์นี้เรากำหนดเป็น
ชุดมากกว่า [ − 0.5 , 0.5 ] K .
" ฝึก " ฟังก์ชัน f ( ด้วย ;W ) จะขึ้นอยู่กับสองตัวแปรสุ่ม T และ ครั้งเดียว
การฝึกอบรมสำหรับสัญญาณใด ๆจากพื้นที่ X , ฟังก์ชันนี้จะ map2 ไปยังจุดในพื้นที่ออก
Y ; ถ้ามันได้รับการตั้งค่าพารามิเตอร์ที่แตกต่างกันหรือการเริ่มต้น มันอาจมี
แสดงแผนที่ที่แตกต่างกัน ตามที่กล่าวถึงก่อนหน้านี้ เมื่อคำนวณตามมาตรฐาน
) ของเราเราต้องการที่จะขจัดอิทธิพลสุ่ม เหล่านี้ สำหรับเฉพาะ
อินพุตเวกเตอร์ x , ค่าคาดหวังของตัว F หมายถึง :
การแปล กรุณารอสักครู่..
