1 Introduction
Processor-cache affinity scheduling is of growing interest as processor
speeds continue to increase faster than memory speeds
[4, 7, 13, 20, 26, 281. On modem shared-memory machines, the
time required to access an uncached memory location is typically
much larger than the time to access one cached locally. For
example, on the Silicon Graphics Challenge XL multiprocessor,
the experimental platform used in our research, a memory reference
can be serviced by the first-level cache in one processor
cycle-whereas the fastest main memory access over the shared
bus requires over 100 cycles. Such vastly different memory access
times have motivated the development of “affinity-based”
scheduling, which attempts to manage processors and threads in a
manner that reduces cache misses and decreases execution times.
In this paper, we explore affinity-based scheduling of parallel
network protocol processing, an area of research which has recently
generated considerable interest (e.g., [2, 5, 11, 15, 18, 23,
241). The use: of parallelism in protocol processing is motivated
by the development of high-speed networks, such as ATM, capable
of delivering gigabit-range bandwidth to individual machines.
Emerging large-scale server applications, such as digital multimedia
information respositories, require application-level access to
high network bandwidth. Distributed applications, on the other
hand, typically rely on very low-latency communication. Network
parallelism in the host operating system-both within and among
connections--can both increase the bandwidth and decrease the
latency of multiprocessor communication. In general, some form
of network parallelism is generally necessary on multiprocessor
1 การแนะนำการจัดตารางความสัมพันธ์
ประมวลผลแคชเป็นที่สนใจเพิ่มขึ้นเรื่อย ๆ ในขณะที่หน่วยประมวลผลความเร็ว
ยังคงเพิ่มขึ้นเร็วกว่าความเร็วหน่วยความจำ
[4, 7, 13, 20, 26, 281 บนเครื่องที่ใช้ร่วมกันหน่วยความจำโมเด็มเวลา
จำเป็นในการเข้าถึงหน่วยความจำตำแหน่ง uncached เป็นปกติ
มีขนาดใหญ่กว่าเวลาในการเข้าถึงหนึ่งที่เก็บในแคช ตัวอย่างเช่น
บนซิลิคอนกราฟิกความท้าทาย XL มัลติ
แพลตฟอร์มการทดลองที่ใช้ในการวิจัยของเรา
อ้างอิงหน่วยความจำที่สามารถบริการโดยแคชระดับแรกในหนึ่งหน่วยประมวลผล
วงจรในขณะที่การเข้าถึงหน่วยความจำที่เร็วที่สุดหลักกว่ารถบัส
ที่ใช้ร่วมกันต้องใช้กว่า 100 รอบ เช่นการเข้าถึงหน่วยความจำที่แตกต่างกันอย่างมากมาย
ครั้งได้แรงบันดาลใจการพัฒนาของ "ความสัมพันธ์ตาม" เวลา
ซึ่งความพยายามที่จะจัดการประมวลผลและหัวข้อใน
ลักษณะที่ลดแคชพลาดและลดการดำเนินการครั้ง.
ในบทความนี้เราจะสำรวจการกำหนดความสัมพันธ์ตามแบบขนาน
โปรโตคอลเครือข่ายการประมวลผลพื้นที่ของการวิจัยที่มีความสนใจเมื่อเร็ว ๆ นี้
มากสร้างขึ้น (เช่น [2, 5, 11, 15 , 18, 23, 241
) ใช้: ของความเท่าเทียมในการประมวลผลโปรโตคอลเป็นแรงบันดาลใจ
ด้วยการพัฒนาของเครือข่ายความเร็วสูงเช่น ATM ความสามารถ
ในการส่งมอบแบนด์วิดธ์กิกะบิตช่วงที่เครื่องแต่ละเครื่อง.
ที่เกิดขึ้นใหม่ขนาดใหญ่การใช้งานเซิร์ฟเวอร์เช่นดิจิตอลมัลติมีเดีย
respositories ข้อมูลจำเป็นต้องเข้าถึงระดับโปรแกรมประยุกต์เพื่อให้เครือข่ายแบนด์วิธสูง
กระจายการใช้งานบนมือ
อื่น ๆ ที่มักจะพึ่งพาการสื่อสารมากแฝงต่ำ เครือข่าย
ขนานในระบบปฏิบัติการโฮสต์ทั้งภายในและระหว่าง
การเชื่อมต่อ - ทั้งสามารถเพิ่มแบนด์วิดธ์และลดความล่าช้า
จากการสื่อสารแบบมัลติโปรเซสเซอร์ โดยทั่วไป
รูปแบบของเครือข่ายการทำงานแบบขนานโดยทั่วไปจำเป็นมัลติ
การแปล กรุณารอสักครู่..

แนะนำ 1
การจัดกำหนดการความสัมพันธ์ตัวประมวลผลแคชเป็นเติบโตสนใจเป็นประมวลผล
ความเร็วยังคงเพิ่มขึ้นเร็วกว่าความเร็วของหน่วยความจำ
[4, 7, 13, 20, 26, 281 บนโมเด็มที่ใช้ร่วมกันหน่วยความจำเครื่อง การ
เวลาต้องเข้าถึงตำแหน่งหน่วยความจำ uncached การจะ
มากมากกว่าเวลาถึงหนึ่งถูกเก็บไว้ในเครื่อง สำหรับ
ตัวอย่าง ใน multiprocessor ซิลิคอนกราฟิกท้าทาย XL,
แพลตฟอร์มทดลองที่ใช้ในการวิจัยของเรา การอ้างอิงหน่วยความจำ
สามารถบริการ โดยระดับแรกแคชในตัวประมวลผลหนึ่ง
รอบ-ในขณะที่การเข้าถึงหน่วยความจำหลักที่เร็วที่สุดผ่านการร่วม
รถต้องการรอบ 100 เข้าถึงหน่วยความจำเสมือนที่แตกต่างกันเช่น
ครั้งมีแรงจูงใจการพัฒนา "ยึดความสัมพันธ์"
การจัดกำหนดการ ซึ่งพยายามจัดการโปรเซสเซอร์ และกระทู้ในการ
ลักษณะที่ลดแคพลาด และลดเวลาการดำเนินการ
ในกระดาษนี้ เราได้ความสัมพันธ์ตามกำหนดการพร้อมกัน
รโทคอลเครือข่ายประมวลผล พื้นที่ของการวิจัยซึ่งมีล่า
สร้างสนใจมาก (เช่น, [2, 5, 11, 15, 18, 23,
241) การใช้: เป็นแรงจูงใจของ parallelism ในโพรโทคอลการ ประมวลผล
โดยการพัฒนาเครือข่ายความเร็วสูง เช่น ATM สามารถ
ของแบนด์วิธของกิกะบิตช่วงไปแต่ละเครื่อง
ใหม่โปรแกรมประยุกต์เซิร์ฟเวอร์ขนาดใหญ่ เช่นมัลติมีเดียดิจิตอล
ระดับโปรแกรมประยุกต์เข้าถึงต้องการข้อมูล respositories
แบนด์วิธเครือข่ายที่สูง กระจายโปรแกรมประยุกต์ อื่น ๆ
มือ โดยทั่วไปใช้สื่อสารแฝงต่ำมาก เครือข่าย
parallelism ในโฮสต์ระบบปฏิบัติการทั้งภายใน และระหว่าง
-การเชื่อมต่อสามารถเพิ่มแบนด์วิธ และลดการ
แฝงสื่อสารมัลติโปรเซสเซอร์ได้ ทั่วไป บางฟอร์ม
เป็นสิ่งจำเป็นโดยทั่วไปของเครือข่าย parallelism บน multiprocessor
การแปล กรุณารอสักครู่..
