1 IntroductionProcessor-cache affinity scheduling is of growing intere การแปล - 1 IntroductionProcessor-cache affinity scheduling is of growing intere ไทย วิธีการพูด

1 IntroductionProcessor-cache affin

1 Introduction
Processor-cache affinity scheduling is of growing interest as processor
speeds continue to increase faster than memory speeds
[4, 7, 13, 20, 26, 281. On modem shared-memory machines, the
time required to access an uncached memory location is typically
much larger than the time to access one cached locally. For
example, on the Silicon Graphics Challenge XL multiprocessor,
the experimental platform used in our research, a memory reference
can be serviced by the first-level cache in one processor
cycle-whereas the fastest main memory access over the shared
bus requires over 100 cycles. Such vastly different memory access
times have motivated the development of “affinity-based”
scheduling, which attempts to manage processors and threads in a
manner that reduces cache misses and decreases execution times.
In this paper, we explore affinity-based scheduling of parallel
network protocol processing, an area of research which has recently
generated considerable interest (e.g., [2, 5, 11, 15, 18, 23,
241). The use: of parallelism in protocol processing is motivated
by the development of high-speed networks, such as ATM, capable
of delivering gigabit-range bandwidth to individual machines.
Emerging large-scale server applications, such as digital multimedia
information respositories, require application-level access to
high network bandwidth. Distributed applications, on the other
hand, typically rely on very low-latency communication. Network
parallelism in the host operating system-both within and among
connections--can both increase the bandwidth and decrease the
latency of multiprocessor communication. In general, some form
of network parallelism is generally necessary on multiprocessor
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
1 การแนะนำการจัดตารางความสัมพันธ์
ประมวลผลแคชเป็นที่สนใจเพิ่มขึ้นเรื่อย ๆ ในขณะที่หน่วยประมวลผลความเร็ว
ยังคงเพิ่มขึ้นเร็วกว่าความเร็วหน่วยความจำ
[4, 7, 13, 20, 26, 281 บนเครื่องที่ใช้ร่วมกันหน่วยความจำโมเด็มเวลา
จำเป็นในการเข้าถึงหน่วยความจำตำแหน่ง uncached เป็นปกติ
มีขนาดใหญ่กว่าเวลาในการเข้าถึงหนึ่งที่เก็บในแคช ตัวอย่างเช่น
บนซิลิคอนกราฟิกความท้าทาย XL มัลติ
แพลตฟอร์มการทดลองที่ใช้ในการวิจัยของเรา
อ้างอิงหน่วยความจำที่สามารถบริการโดยแคชระดับแรกในหนึ่งหน่วยประมวลผล
วงจรในขณะที่การเข้าถึงหน่วยความจำที่เร็วที่สุดหลักกว่ารถบัส
ที่ใช้ร่วมกันต้องใช้กว่า 100 รอบ เช่นการเข้าถึงหน่วยความจำที่แตกต่างกันอย่างมากมาย
ครั้งได้แรงบันดาลใจการพัฒนาของ "ความสัมพันธ์ตาม" เวลา
ซึ่งความพยายามที่จะจัดการประมวลผลและหัวข้อใน
ลักษณะที่ลดแคชพลาดและลดการดำเนินการครั้ง.
ในบทความนี้เราจะสำรวจการกำหนดความสัมพันธ์ตามแบบขนาน
โปรโตคอลเครือข่ายการประมวลผลพื้นที่ของการวิจัยที่มีความสนใจเมื่อเร็ว ๆ นี้
มากสร้างขึ้น (เช่น [2, 5, 11, 15 , 18, 23, 241
) ใช้: ของความเท่าเทียมในการประมวลผลโปรโตคอลเป็นแรงบันดาลใจ
ด้วยการพัฒนาของเครือข่ายความเร็วสูงเช่น ATM ความสามารถ
ในการส่งมอบแบนด์วิดธ์กิกะบิตช่วงที่เครื่องแต่ละเครื่อง.
ที่เกิดขึ้นใหม่ขนาดใหญ่การใช้งานเซิร์ฟเวอร์เช่นดิจิตอลมัลติมีเดีย
respositories ข้อมูลจำเป็นต้องเข้าถึงระดับโปรแกรมประยุกต์เพื่อให้เครือข่ายแบนด์วิธสูง
กระจายการใช้งานบนมือ
อื่น ๆ ที่มักจะพึ่งพาการสื่อสารมากแฝงต่ำ เครือข่าย
ขนานในระบบปฏิบัติการโฮสต์ทั้งภายในและระหว่าง
การเชื่อมต่อ - ทั้งสามารถเพิ่มแบนด์วิดธ์และลดความล่าช้า
จากการสื่อสารแบบมัลติโปรเซสเซอร์ โดยทั่วไป
รูปแบบของเครือข่ายการทำงานแบบขนานโดยทั่วไปจำเป็นมัลติ
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
แนะนำ 1
การจัดกำหนดการความสัมพันธ์ตัวประมวลผลแคชเป็นเติบโตสนใจเป็นประมวลผล
ความเร็วยังคงเพิ่มขึ้นเร็วกว่าความเร็วของหน่วยความจำ
[4, 7, 13, 20, 26, 281 บนโมเด็มที่ใช้ร่วมกันหน่วยความจำเครื่อง การ
เวลาต้องเข้าถึงตำแหน่งหน่วยความจำ uncached การจะ
มากมากกว่าเวลาถึงหนึ่งถูกเก็บไว้ในเครื่อง สำหรับ
ตัวอย่าง ใน multiprocessor ซิลิคอนกราฟิกท้าทาย XL,
แพลตฟอร์มทดลองที่ใช้ในการวิจัยของเรา การอ้างอิงหน่วยความจำ
สามารถบริการ โดยระดับแรกแคชในตัวประมวลผลหนึ่ง
รอบ-ในขณะที่การเข้าถึงหน่วยความจำหลักที่เร็วที่สุดผ่านการร่วม
รถต้องการรอบ 100 เข้าถึงหน่วยความจำเสมือนที่แตกต่างกันเช่น
ครั้งมีแรงจูงใจการพัฒนา "ยึดความสัมพันธ์"
การจัดกำหนดการ ซึ่งพยายามจัดการโปรเซสเซอร์ และกระทู้ในการ
ลักษณะที่ลดแคพลาด และลดเวลาการดำเนินการ
ในกระดาษนี้ เราได้ความสัมพันธ์ตามกำหนดการพร้อมกัน
รโทคอลเครือข่ายประมวลผล พื้นที่ของการวิจัยซึ่งมีล่า
สร้างสนใจมาก (เช่น, [2, 5, 11, 15, 18, 23,
241) การใช้: เป็นแรงจูงใจของ parallelism ในโพรโทคอลการ ประมวลผล
โดยการพัฒนาเครือข่ายความเร็วสูง เช่น ATM สามารถ
ของแบนด์วิธของกิกะบิตช่วงไปแต่ละเครื่อง
ใหม่โปรแกรมประยุกต์เซิร์ฟเวอร์ขนาดใหญ่ เช่นมัลติมีเดียดิจิตอล
ระดับโปรแกรมประยุกต์เข้าถึงต้องการข้อมูล respositories
แบนด์วิธเครือข่ายที่สูง กระจายโปรแกรมประยุกต์ อื่น ๆ
มือ โดยทั่วไปใช้สื่อสารแฝงต่ำมาก เครือข่าย
parallelism ในโฮสต์ระบบปฏิบัติการทั้งภายใน และระหว่าง
-การเชื่อมต่อสามารถเพิ่มแบนด์วิธ และลดการ
แฝงสื่อสารมัลติโปรเซสเซอร์ได้ ทั่วไป บางฟอร์ม
เป็นสิ่งจำเป็นโดยทั่วไปของเครือข่าย parallelism บน multiprocessor
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
1 การแนะนำ
การกำหนดตารางเวลาการความสัมพันธ์ของโปรเซสเซอร์ - แคชได้รับความสนใจมากขึ้นเป็นโปรเซสเซอร์ต่อไป
ซึ่งจะช่วยเพิ่มความเร็วในการเพิ่มขึ้นเร็วกว่าความเร็วหน่วยความจำ
[ 47132026281 ใช้ร่วมกันบนเครื่อง - หน่วยความจำโมเด็มที่ตั้งที่
เวลาที่ใช้ในการเข้าถึงหน่วยความจำ uncached ที่โดยทั่วไปจะมีขนาดใหญ่กว่า
เวลาที่ใช้ในการเข้าถึงหนึ่งในแคชของเครื่อง สำหรับ
ตัวอย่างเช่นในซิลิโคนขนาด XL มัลติโปรเซสเซอร์กราฟิกความท้าทายที่
แพลตฟอร์มที่ใช้ทดลองในการวิจัยของเราการอ้างอิงหน่วยความจำ
ซึ่งจะช่วยให้สามารถจัดให้บริการด้วยแคชระดับ First - ระดับที่อยู่ในโปรเซสเซอร์ตัวเดียวสามารถเข้าถึง
ซึ่งจะช่วยวงจรหน่วยความจำหลักในขณะที่ความเร็วสูงสุดมากกว่าใช้ร่วมกัน
ซึ่งจะช่วยรถโดยสารที่ต้องใช้มากกว่า 100 รอบ ซึ่งจะแตกต่างกันเช่นการเข้าถึงหน่วยความจำ
ซึ่งจะช่วยสร้างแรงจูงใจการพัฒนาครั้งที่ของ"ความสัมพันธ์กับ - ใช้"
การกำหนดตารางเวลาการซึ่งความพยายามในการจัดการกับเธรดและโปรเซสเซอร์ใน
ลักษณะที่มีคุณสมบัติในการลดขนาดแคชและลดลงพลาดเวลาการประมวลผล
ในเอกสารนี้เราจะได้สำรวจความสัมพันธ์การกำหนดตารางเวลาการใช้การประมวลผลของโปรโตคอลเครือข่ายแบบขนาน
ซึ่งจะช่วยในการวิจัยซึ่งได้รับความสนใจอย่างมาก(เช่น[ 2 - 511151823
สวยงามดังนั้น 241 )เมื่อไม่นานมานี้
ในการใช้การทำงานแบบขนานในการประมวลผลโปรโตคอล
ซึ่งจะช่วยเป็นแรงจูงใจโดยการพัฒนาเครือข่ายความเร็วสูงเช่น ATM สามารถตอบแทน
ในการส่งมอบแบนด์วิดธ์ Gigabit - หลากหลายไปจนถึงเครื่องแต่ละ.
เกิดขึ้นแอปพลิเคชันเซิร์ฟเวอร์ขนาดใหญ่เช่น respositories มัลติมีเดีย
ข้อมูลดิจิตอลต้องใช้การเชื่อมต่อระดับแอพพลิเคชันให้กับแบนด์วิดธ์เครือข่ายสูง
แอปพลิเคชันการจำหน่ายอื่นๆ
มือที่โดยปกติแล้วต้องอาศัยในการสื่อสารเป็นอย่างมากความหน่วงแฝงต่ำ การทำงานแบบขนานเครือข่าย
ในระบบปฏิบัติการโฮสต์ที่ทั้ง ภายใน และระหว่าง
การเชื่อมต่อจะเป็นทั้งการเพิ่มแบนด์วิดธ์ที่ลดลงและ
ซึ่งจะช่วยลดความล่าช้าของการสื่อสารมัลติโปรเซสเซอร์ โดยทั่วไปแล้วบางรูปแบบ
ซึ่งจะช่วยในการทำงานแบบขนานเครือข่ายมีความจำเป็นโดยทั่วไปแล้วในมัลติโปรเซสเซอร์
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: