As most of the L2 cache references are generated by L1 datacache misse การแปล - As most of the L2 cache references are generated by L1 datacache misse ไทย วิธีการพูด

As most of the L2 cache references

As most of the L2 cache references are generated by L1 data
cache misses, we propose to access the location cache only when
the L1 data cache is accessed. Due to the page limitation, we only
present the average results based on all 26 benchmark applications.
Figure 4 presents the prediction accuracy with respect to variation
in the numbers of location cache entries. We also provide the accuracy
of the MRU based prediction scheme. Its hardware complexity
is similar to a location cache with 512 entries. It can be observed
that prediction based on location information has better prediction
rate. When the number of location cache entries is larger than 256,the prediction rate improved drastically, indicating the coverage of
the location cache is very important.

Figure 5 presents the power savings when different number of
location cache entries are used. The power saving is closely related
to the prediction rate and the L1 data cache miss rate. When the L1
data has very high hit rates, the location cache itself will consume
a lot of power, sometimes even more than the power saved in the
L2 cache system. In our experiment, the average L1 data cache
miss rate is 4.9%. It can be observed that in an average, as much
as 47.5% of L2 accessing power can saved by the location cache
design.

Although our primary concern is to save power, the location
cache can also improve the performance. If the processor is able
to support non-unified L2 cache access latency, the location cache
design can also improve the performance of the L2 cache. We use
the average cache access latency, which is the time the cache is
busy for each reference, to evaluate the performance. In general, a
smaller cache latency is preferred. The cache latency for a conventional
set-associative cache is 6 cycles. It is 4 cycles for that of a
direct-mapped cache. We summarize the simulation results in Figure
6. It can be observed that the location cache design can achieve
an average access latency of 4.5 cycles, which is 25% smaller than
the original set-associative cache. We also provide the performance
of the MRU based prediction scheme2. Though the MRU scheme
has good prediction rates, its performance is not as good as that
of the location cache, as prediction performs poorly with applications
like ammp, art and galgel. The long worst-case latency for
MRU way-prediction introduces significant performance degradation.
The location cache design, in any situation, will not hurt the
performance.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
สร้างขึ้นเป็นส่วนใหญ่ของแคช L2 อ้างอิงข้อมูล L1แคชพุ่ง เราถึง สถานที่เก็บแคชเฉพาะเมื่อมีการเข้าถึงแคชข้อมูล L1 เนื่องจากข้อจำกัดที่หน้า เราเท่านั้นแสดงผลค่าเฉลี่ยตามเกณฑ์มาตรฐานโปรแกรม 26 ทั้งหมดรูปที่ 4 แสดงความแม่นยำทำนายเกี่ยวกับการเปลี่ยนแปลงในหมายเลขของรายการการแคชที่ตั้ง นอกจากนี้เรายังมีความถูกต้องของ mru ของการใช้แผนการคาดเดา ความซับซ้อนของฮาร์ดแวร์มีลักษณะคล้ายกับสถานที่เก็บแคช 512 รายการ สามารถสังเกตว่า คาดเดาตามข้อมูลตำแหน่งที่ตั้งได้ดีกว่าคาดเดาอัตรา เมื่อหมายเลขของรายการการแคตั้งมีขนาดใหญ่กว่า 256 ทำนายอัตราการเพิ่มขึ้นอย่างรวดเร็ว ระบุความครอบคลุมของแคที่ตั้งเป็นสิ่งสำคัญมากรูปที่ 5 แสดงการประหยัดพลังงานเมื่อแตกต่างกันจำนวนมีใช้รายการสถานที่เก็บแคช ประหยัดพลังงานมีความสัมพันธ์อย่างใกล้ชิดการทำนายการ แคชข้อมูล L1 และอัตราคิดถึงอัตรา เมื่อ L1ข้อมูลที่มีราคาสูงมากตี แคตำแหน่งตัวเองจะบริโภคจำนวนมากของอำนาจ บางครั้งได้มากกว่าพลังงานที่บันทึกในการระบบแคช L2 ในการทดลองของเรา แคชข้อมูล L1 เฉลี่ยนางสาวอัตราเป็น 4.9% มันจะสังเกตได้จากที่ในค่าเฉลี่ย มากที่สุด47.5% L2 เข้าถึงพลังงานสามารถ บันทึก โดยแคตำแหน่งการออกแบบแม้ว่าความกังวลหลักของเราคือการ ประหยัดพลังงาน สถานที่แคยังสามารถปรับปรุงประสิทธิภาพการทำงาน ถ้าตัวประมวลผลสามารถสนับสนุนร่วมไม่ใช่ L2 แคชเข้าแอบแฝง แคตำแหน่งออกแบบยังสามารถปรับปรุงประสิทธิภาพการทำงานของแคช L2 เราใช้แอบแฝงของเข้าที่ แคเฉลี่ยซึ่งเป็นเวลาที่เป็นแคชไม่ว่างสำหรับการอ้างอิง การประเมินประสิทธิภาพ ทั่วไป การเล็กแคแฝงที่ต้องได้ เวลาแฝงแคสำหรับแบบธรรมดาแคชุดสัมพันธ์ 6 รอบได้ เป็นรอบที่ 4 สำหรับของแคแมปโดยตรง เราสรุปผลการทดลองในรูปที่6.จะสังเกตได้จากแบบแคตำแหน่งสามารถบรรลุแฝงการเข้าเฉลี่ยของวงจร 4.5, 25% ซึ่งน้อยกว่าแคสัมพันธ์ชุดเดิม นอกจากนี้เรายังมีประสิทธิภาพของการแสดงตามคาดเดา scheme2 แม้ว่าโครงร่างแสดงมีราคาคาดเดาที่ดี ประสิทธิภาพการทำงานไม่ดีเท่าที่ของแคตั้ง เป็นการคาดเดาทำงานกับโปรแกรมประยุกต์เช่น ammp ศิลปะ และ galgel เวลาแฝง worst-case ยาวสำหรับแสดงวิธีทำนายแนะนำประสิทธิภาพที่สำคัญสถานแคชออกแบบ ในทุกสถานการณ์ จะไม่เจ็บตัวประสิทธิภาพของ
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
เป็นที่สุดของการอ้างอิงแคช L2 จะถูกสร้างโดยข้อมูล L1
แคชเราเสนอในการเข้าถึงแคชสถานที่เฉพาะเมื่อแคช L1 ข้อมูลที่มีการเข้าถึง
เนื่องจากข้อ จำกัด
หน้าเราจะนำเสนอผลการเฉลี่ยขึ้นอยู่กับการใช้งานทั้ง26 มาตรฐาน.
รูปที่ 4
นำเสนอความถูกต้องของการคาดการณ์เกี่ยวกับการเปลี่ยนแปลงในจำนวนของรายการแคชสถานที่ เรายังให้ความถูกต้องของ MRU ตามโครงการทำนาย
ความซับซ้อนของฮาร์ดแวร์จะคล้ายกับแคชสถานที่ที่มี 512 รายการ ก็สามารถที่จะตั้งข้อสังเกตว่าการคาดการณ์บนพื้นฐานของข้อมูลที่ตั้งดีกว่าที่มีการคาดการณ์อัตรา เมื่อจำนวนของรายการแคชสถานที่มีขนาดใหญ่กว่า 256 อัตราการทำนายรุนแรงขึ้นแสดงให้เห็นความคุ้มครองของแคชสถานที่มีความสำคัญมาก. รูปที่ 5 นำเสนอการประหยัดพลังงานเมื่อจำนวนที่แตกต่างกันของรายการแคชสถานที่ถูกนำมาใช้ การประหยัดพลังงานที่เกี่ยวข้องอย่างใกล้ชิดกับอัตราการทำนายและแคชข้อมูล L1 อัตราพลาด เมื่อ L1 ข้อมูลที่มีสูงมากอัตราการตีแคชสถานที่ตัวเองจะใช้พลังงานมากบางครั้งมากยิ่งขึ้นกว่าพลังงานที่บันทึกไว้ในระบบแคชL2 ในการทดลองของเราเฉลี่ยแคชข้อมูล L1 อัตราพลาดคือ 4.9% ก็สามารถที่จะตั้งข้อสังเกตว่าในค่าเฉลี่ยเท่าเป็น 47.5% ของการเข้าถึงอำนาจ L2 สามารถบันทึกไว้โดยแคชสถานที่การออกแบบ. แม้ว่าความกังวลหลักของเราคือการประหยัดพลังงานที่ตั้งแคชยังสามารถปรับปรุงประสิทธิภาพการทำงาน ถ้าหน่วยประมวลผลจะสามารถให้การสนับสนุนที่ไม่ใช่แบบครบวงจร L2 แฝงเข้าถึงแคชแคชสถานที่การออกแบบยังสามารถปรับปรุงประสิทธิภาพการทำงานของแคชL2 เราใช้ความล่าช้าเข้าถึงแคชเฉลี่ยซึ่งเป็นเวลาที่แคชเป็นที่ว่างสำหรับการอ้างอิงแต่ละการประเมินผลการปฏิบัติงาน โดยทั่วไปแฝงแคชที่มีขนาดเล็กเป็นที่ต้องการ แอบแฝงแคชสำหรับการชุมนุมแคชตั้งเชื่อมโยงเป็น 6 รอบ มันเป็น 4 รอบที่ของแคชตรงแมป เราสรุปผลการจำลองในรูปที่6 ก็สามารถที่จะตั้งข้อสังเกตว่าการออกแบบแคชสถานที่สามารถบรรลุแฝงเข้าถึงโดยเฉลี่ย 4.5 รอบซึ่งเป็น 25% มีขนาดเล็กกว่าแคชตั้งเชื่อมโยงเดิม เรายังให้ประสิทธิภาพการทำงานของ MRU scheme2 ตามการคาดการณ์ แม้ว่าโครงการ MRU มีอัตราการทำนายที่ดีประสิทธิภาพการทำงานไม่ได้ดีเท่าที่แคชสถานที่เช่นการทำนายประสิทธิภาพต่ำกับการใช้งานเช่นammp ศิลปะและ galgel แฝงยาวที่เลวร้ายที่สุดกรณีMRU ทางทำนายแนะนำลดประสิทธิภาพการทำงานอย่างมีนัยสำคัญ. ออกแบบแคชที่ตั้งในสถานการณ์ใด ๆ ที่จะไม่ทำร้ายประสิทธิภาพ


































การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
ส่วนใหญ่ของแคช L2 ที่ถูกสร้างขึ้นโดยอ้างอิง L1 แคชข้อมูล
คิดถึงเราเสนอที่จะเข้าถึงสถานที่แคช L1 แคชเมื่อ
ข้อมูลที่มีการเข้าถึง เนื่องจากหน้าข้อจำกัด เราเท่านั้น
ปัจจุบันเฉลี่ยผลจากทั้งหมด 26 โปรแกรม Benchmark .
รูปที่ 4 แสดงการคาดการณ์ความถูกต้องเกี่ยวกับการเปลี่ยนแปลง
ในตัวเลขของรายการแคชที่ตั้ง เรายังให้ความถูกต้อง
ใน Mru โครงการพยากรณ์ตาม ฮาร์ดแวร์ของความซับซ้อน
คล้ายกับสถานที่แคชกับ 512 รายการ จะสามารถสังเกตได้ว่า การทำนายขึ้นอยู่กับข้อมูลสถานที่

มีการพยากรณ์อัตราที่ดีกว่า เมื่อจำนวนของรายการแคชสถานที่มีขนาดใหญ่กว่า 256 , การทำนายอัตราการเพิ่มขึ้นอย่างมาก ซึ่งครอบคลุมสถานที่แคช


เป็นสิ่งสำคัญมากรูปที่ 5 แสดงประหยัดพลังงานเมื่อมีตัวเลขที่แตกต่างกันของ
รายการแคชสถานที่จะใช้ การประหยัดพลังงานเกี่ยวข้องอย่างใกล้ชิด
เพื่อพยากรณ์และอัตราข้อมูลแคช L1 คุณอัตรา เมื่อข้อมูล l1
มีอัตราตีสูงมาก แคชสถานที่ตัวเองจะกิน
พลังงานมาก บางครั้งมากกว่าพลังงานที่บันทึกไว้ในระบบแคช L2
. ในการทดลองของเรา มีแคช L1
ข้อมูลนางสาว ราคา 4.9 ล้านบาท พบว่าโดยเฉลี่ยแล้ว มาก
เป็น 47.5% ของ L2 การเข้าถึงพลังงานสามารถช่วยโดยการออกแบบสถานที่แคช


แม้ว่าความกังวลหลักของเราคือการ ประหยัดพลังงาน ที่ตั้ง
แคชสามารถปรับปรุงประสิทธิภาพ ถ้าตัวประมวลผลจะสามารถสนับสนุนรวมแคช L2
ไม่เข้าถึงศักยภาพ , สถานที่แคช
ออกแบบยังสามารถปรับปรุงประสิทธิภาพของ L2 แคช เราใช้
โดยการเข้าถึงแคชสนับสนุน ซึ่งเป็นเวลาที่แคช
ไม่ว่างสำหรับแต่ละอ้างอิง เพื่อประเมินประสิทธิภาพ โดยทั่วไป ,
ขนาดเล็กแคชแอบแฝงคือต้องการ ศักยภาพของแคชที่เกี่ยวข้องแบบ
ตั้ง 6 รอบ เป็น 4 รอบ สำหรับของ
ตรงแมปแคช เราสรุปผลการจำลองแบบในรูป
6พบว่าตำแหน่งแคชออกแบบสามารถบรรลุ
เป็นศักยภาพเข้าถึงโดยเฉลี่ย 4.5 รอบ ซึ่งมีขนาดเล็กกว่า 25 %
ชุดเดิมเชื่อมโยงแคช เรายังให้สมรรถนะใน Mru ตามคำทำนาย scheme2
. แม้ว่า Mru โครงการ
มีอัตราการคาดการณ์ที่ดี ประสิทธิภาพของมันไม่ได้ดีเท่านั่น
ของสถานที่แคช เป็นคำทำนายการไม่ดีกับโปรแกรมประยุกต์
ชอบ ammp , ศิลปะและ galgel . ยาวทินแฝงสำหรับ
Mru วิธีทำนายแนะนําการเสื่อมประสิทธิภาพอย่างมีนัยสำคัญ .
สถานที่แคชการออกแบบ ในสถานการณ์ใด ๆ จะได้ไม่เจ็บ

)
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: