Figure 7: Read and write performance of default and tuned
MVAPICH2’s eager threshold settings.
5.1 Point-to-Point Protocol Threshold
To demonstrate the performance improvement achieved
by tuning the point-to-point protocol threshold we selected
a benchmark that mimics a modified version of the CFOUR
Quantum Chemistry Application7
[7]. This version, provided
by Simmons and Schulz [20] augments CFOUR by
using the open-source GRVY toolkit library8
to convert disk
transactions into distributed memory transactions using MPI.
The benchmark reads and writes fixed records in random
order as part of an out-of-core solve procedure. For this
case study the offload hosts are placed on different nodes
to maximize the available memory. By using MPI Advisor,
we discovered that the messages were mainly point-to-point
7http://www.cfour.de/
8https://red.ices.utexas.edu/projects/software/wiki/
GRVY
Eager vs . rendezvous program details :
- Number of call sites that used MPI_Send : 1
- Maximum median size ( bytes ) of messages sent
through MPI_Send : 131072
- Eager threshold of MPI library ( bytes ): 17408
- For more details on the messages sent ,
consult the mpiP report : ./ cfour .88089.1. mpiP
Eager vs . rendezvous suggestions :
- POSSIBLE OPTIMIZATION : The maximum of the
median messages sent is 131072 bytes , but
the eager threshold of the MPI Library is
17408. Consider increasing the eager thres -
hold to a value higher than 131072 bytes .
- WARNING : Increasing the eager threshold will
also increase MPI library memory footprint .
MVAPICH2 command that can be used to change the
eager threshold :
- MV2_IBA_EAGER_THRESHOLD =< nbytes >
- Related documentation can be found in :
http :// mvapich . cse . ohio - state . edu / support /
Listing 1: MPI Advisor recommendation for tuning the
point-to-point eager vs. rendezvous protocol threshold for
a benchmark that mimics CFOUR.
with sizes around 256 KB or less. Following the advice provided
by the tool and shown in Listing 1, we changed the
value of the eager threshold of MVAPICH2 from 17 KB to
256 KB by setting the value of MV2_IBA_EAGER_THRESHOLD
to 262144. Running the micro-benchmark with the 256 KB
threshold yielded a significant improvement for write and
read operations. The results, presented in Figure 7, report
the aggregate write and read speeds for the default
and tuned MVAPICH2 settings.
5.2 Algorithms for Collective Operations
To illustrate the performance benefit obtainable from tuning
collective operations, we use the ASP [9] application,
which is a parallel implementation of the Floyd-Warshall algorithm
used to solve the all-pairs shortest-path problem.
ASP mainly uses MPI Bcast and changes the root of the
broadcast operation for each iteration. On Maverick Intel
MPI outperforms MVAPICH2 for ASP. The default con-
figuration of MVAPICH2 is tuned based on OMB, which
always uses the same root for collective operations. Following
the tool’s recommendation, which is shown in Listing 2,
we were able to improve the performance of ASP by 8.3%.
Table 5 provides the results obtained by MVAPICH2 with
tuned and default settings, and Intel MPI on the Maverick
cluster using 80 MPI tasks. MPI Advisor does not provide
any recommendation for Intel MPI because its default value
is already tuned.
MVAPICH2 MVAPICH2 Intel MPI
Default Tuned Default
24.45 22.41 22.38
Table 5: ASP execution time (seconds) on 80 cores.
5.3 Mapping of MPI Tasks to Cores
To illustrate the benefits of using MPI Advisor to tune
the MPI tasks-to-cores mapping we use HPCG [3]. HPCG
is an application that is used as an alternative ranking of
the TOP500 list9
and can be used only with MPI or with
9http://www.top500.org/
Collective program details :
- Number of call sites that used MPI_Bcast : 1
- Average MPI_Bcast message sizes :
* Callsite ID : 2, size : 2097152
- MPI_Bcast algorithm employed : 5
- Root is changing
- For more details on the messages sent ,
consult the mpiP report : ./ asp .8.22585.1. mpiP
Collective suggestions :
- POSSIBLE OPTIMIZATION : The algorithm being
employed for MPI BCAST may not provide the
best performance for the messages being sent .
* Consider changing to algorithm 2
MVAPICH2 command that can be used to change the
MPI_Bcast algorithm :
- MV2_INTER_BCAST_TUNING =
Listing 2: MPI Advisor recommendation for selecting the
appropriate collective operation algorithm for ASP.
รูปที่ 7: อ่านและเขียนผลการดำเนินงานของการเริ่มต้นและปรับ
. การตั้งค่าเกณฑ์ความกระตือรือร้น MVAPICH2 ของ
5.1 พีพีพีเกณฑ์
ในการแสดงให้เห็นถึงการปรับปรุงประสิทธิภาพการทำงานประสบความสำเร็จ
โดยการปรับเกณฑ์โปรโตคอลแบบจุดต่อจุดที่เราเลือก
มาตรฐานที่เลียนแบบรุ่นที่ปรับเปลี่ยน CFOUR
ควอนตัมเคมี Application7
[7] รุ่นนี้ให้
โดยซิมมอนส์ชูลซ์ [20] augments CFOUR โดย
ใช้โอเพนซอร์ส GRVY Toolkit library8
การแปลงดิสก์
การทำธุรกรรมการทำธุรกรรมหน่วยความจำการกระจายการใช้ MPI.
ดัชนีการอ่านและเขียนบันทึกที่คงที่ในการสุ่ม
เพื่อเป็นส่วนหนึ่งของออกจาก -core แก้ขั้นตอน สำหรับเรื่องนี้
กรณีศึกษาเจ้าภาพ Offload จะถูกวางไว้บนโหนดที่แตกต่างกัน
เพื่อเพิ่มหน่วยความจำที่มีอยู่ โดยใช้ MPI ปรึกษา
เราค้นพบว่าข้อความส่วนใหญ่เป็นจุดหนึ่งไปยังจุด
7http: //www.cfour.de/
8https: //red.ices.utexas.edu/projects/software/wiki/
GRVY
กระตือรือร้น VS รายละเอียดโปรแกรมการนัดพบ:
- จำนวนเว็บไซต์ที่เรียกใช้ MPI_Send: 1
- ขนาดเฉลี่ยสูงสุด (ไบต์) ข้อความที่ส่ง
ผ่าน MPI_Send: 131072
- เกณฑ์กระตือรือร้นของไลบรารี MPI (ไบต์): 17408
- สำหรับรายละเอียดเพิ่มเติมเกี่ยวกับข้อความที่ส่ง,
ปรึกษา รายงาน mpiP: ./ cfour .88089.1 mpiP
กระตือรือร้น VS ข้อเสนอแนะที่นัดพบ:
- การเพิ่มประสิทธิภาพเป็นไปได้: สูงสุดของ
ข้อความที่ส่งแบ่งเป็น 131,072 ไบต์ แต่
เกณฑ์ความกระตือรือร้นของห้องสมุด MPI เป็น
17408 พิจารณาเพิ่ม thres กระตือรือร้น -
ถือเป็นค่าที่สูงกว่า 131,072 ไบต์.
- คำเตือน: การเพิ่มเกณฑ์ความกระตือรือร้นที่จะ
. ยังเพิ่ม MPI รอยความทรงจำห้องสมุด
คำสั่ง MVAPICH2 ที่สามารถใช้ในการเปลี่ยน
เกณฑ์ความกระตือรือร้นที่:
- MV2_IBA_EAGER_THRESHOLD = <nbytes>
- ที่เกี่ยวข้อง เอกสารสามารถพบได้ใน:
http: // mvapich CSE โอไฮโอ - รัฐ edu / Support /
รายการที่ 1: คำแนะนำ MPI ที่ปรึกษาสำหรับการปรับ
จุดหนึ่งไปยังจุดเทียบกับเกณฑ์ความกระตือรือร้นที่นัดพบสำหรับโปรโตคอล
มาตรฐานที่เลียนแบบ CFOUR.
ที่มีขนาดรอบ 256 KB หรือน้อยกว่า ทำตามคำแนะนำที่ให้ไว้
โดยเครื่องมือและแสดงในรายการที่ 1 เราเปลี่ยน
ค่าของเกณฑ์ความกระตือรือร้นของ MVAPICH2 จาก 17 KB ไป
256 KB โดยการตั้งค่าของ MV2_IBA_EAGER_THRESHOLD
เพื่อ 262144. วิ่งไมโครมาตรฐานกับ 256 KB
เกณฑ์การให้ผล การปรับปรุงที่สำคัญสำหรับการเขียนและ
การอ่าน ผลนำเสนอในรูปที่ 7 รายงาน
การเขียนรวมและความเร็วในการอ่านสำหรับการเริ่มต้น
และการปรับตั้งค่า MVAPICH2.
5.2 อัลกอริทึมสำหรับการดำเนินงานกลุ่ม
เพื่อแสดงให้เห็นผลประโยชน์ที่จะได้รับจากการปรับ
การดำเนินงานโดยรวมของเราจะใช้ ASP [9] แอพลิเคชัน
ซึ่งเป็น การดำเนินการคู่ขนานของขั้นตอนวิธี Floyd-Warshall
ใช้ในการแก้ปัญหาทั้งหมดคู่ที่สั้นที่สุดเส้นทาง.
ASP ส่วนใหญ่ใช้ MPI bcast และการเปลี่ยนแปลงรากของ
การดำเนินการออกอากาศซ้ำกัน เมื่อวันที่ไม่ฝักใฝ่ฝ่ายใด Intel
MPI ประสิทธิภาพดีกว่า MVAPICH2 สำหรับ ASP งเริ่มต้น
เค้าโครงของ MVAPICH2 ปรับขึ้นอยู่กับ OMB ซึ่ง
มักจะใช้รากเดียวกันสำหรับการดำเนินงานร่วมกัน ต่อไปนี้
คำแนะนำเครื่องมือซึ่งปรากฏอยู่ในรายชื่อที่ 2
เราสามารถที่จะปรับปรุงประสิทธิภาพของการทำงานของ ASP 8.3%.
ตารางที่ 5 ให้ผลที่ได้จากการ MVAPICH2 กับ
ความคืบหน้าและเริ่มต้นการตั้งค่าและ Intel MPI ในไม่ฝักใฝ่ฝ่ายใด
คลัสเตอร์ใช้ 80 งาน MPI . MPI ที่ปรึกษาไม่ได้ให้
คำแนะนำใด ๆ สำหรับ Intel MPI เพราะค่าเริ่มต้น
จะถูกปรับแล้ว.
MVAPICH2 MVAPICH2 Intel MPI
เริ่มต้น Tuned เริ่มต้น
24.45 22.41 22.38
ตารางที่ 5:. และเวลาในการดำเนินการ ASP (วินาที) 80 แกน
5.3 การทำแผนที่ของ MPI งานแกน
เพื่อแสดงให้เห็น ประโยชน์ของการใช้ MPI ที่ปรึกษาปรับแต่ง
แผนที่ MPI งานต่อแกนที่เราใช้ HPCG [3] HPCG
เป็นโปรแกรมที่ใช้เป็นทางเลือกในการจัดอันดับของ
list9 TOP500
และสามารถนำมาใช้เฉพาะกับ MPI หรือ
9http: //www.top500.org/
รายละเอียดโปรแกรมรวม:
- จำนวนเว็บไซต์ที่ใช้โทร MPI_Bcast: 1
- เฉลี่ย MPI_Bcast ข้อความขนาด:
* callsite ID: 2, ขนาด: 2,097,152
- อัลกอริทึม MPI_Bcast การจ้างงาน: 5
- รากมีการเปลี่ยนแปลง
- สำหรับรายละเอียดเพิ่มเติมเกี่ยวกับข้อความที่ส่ง,
ปรึกษารายงาน mpiP: ./ ASP .8.22585.1 mpiP
ข้อเสนอแนะรวม:
- การเพิ่มประสิทธิภาพเป็นไปได้: อัลกอริทึมที่ถูก
ใช้สำหรับการ MPI bcast อาจไม่ให้
ประสิทธิภาพที่ดีที่สุดสำหรับข้อความที่ถูกส่ง.
* พิจารณาการเปลี่ยนแปลงขั้นตอนวิธีการ 2
MVAPICH2 คำสั่งที่สามารถใช้ในการเปลี่ยน
อัลกอริทึม MPI_Bcast:
- MV2_INTER_BCAST_TUNING = <1 -9>
รายชื่อ 2: MPI ที่ปรึกษาให้คำแนะนำในการเลือก
ขั้นตอนวิธีการดำเนินงานโดยรวมที่เหมาะสมสำหรับ ASP
การแปล กรุณารอสักครู่..
