are deep, but the technical challenges
in designing, constructing, and operating
advanced computing and
data-analysis systems of unprecedented
scale are just as daunting. Although
cloud-computing centers and exascale
computational platforms are seemingly
quite different, as discussed earlier,
the underlying technical challenges
of scale are similar, and many of the
same companies and researchers are
exploring dual-use technologies applicable
to both.
In a series of studies over the past five
years, the U.S. Department of Energy
identified 10 research challenges10,15,24
in developing a new generation of advanced
computing systems, including
the following, augmented with our own
comparisons with cloud computing:
Energy-efficient circuit, power, and
cooling technologies. With current semiconductor
technologies, all proposed
exascale designs would consume hundreds
of megawatts of power. New designs
and technologies are needed to
reduce this energy requirement to a
more manageable and economically
feasible level (such as 20MW–40MW)
comparable to that used by commercial
cloud data centers;
High-performance interconnect technologies.
In the exascale-computing regime,
the energy cost to move a datum
will exceed the cost of a floating-point
operation, necessitating very energy
efficient, low-latency, high-bandwidth
interconnects for fine-grain data exchanges
among hundreds of thousands
of processors. Even with such
designs, locality-aware algorithms and
software will be needed to maximize
computation performance and reduce
energy needs;
Driven by cost necessity, commercial
cloud computing systems have
been built with commodity Ethernet
interconnects and adopted a bulk synchronous
parallel computation model.
Although this approach has proven
effective, as evidenced by widespread
adoption of MapReduce toolkits (such
as Hadoop), a lower-cost, convergence
interconnect would benefit both computation
and data-intensive platforms
and open new possibilities for finegrain
data analysis.
Advanced memory technologies to
improve capacity. Minimizing data
movement and minimizing energy use
are also dependent on new memory
technologies, including processor-inmemory,
stacked memory (Micron’s
HMC is an early example), and nonvolatile
memory approaches. Although
the particulars differ for computation
and data analysis, algorithmic determinants
of memory capacity will be
a significant driver of overall system
cost, as the memory per core for very
large systems will necessarily be smaller
than in current designs;
Scalable system software that is power
and failure aware. Traditional highperformance
computing software has
been predicated on the assumption
that failures are infrequent; as we approach
exascale levels, systemic resilience
in the face of regular component
failures will be essential. Similarly, dynamic,
adaptive energy management
must become an integral part of system
software, for both economic and
technical reasons.
Cloud services for data analytics,
given their commercial quality-ofservice
agreements, embody large
numbers of resilience techniques, including
geo-distribution, automatic
restart and failover, failure injection,
and introspective monitoring; the
Netflix “Simian Army”a is illustrative
of these techniques.
Data management software that can
handle the volume, velocity, and diversity
of data. Whether computationally
generated or captured from scientific
instruments, efficient in situ data analysis
requires restructuring of scientific
workflows and applications, building
on lessons gleaned from commercial
data-analysis pipelines, as well as
new techniques for data coordinating,
learning, and mining. Without them,
I/O bottlenecks will limit system utility
and applicability;
Programming models to express massive
parallelism, data locality, and resilience.
The widely used communicating
sequential process model, or MPI programming,
places the burden of locality
and parallelization on application
developers. Exascale computing systems
will have billion-way parallelism
and frequent faults. Needed are more
expressive programming models able
to deal with this behavior and simplify
อยู่ลึก แต่ความท้าทายทางเทคนิค
ในการออกแบบ , การสร้าง , และระบบปฏิบัติการคอมพิวเตอร์ขั้นสูงและ
ระบบวิเคราะห์ข้อมูลระดับประวัติการณ์
ก็น่ากลัว แม้ว่าคอมพิวเตอร์เมฆ exascale
และศูนย์คอมพิวเตอร์แพลตฟอร์มดูเหมือน
ค่อนข้างแตกต่างกัน ตามที่กล่าวก่อนหน้านี้
) ความท้าทายทางเทคนิค ขนาดคล้าย และหลายของ
บริษัทเดียวกันและนักวิจัยการใช้
สอง - การใช้เทคโนโลยี 2 .
ในชุดของการศึกษาที่ผ่านมาห้า
ปี กระทรวงพลังงานสหรัฐระบุ 10
challenges10,15,24 การวิจัยในการพัฒนารุ่นใหม่ของระบบคอมพิวเตอร์ขั้นสูงรวมทั้ง
ต่อไปนี้เติมกับการเปรียบเทียบเอง
ของเรากับคอมพิวเตอร์เมฆ :
พลังงานวงจร , ไฟฟ้า , และ
เย็นเทคโนโลยี ด้วยเทคโนโลยีสารกึ่งตัวนำ
ปัจจุบันที่เสนอทั้งหมด
exascale การออกแบบจะใช้ร้อย
ของเมกะวัตต์ของพลังงาน .
การออกแบบและเทคโนโลยีใหม่ที่จำเป็นในการลดความต้องการพลังงานเพื่อ
เป็นไปได้ง่ายและประหยัดระดับ ( เช่น 20mw – 40mw )
เมื่อเทียบกับ ใช้ โดยโฆษณา
เมฆศูนย์ข้อมูล ;
3
ประสิทธิภาพสูงเทคโนโลยีใน exascale คอมพิวเตอร์ระบบ
ต้นทุนพลังงานย้ายตัวเลข
จะเกินค่าใช้จ่ายของการผ่าตัดจุดลอย
ถูกมากพลังงานที่มีประสิทธิภาพ , ศักยภาพต่ำ
แบนด์วิดธ์สูงเชื่อมสำหรับปรับข้อมูลการแลกเปลี่ยนระหว่างหลายร้อยหลายพันเม็ด
ของหน่วยประมวลผล แม้จะมีการออกแบบดังกล่าว
ท้องถิ่นทราบขั้นตอนวิธีและซอฟต์แวร์จะต้องเพิ่มประสิทธิภาพการคำนวณและลด
ความต้องการพลังงาน ;
ขับเคลื่อนโดยค่าใช้จ่ายจำเป็น พาณิชย์
เมฆระบบคอมพิวเตอร์ได้ถูกสร้างขึ้น ด้วยชุด
) และเชื่อมต่อเป็นแบบการคำนวณแบบขนานเป็นกลุ่ม
.
ถึงแม้ว่าวิธีการนี้ได้พิสูจน์แล้วว่ามีประสิทธิภาพ ดังเห็นได้จากการยอมรับอย่างกว้างขวางของชุดเครื่องมือ ( เช่น mapreduce
เป็น Hadoop ) ต้นทุนต่ำเวอร์
( จะได้รับประโยชน์ทั้งการคำนวณ
และข้อมูลแพลตฟอร์มเปิดและเข้มข้น
ความเป็นไปได้ใหม่สำหรับการวิเคราะห์ข้อมูล finegrain
.
เพิ่มความจุหน่วยความจำขั้นสูงเทคโนโลยี . การเคลื่อนย้ายข้อมูล
และลดใช้พลังงานยังขึ้นอยู่กับเทคโนโลยีหน่วยความจำ
ใหม่ รวมทั้ง inmemory processor , หน่วยความจำซ้อน ( ไมครอน
HMC เป็นตัวแรก ) และหน่วยความจำ nonvolatile
วิธี แม้ว่ารายละเอียดที่แตกต่างกันสำหรับการคำนวณ
และการวิเคราะห์ข้อมูลขั้นตอนวิธีปัจจัย
ของความจุของหน่วยความจำจะเป็น signi จึงไม่สามารถควบคุมค่าใช้จ่ายในระบบ
โดยรวม เป็นหน่วยความจำต่อหลักสำหรับระบบขนาดใหญ่มาก
กว่าจะต้องมีการออกแบบในปัจจุบัน ;
ยืดหยุ่นระบบซอฟต์แวร์ที่อำนาจ
และความล้มเหลวได้ตระหนัก ซอฟต์แวร์คอมพิวเตอร์ highperformance
แบบดั้งเดิมได้ถูก predicated บนสมมติฐาน
ความล้มเหลวเป็นไม่บ่อย ;เป็นวิธีการที่เรา
exascale ระดับความยืดหยุ่นของระบบในหน้าขององค์ประกอบ
ปกติความล้มเหลวจะระเหย โดยการจัดการพลังงานแบบไดนามิก
ต้องกลายเป็นส่วนหนึ่งของระบบซอฟต์แวร์
เหตุผลทางเทคนิคทั้งทางเศรษฐกิจและ
.
สำหรับบริการวิเคราะห์ข้อมูล บริการเชิงพาณิชย์แก่พวกเขา คุณภาพ
สัญญา รวบรวมตัวเลขของเทคนิคมาก
) รวมทั้งการกระจายทางภูมิศาสตร์และรีสตาร์ทอัตโนมัติ
ยาเส้น ฉีดยา ความล้มเหลว และการตรวจสอบครุ่นคิด ;
Netflix " กองทัพ " ลิงเป็นภาพประกอบ
เทคนิคเหล่านี้ การจัดการ
ข้อมูลซอฟต์แวร์ที่สามารถจัดการปริมาณความเร็วและความหลากหลาย
ข้อมูล ไม่ว่า computationally
สร้างขึ้น หรือที่ได้จากอุปกรณ์ทางวิทยาศาสตร์มีประสิทธิภาพใน situ
ต้องปรับโครงสร้างของการวิเคราะห์ข้อมูลทางวิทยาศาสตร์เวิร์กโฟลว์และการสร้างบทเรียนที่รวบรวมได้จากการค้า
ในการวิเคราะห์ข้อมูลทั้งหมด รวมทั้งเทคนิคใหม่สำหรับข้อมูล
เรียน การประสานงาน และเหมืองแร่ โดยพวกเขา
I / O คอขวดจะกำหนดระบบ Utility และนำโปรแกรมรุ่น
; แสดงใหญ่
ความขนาน , ท้องถิ่น , ข้อมูลและความยืดหยุ่น .
ใช้กันอย่างแพร่หลายในการสื่อสารกระบวนการซีเควนเชียลหรือ MPI โปรแกรม
สถานที่ภาระของท้องถิ่นและนักพัฒนาโปรแกรมบน parallelization ไป
exascale จะมีระบบคอมพิวเตอร์แบบขนานและ
และผิดพลาดบ่อย ต้องการจะแสดงออกได้
แบบการเขียนโปรแกรมเพื่อจัดการกับพฤติกรรมนี้ และง่ายขึ้น
การแปล กรุณารอสักครู่..
