are deep, but the technical challengesin designing, constructing, and  การแปล - are deep, but the technical challengesin designing, constructing, and  ไทย วิธีการพูด

are deep, but the technical challen

are deep, but the technical challenges
in designing, constructing, and operating
advanced computing and
data-analysis systems of unprecedented
scale are just as daunting. Although
cloud-computing centers and exascale
computational platforms are seemingly
quite different, as discussed earlier,
the underlying technical challenges
of scale are similar, and many of the
same companies and researchers are
exploring dual-use technologies applicable
to both.
In a series of studies over the past five
years, the U.S. Department of Energy
identified 10 research challenges10,15,24
in developing a new generation of advanced
computing systems, including
the following, augmented with our own
comparisons with cloud computing:
Energy-efficient circuit, power, and
cooling technologies. With current semiconductor
technologies, all proposed
exascale designs would consume hundreds
of megawatts of power. New designs
and technologies are needed to
reduce this energy requirement to a
more manageable and economically
feasible level (such as 20MW–40MW)
comparable to that used by commercial
cloud data centers;
High-performance interconnect technologies.
In the exascale-computing regime,
the energy cost to move a datum
will exceed the cost of a floating-point
operation, necessitating very energy
efficient, low-latency, high-bandwidth
interconnects for fine-grain data exchanges
among hundreds of thousands
of processors. Even with such
designs, locality-aware algorithms and
software will be needed to maximize
computation performance and reduce
energy needs;
Driven by cost necessity, commercial
cloud computing systems have
been built with commodity Ethernet
interconnects and adopted a bulk synchronous
parallel computation model.
Although this approach has proven
effective, as evidenced by widespread
adoption of MapReduce toolkits (such
as Hadoop), a lower-cost, convergence
interconnect would benefit both computation
and data-intensive platforms
and open new possibilities for finegrain
data analysis.
Advanced memory technologies to
improve capacity. Minimizing data
movement and minimizing energy use
are also dependent on new memory
technologies, including processor-inmemory,
stacked memory (Micron’s
HMC is an early example), and nonvolatile
memory approaches. Although
the particulars differ for computation
and data analysis, algorithmic determinants
of memory capacity will be
a significant driver of overall system
cost, as the memory per core for very
large systems will necessarily be smaller
than in current designs;
Scalable system software that is power
and failure aware. Traditional highperformance
computing software has
been predicated on the assumption
that failures are infrequent; as we approach
exascale levels, systemic resilience
in the face of regular component
failures will be essential. Similarly, dynamic,
adaptive energy management
must become an integral part of system
software, for both economic and
technical reasons.
Cloud services for data analytics,
given their commercial quality-ofservice
agreements, embody large
numbers of resilience techniques, including
geo-distribution, automatic
restart and failover, failure injection,
and introspective monitoring; the
Netflix “Simian Army”a is illustrative
of these techniques.
Data management software that can
handle the volume, velocity, and diversity
of data. Whether computationally
generated or captured from scientific
instruments, efficient in situ data analysis
requires restructuring of scientific
workflows and applications, building
on lessons gleaned from commercial
data-analysis pipelines, as well as
new techniques for data coordinating,
learning, and mining. Without them,
I/O bottlenecks will limit system utility
and applicability;
Programming models to express massive
parallelism, data locality, and resilience.
The widely used communicating
sequential process model, or MPI programming,
places the burden of locality
and parallelization on application
developers. Exascale computing systems
will have billion-way parallelism
and frequent faults. Needed are more
expressive programming models able
to deal with this behavior and simplify
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
ลึก แต่ความท้าทายทางเทคนิคในการออกแบบ สร้าง และใช้งานคอมพิวเตอร์ขั้นสูง และระบบวิเคราะห์ข้อมูลของประวัติการณ์มาตราส่วนยุ่งยากเป็นเพียง ถึงแม้ว่าคอมพิวเตอร์เมฆศูนย์และ exascaleสถาปัตยกรรมคอมพิวเตอร์ดูเหมือนว่าค่อนข้างแตกต่างกัน ตามที่อธิบายไว้ก่อนหน้านี้ความท้าทายทางเทคนิคพื้นฐานของมาตราส่วนคล้ายกัน และจำนวนมากของการบริษัทเดียวกันและนักวิจัยสำรวจคู่ใช้เทคโนโลยีที่เกี่ยวข้องทั้งนี้ในชุดของการศึกษามากกว่า 5 ผ่านมาปี กรมพลังงานสหรัฐอเมริการะบุ 10 วิจัย challenges10, 15, 24ในการพัฒนารุ่นใหม่ของขั้นสูงระบบคอมพิวเตอร์ รวมถึงต่อไปนี้ ออกเมนต์ ด้วยของเราเองเปรียบเทียบกับ cloud คอมพิวเตอร์:วงจรประหยัดพลังงาน พลังงาน และเทคโนโลยีระบายความร้อน กับสารกึ่งตัวนำที่ปัจจุบันเทคโนโลยี นำเสนอทั้งหมดออกแบบ exascale จะใช้ร้อยของเมกะวัตต์ของการไฟฟ้า ออกแบบใหม่และเทคโนโลยีจำเป็นในการลดความต้องการพลังงานนี้จะเป็นได้ง่ายขึ้นและระดับที่เป็นไปได้ (เช่น 20MW-40MW)เทียบได้กับที่ใช้เชิงพาณิชย์ศูนย์ข้อมูลเมฆประสิทธิภาพสูงเชื่อมเทคโนโลยีในระบอบคอมพิวเตอร์ exascaleพลังงานต้นทุนในการย้ายวันที่การโพสจะเกินต้นทุนเป็นทศนิยมการดำเนินงาน necessitating พลังงานมากมีประสิทธิภาพ เวลา แฝงต่ำ ความ ถี่สูงเชื่อมโยงสำหรับการแลกเปลี่ยนข้อมูลปรับเมล็ดในหลายร้อยหลายพันตัวประมวลผล แม้ว่าจะ มีเช่นออกแบบ อัลกอริทึมที่ท้องถิ่นทราบ และซอฟต์แวร์จะต้องขยายคำนวณประสิทธิภาพ และลดความต้องการพลังงานขับเคลื่อน โดยต้นทุนความจำเป็น เชิงพาณิชย์มีระบบคอมพิวเตอร์คลาวด์ถูกสร้างขึ้น ด้วยชุดอีเทอร์เน็ตเชื่อมโยง และนำมาใช้เป็นจำนวนมากแบบซิงโครนัสแบบจำลองการคำนวณแบบขนานแม้ว่าวิธีการนี้ได้พิสูจน์มีประสิทธิภาพ เป็นเป็นหลักฐาน โดยแพร่หลายของข่าว MapReduce (เช่นเป็นอย่างไร Hadoop), บรรจบกันที่ต้นทุนต่ำเชื่อมจะได้รับประโยชน์ทั้งคำนวณและแพลตฟอร์มข้อมูลมากเปิดโอกาสใหม่สำหรับ finegrainการวิเคราะห์ข้อมูลเทคโนโลยีหน่วยความจำขั้นสูงเพื่อเพิ่มกำลังการผลิต ข้อมูลสำคัญใช้การเคลื่อนไหวและลดพลังงานก็ขึ้นอยู่กับหน่วยความจำใหม่เทคโนโลยี รวมทั้งหน่วยประมวลผล-inmemoryหน่วยความจำแบบกองซ้อน (ไมครอนHMC เป็นตัวอย่างต้น), และ nonvolatileหน่วยความจำวิธีการ ถึงแม้ว่าอย่างแตกต่างกันสำหรับการคำนวณและการ วิเคราะห์ข้อมูล algorithmic ดีเทอร์มิแนนต์จะมีความจุของหน่วยความจำโปรแกรมควบคุม significant ของระบบโดยรวมต้นทุน หน่วยความจำต่อหลักการมากระบบใหญ่จะจำเป็นต้องมีขนาดเล็กกว่าในปัจจุบันการออกแบบซอฟต์แวร์ระบบปรับสเกลที่เป็นพลังงานและตระหนักถึงความล้มเหลว Highperformance แบบดั้งเดิมคอมพิวเตอร์ซอฟต์แวร์ได้ถูก predicated ในล้มเหลวไม่ เมื่อเราexascale ระดับ ความยืดหยุ่นของระบบหน้าส่วนประกอบทั่วไปความล้มเหลวจะสำคัญ ในทำนองเดียวกัน ไดนามิกการจัดการพลังงานที่เหมาะสมต้องเป็นเป็นส่วนหนึ่งของระบบซอฟต์แวร์ ทั้งทางเศรษฐกิจ และเหตุผลทางเทคนิคบริการฝากสำหรับการวิเคราะห์ข้อมูลกำหนดคุณภาพ-ofservice การค้าข้อตกลง รวบรวมขนาดใหญ่ตัวเลขของความยืดหยุ่นเทคนิคแก้วแจก อัตโนมัติเริ่มต้นใหม่และล้ม ล้มเหลวฉีดและการตรวจ สอบ introspective ที่Netflix "สิมิลันกองทัพ" จะจัดเทคนิคเหล่านี้ซอฟต์แวร์การจัดการข้อมูลที่สามารถจัดการระดับเสียง ความเร็ว และความหลากหลายของข้อมูล ว่า computationallyสร้าง หรือรวบรวมจากวิทยาศาสตร์เครื่องมือ มีประสิทธิภาพในการวิเคราะห์ข้อมูลซิต้องปรับโครงสร้างของวิทยาศาสตร์ลำดับงานและการใช้งาน อาคารในบทคาดพาณิชย์วิเคราะห์ข้อมูลท่อ เป็นเทคนิคใหม่สำหรับข้อมูลประสานงานเรียนรู้ และการทำเหมือง โดยพวกเขาคอขวดของ I/O จะจำกัดระบบยูทิลิตี้และความเกี่ยวข้อง ของรูปแบบการเขียนโปรแกรมเพื่อแสดงขนาดใหญ่parallelism ข้อมูลท้องถิ่น และความยืดหยุ่นสื่อสารที่ใช้กันอย่างแพร่หลายแบบจำลองกระบวนการต่อเนื่อง หรือการเขียนโปรแกรม MPIวางภาระของท้องถิ่นและ parallelization บนแอพลิเคชันนักพัฒนา ระบบคอมพิวเตอร์ Exascaleจะมีวิธีพันล้าน parallelismและข้อบกพร่องที่พบบ่อย ต้องมีเพิ่มมากขึ้นสามารถเขียนแสดงออกแบบการจัดการกับปัญหานี้ง่ายขึ้น
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
ลึก
แต่ความท้าทายทางเทคนิคในการออกแบบ, การก่อสร้างและการดำเนินงานคอมพิวเตอร์ขั้นสูงและระบบวิเคราะห์ข้อมูลเป็นประวัติการณ์ระดับเป็นเพียงที่น่ากลัวเป็น แม้ว่าศูนย์เมฆคอมพิวเตอร์และ Exascale แพลตฟอร์มคำนวณดูเหมือนจะแตกต่างกันมากตามที่กล่าวไว้ก่อนหน้านี้ความท้าทายทางเทคนิคพื้นฐานของขนาดจะคล้ายกันและหลายบริษัท เดียวกันและนักวิจัยกำลังสำรวจเทคโนโลยีdual-ใช้บังคับกับทั้ง. ในชุดของศึกษา ที่ผ่านมาห้าปีที่ผ่านมากระทรวงพลังงานสหรัฐระบุchallenges10,15,24 วิจัย 10 ในการพัฒนาคนรุ่นใหม่ที่ทันสมัยของระบบคอมพิวเตอร์รวมถึงต่อไปนี้เสริมเข้ากับของเราเองเปรียบเทียบกับคอมพิวเตอร์เมฆ: วงจรพลังงานอย่างมีประสิทธิภาพพลังงานและเทคโนโลยีการระบายความร้อน ด้วยเซมิคอนดักเตอร์ในปัจจุบันเทคโนโลยีทั้งหมดที่นำเสนอการออกแบบExascale จะใช้หลายร้อยของเมกะวัตต์ของพลังงาน การออกแบบใหม่และเทคโนโลยีที่จำเป็นในการลดความต้องการพลังงานนี้ให้จัดการได้มากขึ้นและเศรษฐกิจในระดับที่เป็นไปได้(เช่น 20mw-40mW) เปรียบได้กับที่ใช้ในเชิงพาณิชย์เมฆศูนย์ข้อมูล. ที่มีประสิทธิภาพสูงเทคโนโลยีเชื่อมต่อระหว่างกันในระบอบการปกครอง Exascale คอมพิวเตอร์, ค่าใช้จ่ายด้านพลังงานที่จะย้ายตัวเลขจะเกินค่าใช้จ่ายของลอยจุดการดำเนินงานมากทั้งนี้พลังงานที่มีประสิทธิภาพlatency ต่ำ, แบนด์วิธสูงเชื่อมต่อสำหรับการแลกเปลี่ยนข้อมูลเม็ดละเอียดในหมู่หลายร้อยหลายพันของโปรเซสเซอร์ ถึงแม้จะมีเช่นการออกแบบขั้นตอนวิธีท้องที่ทราบและซอฟแวร์จะต้องเพิ่มประสิทธิภาพการคำนวณและลดความต้องการพลังงานขับเคลื่อนด้วยความจำเป็นค่าใช้จ่ายเชิงพาณิชย์เมฆระบบคอมพิวเตอร์ได้รับการสร้างขึ้นด้วยอีเธอร์เน็ตสินค้าเชื่อมต่อและนำกลุ่มซิงโครรูปแบบการคำนวณแบบขนาน. แม้ว่านี้ วิธีการที่ได้รับการพิสูจน์ที่มีประสิทธิภาพเป็นหลักฐานโดยแพร่หลายยอมรับของชุดเครื่องมือMapReduce (เช่นเป็นHadoop) ที่ต่ำกว่าต้นทุนการบรรจบกันเชื่อมต่อระหว่างกันจะได้รับประโยชน์ทั้งในการคำนวณแพลตฟอร์มและข้อมูลจำนวนมากและเปิดโอกาสใหม่สำหรับfinegrain การวิเคราะห์ข้อมูล. เทคโนโลยีหน่วยความจำขั้นสูงเพื่อเพิ่มความจุ. การลดข้อมูลการเคลื่อนไหวและลดการใช้พลังงานนอกจากนี้ยังขึ้นอยู่กับหน่วยความจำใหม่เทคโนโลยีรวมทั้งประมวลผลinmemory, หน่วยความจำซ้อน (ไมครอนของHMC เป็นตัวอย่าง) และลบเลือนวิธีหน่วยความจำ แม้ว่ารายละเอียดแตกต่างกันในการคำนวณและการวิเคราะห์ข้อมูลปัจจัยอัลกอริทึมของความจุหน่วยความจำจะเป็นคนขับรถมีนัยสำคัญลาดเทของระบบโดยรวมค่าใช้จ่ายเป็นหน่วยความจำต่อหลักสำหรับมากระบบขนาดใหญ่จำเป็นต้องจะมีขนาดเล็กกว่าในการออกแบบในปัจจุบันซอฟต์แวร์ระบบการปรับขนาดที่มีอำนาจและความล้มเหลวของการตระหนักถึง highperformance ดั้งเดิมซอฟแวร์คอมพิวเตอร์ได้รับการบอกกล่าวกับสมมติฐานที่ว่าความล้มเหลวมีไม่บ่อยนัก; ที่เราเข้าใกล้ระดับ Exascale ความยืดหยุ่นของระบบในการเผชิญกับองค์ประกอบปกติความล้มเหลวจะมีความสำคัญ ในทำนองเดียวกันแบบไดนามิกการบริหารจัดการพลังงานปรับตัวจะต้องกลายเป็นส่วนหนึ่งของระบบซอฟแวร์สำหรับทั้งทางเศรษฐกิจและเหตุผลทางเทคนิค. บริการคลาวด์สำหรับการวิเคราะห์ข้อมูลที่ได้รับมีคุณภาพ ofservice เชิงพาณิชย์ข้อตกลงรวบรวมขนาดใหญ่จำนวนของเทคนิคความยืดหยุ่นรวมทั้งทางภูมิศาสตร์กระจายอัตโนมัติเริ่มต้นใหม่และความล้มเหลวฉีดล้มเหลวและการตรวจสอบครุ่นคิด; Netflix "ลิงกองทัพ" เป็นตัวอย่างของเทคนิคเหล่านี้. ซอฟต์แวร์การจัดการข้อมูลที่สามารถจัดการกับปริมาณความเร็วและความหลากหลายของข้อมูล ไม่ว่าจะเป็นคอมพิวเตอร์ที่สร้างหรือถูกจับทางวิทยาศาสตร์จากเครื่องมือที่มีประสิทธิภาพในการวิเคราะห์ข้อมูลแหล่งกำเนิดต้องมีการปรับโครงสร้างของทางวิทยาศาสตร์ขั้นตอนการทำงานและการใช้งาน, การสร้างบทเรียนที่รวบรวมได้จากการค้าท่อวิเคราะห์ข้อมูลเช่นเดียวกับเทคนิคใหม่ๆ สำหรับข้อมูลการประสานงานการเรียนรู้และการเหมืองแร่ โดยพวกเขาI / O คอขวดจะ จำกัด ระบบสาธารณูปโภคและการบังคับใช้; แบบการเขียนโปรแกรมในการแสดงขนาดใหญ่. เท่าเทียมท้องที่ข้อมูลและความยืดหยุ่นที่ใช้กันอย่างแพร่หลายในการสื่อสารรูปแบบกระบวนการลำดับหรือการเขียนโปรแกรมMPI, สถานภาระของท้องถิ่นและขนานกับการประยุกต์ใช้พัฒนา ระบบคอมพิวเตอร์ Exascale จะมีความเท่าเทียมทางพันล้านและความผิดพลาดที่พบบ่อย จำเป็นต้องมีรูปแบบการเขียนโปรแกรมที่แสดงออกสามารถที่จะจัดการกับปัญหานี้และลดความซับซ้อน


















































































































การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
อยู่ลึก แต่ความท้าทายทางเทคนิค
ในการออกแบบ , การสร้าง , และระบบปฏิบัติการคอมพิวเตอร์ขั้นสูงและ

ระบบวิเคราะห์ข้อมูลระดับประวัติการณ์
ก็น่ากลัว แม้ว่าคอมพิวเตอร์เมฆ exascale

และศูนย์คอมพิวเตอร์แพลตฟอร์มดูเหมือน
ค่อนข้างแตกต่างกัน ตามที่กล่าวก่อนหน้านี้

) ความท้าทายทางเทคนิค ขนาดคล้าย และหลายของ
บริษัทเดียวกันและนักวิจัยการใช้

สอง - การใช้เทคโนโลยี 2 .
ในชุดของการศึกษาที่ผ่านมาห้า
ปี กระทรวงพลังงานสหรัฐระบุ 10

challenges10,15,24 การวิจัยในการพัฒนารุ่นใหม่ของระบบคอมพิวเตอร์ขั้นสูงรวมทั้ง

ต่อไปนี้เติมกับการเปรียบเทียบเอง
ของเรากับคอมพิวเตอร์เมฆ :
พลังงานวงจร , ไฟฟ้า , และ
เย็นเทคโนโลยี ด้วยเทคโนโลยีสารกึ่งตัวนำ
ปัจจุบันที่เสนอทั้งหมด
exascale การออกแบบจะใช้ร้อย
ของเมกะวัตต์ของพลังงาน .
การออกแบบและเทคโนโลยีใหม่ที่จำเป็นในการลดความต้องการพลังงานเพื่อ


เป็นไปได้ง่ายและประหยัดระดับ ( เช่น 20mw – 40mw )
เมื่อเทียบกับ ใช้ โดยโฆษณา
เมฆศูนย์ข้อมูล ;
3
ประสิทธิภาพสูงเทคโนโลยีใน exascale คอมพิวเตอร์ระบบ
ต้นทุนพลังงานย้ายตัวเลข
จะเกินค่าใช้จ่ายของการผ่าตัดจุดลอย

ถูกมากพลังงานที่มีประสิทธิภาพ , ศักยภาพต่ำ
แบนด์วิดธ์สูงเชื่อมสำหรับปรับข้อมูลการแลกเปลี่ยนระหว่างหลายร้อยหลายพันเม็ด

ของหน่วยประมวลผล แม้จะมีการออกแบบดังกล่าว

ท้องถิ่นทราบขั้นตอนวิธีและซอฟต์แวร์จะต้องเพิ่มประสิทธิภาพการคำนวณและลด

ความต้องการพลังงาน ;
ขับเคลื่อนโดยค่าใช้จ่ายจำเป็น พาณิชย์
เมฆระบบคอมพิวเตอร์ได้ถูกสร้างขึ้น ด้วยชุด

) และเชื่อมต่อเป็นแบบการคำนวณแบบขนานเป็นกลุ่ม
.

ถึงแม้ว่าวิธีการนี้ได้พิสูจน์แล้วว่ามีประสิทธิภาพ ดังเห็นได้จากการยอมรับอย่างกว้างขวางของชุดเครื่องมือ ( เช่น mapreduce

เป็น Hadoop ) ต้นทุนต่ำเวอร์
( จะได้รับประโยชน์ทั้งการคำนวณ
และข้อมูลแพลตฟอร์มเปิดและเข้มข้น
ความเป็นไปได้ใหม่สำหรับการวิเคราะห์ข้อมูล finegrain
.

เพิ่มความจุหน่วยความจำขั้นสูงเทคโนโลยี . การเคลื่อนย้ายข้อมูล

และลดใช้พลังงานยังขึ้นอยู่กับเทคโนโลยีหน่วยความจำ
ใหม่ รวมทั้ง inmemory processor , หน่วยความจำซ้อน ( ไมครอน

HMC เป็นตัวแรก ) และหน่วยความจำ nonvolatile
วิธี แม้ว่ารายละเอียดที่แตกต่างกันสำหรับการคำนวณ

และการวิเคราะห์ข้อมูลขั้นตอนวิธีปัจจัย

ของความจุของหน่วยความจำจะเป็น signi จึงไม่สามารถควบคุมค่าใช้จ่ายในระบบ
โดยรวม เป็นหน่วยความจำต่อหลักสำหรับระบบขนาดใหญ่มาก

กว่าจะต้องมีการออกแบบในปัจจุบัน ;
ยืดหยุ่นระบบซอฟต์แวร์ที่อำนาจ
และความล้มเหลวได้ตระหนัก ซอฟต์แวร์คอมพิวเตอร์ highperformance

แบบดั้งเดิมได้ถูก predicated บนสมมติฐาน
ความล้มเหลวเป็นไม่บ่อย ;เป็นวิธีการที่เรา

exascale ระดับความยืดหยุ่นของระบบในหน้าขององค์ประกอบ
ปกติความล้มเหลวจะระเหย โดยการจัดการพลังงานแบบไดนามิก

ต้องกลายเป็นส่วนหนึ่งของระบบซอฟต์แวร์
เหตุผลทางเทคนิคทั้งทางเศรษฐกิจและ
.
สำหรับบริการวิเคราะห์ข้อมูล บริการเชิงพาณิชย์แก่พวกเขา คุณภาพ

สัญญา รวบรวมตัวเลขของเทคนิคมาก

) รวมทั้งการกระจายทางภูมิศาสตร์และรีสตาร์ทอัตโนมัติ

ยาเส้น ฉีดยา ความล้มเหลว และการตรวจสอบครุ่นคิด ;
Netflix " กองทัพ " ลิงเป็นภาพประกอบ
เทคนิคเหล่านี้ การจัดการ

ข้อมูลซอฟต์แวร์ที่สามารถจัดการปริมาณความเร็วและความหลากหลาย
ข้อมูล ไม่ว่า computationally
สร้างขึ้น หรือที่ได้จากอุปกรณ์ทางวิทยาศาสตร์มีประสิทธิภาพใน situ


ต้องปรับโครงสร้างของการวิเคราะห์ข้อมูลทางวิทยาศาสตร์เวิร์กโฟลว์และการสร้างบทเรียนที่รวบรวมได้จากการค้า

ในการวิเคราะห์ข้อมูลทั้งหมด รวมทั้งเทคนิคใหม่สำหรับข้อมูล

เรียน การประสานงาน และเหมืองแร่ โดยพวกเขา
I / O คอขวดจะกำหนดระบบ Utility และนำโปรแกรมรุ่น

; แสดงใหญ่
ความขนาน , ท้องถิ่น , ข้อมูลและความยืดหยุ่น .

ใช้กันอย่างแพร่หลายในการสื่อสารกระบวนการซีเควนเชียลหรือ MPI โปรแกรม
สถานที่ภาระของท้องถิ่นและนักพัฒนาโปรแกรมบน parallelization ไป


exascale จะมีระบบคอมพิวเตอร์แบบขนานและ
และผิดพลาดบ่อย ต้องการจะแสดงออกได้

แบบการเขียนโปรแกรมเพื่อจัดการกับพฤติกรรมนี้ และง่ายขึ้น
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: