P1  Fears about developing intelligent machines go back centuries. Ray การแปล - P1  Fears about developing intelligent machines go back centuries. Ray ไทย วิธีการพูด

P1 Fears about developing intellig

P1 Fears about developing intelligent machines go back centuries. Ray Kurzweil, director of engineering at Google, refers to the point in time when machine intelligence surpasses human intelligence as “the singularity,” which he predicts could come as early as 2045.
P2 Many scientists warn that the development of intelligent machines could pose a major threat to humanity. They believe that the development of full artificial intelligence (AI) could end the human race. The famous British scientist, Stephen Hawking, has warned about the dangers of artificial intelligence. In April, Hawking and well-known scientists, Max Tegmark and Stuart Russell predict that the creation of AI will be the biggest event in human history. We will be able to create AI that can think by themselves and for themselves. Unfortunately, it may also be the last because people will not be able to control them. However, other experts disagree that AI will lead to human extinction. For instance, Charlie Ortiz, head of the software company Nuance Communications, said the concerns about the danger of AI are too much. He does not see any reason to think that when machines become more intelligent, they would want to destroy us or do harm. He believes that despites their intelligence, AI will not have desires or feelings like human. Ortiz argues that fears about AI are based on the assumption that as species become more intelligent, they have a tendency to be more controlling and more violent and he thinks the opposite. In contrast, he points out that as we, human, become more intelligent, we become kinder and more peaceful and treat people better and it could be the same to AI, if they could have any feelings at all.
P3 From these pro and con opinions, we should admit that the development of super-intelligent machines is still an important issue. Nevertheless, we should not fear the development of AI too much. This is not going to happen in the near future because computers are anywhere near that dangerous level. We have excellent brains and we will use it to create artificial intelligence that only serves us, not destroy us.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
กลัวที่ P1 พัฒนาอัจฉริยะเครื่องกลับไปศตวรรษ Ray Kurzweil ผู้อำนวยการฝ่ายวิศวกรรมที่ Google หมายถึงจุดในเวลาเมื่อเครื่องปัญญาเกินกว่าปัญญามนุษย์เป็น "ความเป็นเอกเทศ ซึ่งเขาคาดการณ์อาจมาก่อนที่เป็น 2045 P2 หลายนักวิทยาศาสตร์เตือนว่า การพัฒนาของเครื่องอัจฉริยะอาจก่อให้เกิดภัยคุกคามมนุษยชาติ พวกเขาเชื่อว่า การพัฒนาเต็มรูปแบบปัญญาประดิษฐ์ (AI) จะจบการแข่งขันของมนุษย์ นักวิทยาศาสตร์ชาวอังกฤษที่มีชื่อเสียง สตีเฟนฮอว์คิง ได้เตือนเกี่ยวกับอันตรายของปัญญาประดิษฐ์ ในเดือนเมษายน เฟนฮอว์คิง และนักวิทยาศาสตร์รู้จัก Max Tegmark และรัสเซล Stuart ทำนายว่า การสร้าง AI จะเป็นเหตุการณ์ที่ใหญ่ที่สุดในประวัติศาสตร์ของมนุษย์ เราจะสามารถสร้าง AI ที่สามารถคิดเอง และ ตัวเอง อับ มันอาจจะสุดท้าย เพราะท่านจะไม่สามารถควบคุมพวกเขา อย่างไรก็ตาม ผู้เชี่ยวชาญเห็นว่า AI จะทำให้มนุษย์สูญพันธุ์ เช่น ชาร์ลีโอทิซ หัวหน้าของบริษัทซอฟต์แวร์สื่อสาร Nuance กล่าวว่า ความกังวลเกี่ยวกับอันตรายของ AI มีมากเกินไป เขาไม่เห็นเหตุผลใด ๆ ที่จะคิดว่า เมื่อเครื่องจะฉลาดมากขึ้น พวกเขาต้องการที่จะทำลายเรา หรือเกิดความเสียหาย เขาเชื่อว่า despites สติปัญญาของพวกเขา AI จะไม่มีความปรารถนาหรือความรู้สึกเหมือนมนุษย์ โอทิซระบุว่า ความกลัวเกี่ยวกับ AI เป็นไปตามสมมติฐานที่เป็นสายพันธุ์กลายเป็นอัจฉริยะมากขึ้น พวกเขามีแนวโน้มที่จะควบคุมมากขึ้น และรุนแรงขึ้น และเขาคิดตรงข้าม ตรงกันข้าม เขาชี้ให้เห็นว่าเป็นเรา มนุษย์ กลายเป็นอัจฉริยะมากขึ้น เรากลายเป็นเมตตา และความสงบสุข และรักษาคนดี และมันอาจจะเหมือนกันกับ AI ถ้าพวกเขาสามารถมีความรู้สึกใด ๆ เลยP3 จากความคิดเห็น pro และห้องพักมีขนาดเหล่านี้ เราควรยอมรับว่า การพัฒนาของเครื่องซุปเปอร์อัจฉริยะยังคงเป็นประเด็นสำคัญ อย่างไรก็ตาม เราจะไม่กลัวการพัฒนา AI มากเกินไป นี้จะเกิดขึ้นในอนาคตเนื่องจากเครื่องคอมพิวเตอร์ที่ใดก็ได้ใกล้ระดับที่เป็นอันตราย เรามีสมองที่ดี และเราจะใช้มันเพื่อสร้างปัญญาประดิษฐ์ที่เท่า เรา ไม่ทำลายเรา
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
กลัว P1 เกี่ยวกับการพัฒนาเครื่องอัจฉริยะย้อนกลับไปหลายศตวรรษ เรย์เคิซอำนวยการฝ่ายวิศวกรรมที่ Google หมายถึงจุดในเวลาเมื่อปัญญาเครื่องเกินกว่าสติปัญญาของมนุษย์เป็น "เอกพจน์" ซึ่งเขาคาดการณ์ว่าอาจจะมาเป็นช่วงต้น 2045.
P2 นักวิทยาศาสตร์หลายคนเตือนว่าการพัฒนาของเครื่องอัจฉริยะอาจก่อให้เกิด ภัยคุกคามที่สำคัญต่อมนุษยชาติ พวกเขาเชื่อว่าการพัฒนาของปัญญาประดิษฐ์เต็ม (AI) จะจบการแข่งขันของมนุษย์ นักวิทยาศาสตร์ที่มีชื่อเสียงของอังกฤษสตีเฟ่นฮอว์คิงได้เตือนเกี่ยวกับอันตรายของปัญญาประดิษฐ์ ในเดือนเมษายนฮอว์คิงและนักวิทยาศาสตร์ที่รู้จักกันดีแม็กซ์และ Tegmark จวร์ตรัสเซลคาดการณ์ว่าการสร้าง AI จะเป็นเหตุการณ์ที่ใหญ่ที่สุดในประวัติศาสตร์ของมนุษย์ เราจะมีความสามารถที่จะสร้าง AI ที่สามารถคิดได้ด้วยตัวเองและสำหรับตัวเอง แต่น่าเสียดายที่มันก็อาจจะเป็นครั้งสุดท้ายเพราะคนจะไม่สามารถที่จะควบคุมพวกเขา อย่างไรก็ตามผู้เชี่ยวชาญด้านอื่น ๆ ไม่เห็นว่าเอไอจะนำไปสู่การสูญพันธุ์ของมนุษย์ ยกตัวอย่างเช่นชาร์ลีออร์ติซหัวของ บริษัท ซอฟต์แวร์ Nuance Communications, กล่าวว่าความกังวลเกี่ยวกับอันตรายของ AI ที่มีมากเกินไป เขาไม่เห็นเหตุผลที่จะคิดว่าเมื่อเครื่องเป็นอัจฉริยะมากขึ้นพวกเขาจะต้องการที่จะทำลายเราหรือทำอันตรายใด ๆ เขาเชื่อว่า despites สติปัญญาของพวกเขา, AI จะไม่ได้มีความปรารถนาหรือความรู้สึกเหมือนมนุษย์ ออร์ติซระบุว่าความกลัวเกี่ยวกับ AI จะขึ้นอยู่กับสมมติฐานที่ว่าเป็นสายพันธุ์ที่เป็นอัจฉริยะมากขึ้นพวกเขามีแนวโน้มที่จะมีการควบคุมมากขึ้นและมีความรุนแรงมากขึ้นและเขาคิดว่าตรงข้าม ในทางตรงกันข้ามเขาชี้ให้เห็นว่าในขณะที่เรามนุษย์เป็นอัจฉริยะมากขึ้นเราจะกลายเป็นเมตตาและความสงบสุขมากขึ้นและรักษาคนดีขึ้นและมันอาจจะเป็นแบบเดียวกันกับ AI ถ้าพวกเขาสามารถมีความรู้สึกใด ๆ เลย.
P3 จากนี้ข้อดีและข้อเสีย ความคิดเห็นที่เราควรจะยอมรับว่าการพัฒนาของเครื่องซูเปอร์อัจฉริยะยังคงเป็นปัญหาที่สำคัญ อย่างไรก็ตามเราไม่ควรกลัวการพัฒนาของเอไอมากเกินไป นี้ไม่ได้ที่จะเกิดขึ้นในอนาคตอันใกล้เนื่องจากคอมพิวเตอร์ที่ใดก็ได้ที่อยู่ใกล้กับระดับที่เป็นอันตรายที่ เรามีสมองที่ดีเยี่ยมและเราจะใช้มันเพื่อสร้างปัญญาประดิษฐ์ที่เพียงทำหน้าที่เราไม่ได้ทำลายเรา
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
P1 ความกลัวเกี่ยวกับการพัฒนาเครื่องจักรกลับไปหลายศตวรรษ Ray Kurzweil , ผู้อำนวยการของวิศวกรรมที่ Google หมายถึงจุดในเวลาเมื่อเครื่องเกินกว่าสติปัญญามนุษย์เป็น " เอก " ซึ่งเขาคิดว่าจะมาเร็ว 2588 .P2 นักวิทยาศาสตร์หลายคนเตือนว่า การพัฒนาของเครื่องจักรสามารถก่อให้เกิดภัยคุกคามที่สำคัญเพื่อมนุษยชาติ พวกเขาเชื่อว่าการพัฒนาของปัญญาประดิษฐ์ ( AI ) จะเต็ม จบการแข่งขันของมนุษย์ ที่มีชื่อเสียงของอังกฤษนักวิทยาศาสตร์ สตีเฟน ฮอว์คิง ได้เตือนเกี่ยวกับอันตรายของปัญญาประดิษฐ์ ในเดือนเมษายน , ฮอว์คิงและนักวิทยาศาสตร์ที่มีชื่อเสียง และ แม็กซ์ เทกมาร์กสจ๊วต รัสเซล คาดการณ์ว่า การสร้าง AI จะเป็นเหตุการณ์ที่ใหญ่ที่สุดในประวัติศาสตร์ของมนุษย์ เราก็จะสามารถสร้าง AI ที่สามารถคิดด้วยตนเอง และเพื่อตนเอง แต่มันอาจจะเป็นครั้งสุดท้ายก็ได้ เพราะคนจะไม่สามารถควบคุมพวกเขาได้ อย่างไรก็ตาม ผู้เชี่ยวชาญด้านอื่น ๆ ไม่เห็นด้วยที่ AI จะนำไปสู่การสูญพันธุ์ของมนุษย์ ตัวอย่างเช่น ชาลีซ หัวหน้าของบริษัทซอฟต์แวร์นวลสื่อสาร กล่าวว่า ความกังวลเกี่ยวกับอันตรายของ AI ที่มากเกินไป เขาไม่เห็นเหตุผลที่จะคิดว่าเมื่อเครื่องกลายเป็นอัจฉริยะมากขึ้นพวกเขาจะต้องการที่จะทำลายเรา หรือทำอันตราย เขาเชื่อว่า despites สติปัญญา ไอจะไม่ได้มีความต้องการหรือความรู้สึกเหมือนมนุษย์ ผมแย้งว่า ความกลัวเกี่ยวกับ AI มีพื้นฐานอยู่บนสมมติฐานที่ว่าเป็นชนิดกลายเป็นอัจฉริยะมากขึ้น พวกเขามีแนวโน้มที่จะได้รับการควบคุมมากขึ้นและมากขึ้นรุนแรงและเขาคิดตรงข้าม ในทางตรงกันข้าม เขาชี้ให้เห็นว่าเมื่อเรา , มนุษย์ , กลายเป็นอัจฉริยะมากขึ้น เรากลายเป็นเด็ก และสงบมากขึ้น และคนปฏิบัติที่ดีและมันอาจจะเหมือนกันกับอัย ถ้าพวกเขาไม่มีความรู้สึกใดๆ ทั้งสิ้นP3 จาก Pro และความคิดเห็นกัน เราต้องยอมรับว่า การพัฒนาเครื่องฉลาดสุดยังคงเป็นปัญหาสำคัญ อย่างไรก็ตาม เราไม่ควรกลัวการพัฒนา AI มากเกินไป นี้จะไม่เกิดขึ้นในอนาคตอันใกล้ เพราะคอมพิวเตอร์จะเข้าใกล้ระดับที่อันตราย เรามีสมองที่ยอดเยี่ยม และพวกเราจะใช้มันเพื่อสร้างปัญญาประดิษฐ์ที่ให้บริการเราไม่ทำลายเรา
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: