Not only an external energy gradient is necessary, but a germ (in whic การแปล - Not only an external energy gradient is necessary, but a germ (in whic ไทย วิธีการพูด

Not only an external energy gradien

Not only an external energy gradient is necessary, but a germ (in which the program of its development is inherent) is needed. The emergence and existence of the germ can in no way be explained by the energy gradient. Thus, using the theory of dissipative structures, one can point to a necessary condition of living creatures: that they must take up energy that is poor in entropy and release energy that is rich in entropy. However, this is not a sufficient explanation of their mod of existence (as is often suggested) the peculiarity of living systems cannot be described within The framework of a physical theory because the concept of function or purpose (see Section 6.3) cannot be used meaningfully for physical objects. Thus, one cannot say that it is the “purpose” (or the “function”) of water molecules to build a convection cell or a cyclone or that it is their purpose to transfer energy more efficiently (unless one defines the structure or the effect to be the purpose).

6.5.2 The concept of Information used by Howard Odum
Besides the physicalistic reduction of bioiogical systems to dissipative structures, another problem of Howward Odum’s theory is this use of the concepts of entropy and information. The problem, however, did not occur with him but rather with the “fathers” of the information theory: Claude Shannon and Warren Weaver. It is not a specific problem of the ecosystem theory in general. Even today, it pervades the literature and experts in the subject of information and complexity theory seem to be confused by it. The problem has to aspects: (1) The equalization of the thermodynamic concept of entropy (introduced by Boltzmann) with the concept of information used in communication theory (introduced by Shannon) and (2) the equalization of the syntactic and semantic dimension of the concept of information. Before going into these points, I want to outline, briefly, what Boltzmann and Shannon meant by “entropy” and “information,” respectively.

Boltzmann’s entropy: S = k In W [J/K]
W is a measure of the number of microstates (distribution of elements) that realize a certain microstates of a system; k denotes the Boltzmann constant. The entropy S is proportion to W, which means S is higher if a certain microstates is realized through many different microstates. The classical example is a gas-filled box: The number of microstates that realize the microstates “all molecules in one half of the box” is smaller than realizing the microstates “all molecules distributed evenly,” Thus, in the second case, the entropy is higher

Shannon’s information: I = log W [bit]
Here too, W measures the possible states of a system. However, Shannon’s concept did not refer to physical systems but to texts and codes, i.e., to the sequence and distribution of signs (e.g., letter,s number, etc.) He was in the capacity of certain communication channels (e.g., a telegraph). The information of a system that can be found in two states (e.g., a coin) is I = l bit. If it can be found in just one state, then one has I = 0 bit (meaning that no information can be transported by the

0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
Not only an external energy gradient is necessary, but a germ (in which the program of its development is inherent) is needed. The emergence and existence of the germ can in no way be explained by the energy gradient. Thus, using the theory of dissipative structures, one can point to a necessary condition of living creatures: that they must take up energy that is poor in entropy and release energy that is rich in entropy. However, this is not a sufficient explanation of their mod of existence (as is often suggested) the peculiarity of living systems cannot be described within The framework of a physical theory because the concept of function or purpose (see Section 6.3) cannot be used meaningfully for physical objects. Thus, one cannot say that it is the “purpose” (or the “function”) of water molecules to build a convection cell or a cyclone or that it is their purpose to transfer energy more efficiently (unless one defines the structure or the effect to be the purpose).6.5.2 The concept of Information used by Howard OdumBesides the physicalistic reduction of bioiogical systems to dissipative structures, another problem of Howward Odum’s theory is this use of the concepts of entropy and information. The problem, however, did not occur with him but rather with the “fathers” of the information theory: Claude Shannon and Warren Weaver. It is not a specific problem of the ecosystem theory in general. Even today, it pervades the literature and experts in the subject of information and complexity theory seem to be confused by it. The problem has to aspects: (1) The equalization of the thermodynamic concept of entropy (introduced by Boltzmann) with the concept of information used in communication theory (introduced by Shannon) and (2) the equalization of the syntactic and semantic dimension of the concept of information. Before going into these points, I want to outline, briefly, what Boltzmann and Shannon meant by “entropy” and “information,” respectively.
Boltzmann’s entropy: S = k In W [J/K]
W is a measure of the number of microstates (distribution of elements) that realize a certain microstates of a system; k denotes the Boltzmann constant. The entropy S is proportion to W, which means S is higher if a certain microstates is realized through many different microstates. The classical example is a gas-filled box: The number of microstates that realize the microstates “all molecules in one half of the box” is smaller than realizing the microstates “all molecules distributed evenly,” Thus, in the second case, the entropy is higher

Shannon’s information: I = log W [bit]
Here too, W measures the possible states of a system. However, Shannon’s concept did not refer to physical systems but to texts and codes, i.e., to the sequence and distribution of signs (e.g., letter,s number, etc.) He was in the capacity of certain communication channels (e.g., a telegraph). The information of a system that can be found in two states (e.g., a coin) is I = l bit. If it can be found in just one state, then one has I = 0 bit (meaning that no information can be transported by the

การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
ไม่เพียง แต่การไล่ระดับพลังงานจากภายนอกเป็นสิ่งจำเป็น แต่เชื้อโรค (ซึ่งในโปรแกรมของการพัฒนามีอยู่) เป็นสิ่งจำเป็น การเกิดขึ้นและดำรงอยู่ของเชื้อโรคสามารถในทางที่ไม่สามารถอธิบายได้ด้วยการไล่ระดับสีพลังงาน ดังนั้นการใช้ทฤษฎีของโครงสร้าง dissipative หนึ่งสามารถชี้ไปที่เป็นเงื่อนไขที่จำเป็นของสิ่งมีชีวิตที่อาศัยอยู่ว่าพวกเขาจะต้องใช้เวลาถึงพลังงานที่ไม่ดีในเอนโทรปีและปล่อยพลังงานที่อุดมไปด้วยเอนโทรปี แต่นี้ไม่ได้เป็นคำอธิบายที่เพียงพอของสมัยของพวกเขาของการดำรงอยู่ (เท่าที่จะชี้ให้เห็นบ่อย) ความผิดปกติของระบบการใช้ชีวิตที่ไม่สามารถอธิบายได้ในกรอบของทฤษฎีทางกายภาพเพราะแนวคิดของฟังก์ชั่นหรือวัตถุประสงค์ (ดูมาตรา 6.3) ไม่สามารถใช้ความหมาย สำหรับวัตถุทางกายภาพ ดังนั้นหนึ่งไม่สามารถพูดได้ว่ามันเป็น "จุดประสงค์" (หรือ "ฟังก์ชั่น") ของโมเลกุลของน้ำในการสร้างเซลล์พาหรือพายุไซโคลนหรือว่ามันคือจุดมุ่งหมายของพวกเขาในการถ่ายโอนพลังงานที่มีประสิทธิภาพมากขึ้น (ยกเว้นกรณีที่หนึ่งกำหนดโครงสร้างหรือผล ที่จะเป็นจุดประสงค์). 6.5.2 แนวคิดของข้อมูลที่ใช้โดยโฮเวิร์ด Odum นอกจากนี้การลดลงของระบบการ physicalistic bioiogical เพื่อ dissipative โครงสร้างปัญหาของทฤษฎี Howward Odum อื่นคือการใช้แนวคิดของเอนโทรปีและข้อมูลนี้ ปัญหาที่เกิดขึ้น แต่ไม่ได้เกิดขึ้นกับเขา แต่กับ "บรรพบุรุษ" ของทฤษฎีข้อมูล: คลอดด์แชนนอนและวอร์เรนผู้ประกอบการ มันไม่ได้เป็นปัญหาเฉพาะของทฤษฎีระบบนิเวศโดยทั่วไป แม้กระทั่งวันนี้ก็ขจรขจายวรรณกรรมและผู้เชี่ยวชาญในเรื่องของข้อมูลและทฤษฎีความซับซ้อนดูเหมือนจะสับสนมัน ปัญหาที่เกิดขึ้นมีการด้าน (1) การปรับสมดุลของแนวคิดทางอุณหพลศาสตร์เอนโทรปี (นำโดย Boltzmann) กับแนวคิดของข้อมูลที่ใช้ในทฤษฎีการสื่อสาร (นำโดยแชนนอน) และ (2) การปรับสมดุลของมิติประโยคและความหมายของ แนวคิดของข้อมูล ก่อนที่จะเข้าสู่จุดเหล่านี้ผมต้องการที่จะร่างสั้น ๆ สิ่งที่ Boltzmann และแชนนอนหมายโดย "เอนโทรปี" และ "ข้อมูล" ตามลำดับ. เอนโทรปีของ Boltzmann: S = k ใน W [J / K] W เป็นตัวชี้วัดของจำนวนของ พันธนาการ (การกระจายตัวขององค์ประกอบ) ที่ตระหนักถึงพันธนาการบางอย่างของระบบ; k หมายถึงคง Boltzmann เอนโทรปี S เป็นสัดส่วนที่ W ซึ่งหมายความว่า S เป็นที่สูงขึ้นหากพันธนาการบางอย่างตระหนักถึงพันธนาการที่แตกต่างกัน ตัวอย่างคลาสสิกเป็นกล่องเต็มไปด้วยก๊าซ: จำนวนพันธนาการที่ตระหนักถึงพันธนาการ "โมเลกุลทั้งหมดในครึ่งหนึ่งของช่อง" มีขนาดเล็กกว่าการตระหนักถึงพันธนาการ "โมเลกุลทั้งหมดกระจายอย่างสม่ำเสมอ" ดังนั้นในกรณีที่สองเอนโทรปี จะสูงกว่าข้อมูลนอนส์: ฉันเข้าสู่ระบบ W = [บิต] นี่เกินไปมาตรการ W รัฐเป็นไปได้ของระบบ อย่างไรก็ตามแนวคิดของแชนนอนไม่ได้หมายถึงระบบทางกายภาพ แต่ตำราและรหัสคือลำดับและการกระจายของสัญญาณ (เช่นตัวอักษรตัวเลข s ฯลฯ ) เขาอยู่ในความจุของช่องทางการสื่อสารบางอย่าง (เช่นโทรเลข ) ข้อมูลของระบบที่สามารถพบได้ในสองรัฐ (เช่นเหรียญ) เป็น I = บิตต่อลิตร ถ้ามันสามารถพบได้ในเวลาเพียงหนึ่งรัฐหนึ่งมี I = 0 บิต (ซึ่งหมายความว่าข้อมูลที่ไม่สามารถส่งตัว










การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
ไม่เพียง แต่การไล่ระดับพลังงานภายนอกเป็นสิ่งจำเป็น แต่เชื้อโรค ( ซึ่งโปรแกรมของการพัฒนาที่แท้จริง ) ที่จำเป็น การเกิดขึ้นและดำรงอยู่ของเชื้อโรคสามารถในทางที่ไม่สามารถอธิบายได้ โดยไล่ระดับของพลังงาน ดังนั้น การใช้ทฤษฎีโครงสร้าง dissipative หนึ่งสามารถจุดเงื่อนไขที่จำเป็นของสิ่งมีชีวิต :ที่พวกเขาต้องใช้พลังงานที่ไม่ดีในเลือด และปล่อยพลังงานที่อุดมไปด้วยค่า . อย่างไรก็ตาม นี่ไม่ใช่คำอธิบายที่เพียงพอของ mod ของการดำรงอยู่ ( มักพบ ) ลักษณะเฉพาะของระบบชีวิตไม่สามารถอธิบายได้ภายในกรอบของทฤษฎีทางกายภาพ เพราะแนวคิดของฟังก์ชันหรือวัตถุประสงค์ ( ดูมาตรา 63 ) ไม่สามารถใช้มีความหมายสำหรับวัตถุทางกายภาพ ดังนั้นหนึ่งสามารถพูดได้ว่า มันคือ " วัตถุประสงค์ " ( หรือ " ฟังก์ชัน " ) ของโมเลกุลของน้ำจะสร้างการหมุนเวียนเซลล์หรือพายุหมุนหรือมันคือวัตถุประสงค์ของพวกเขาเพื่อการถ่ายโอนพลังงานมีประสิทธิภาพมากขึ้น ( ยกเว้นหนึ่งกำหนดโครงสร้างหรือลักษณะที่จะเป็นวัตถุประสงค์ )

6.5.2 แนวคิดของการใช้สารสนเทศ โดยโฮเวิร์ดโอเดิ้ม
นอกจากการลด physicalistic ระบบ bioiogical โครงสร้าง dissipative อีกปัญหาของทฤษฎีของ howward โอเดิ้มนี้ใช้แนวคิดของเอนโทรปีและข้อมูล ปัญหา , อย่างไรก็ตาม , ไม่ได้เกิดขึ้นกับเขา แต่กับ " พ่อ " ของทฤษฎีข่าวสาร : นีโครโนมิคอน และวอร์เรน วีเวอร์ มันไม่ได้เป็นปัญหาเฉพาะของระบบนิเวศของทฤษฎีทั่วไป แม้วันนี้มันขจรขจายวรรณกรรมและผู้เชี่ยวชาญในเรื่องของข้อมูล และทฤษฎีที่ซับซ้อนดูเหมือนจะสับสนโดย มีปัญหาในด้าน( 1 ) ปรับแนวคิดของอุณหพลศาสตร์ของเอนโทรปี ( แนะนำโดยรวม ) กับแนวคิดของข้อมูลที่ใช้ในทฤษฎีการสื่อสาร ( แนะนำโดย Shannon ) และ ( 2 ) ความเท่าเทียมกันของลักษณะทางวากยสัมพันธ์และอรรถศาสตร์ มิติของแนวคิดของข้อมูล ก่อนที่จะเข้าไปในจุดนี้ ฉันต้องการเค้าร่างสั้น ๆ ว่ารวมแล้วแชนน่อนหมายถึง " เอนโทรปี " และ " ข้อมูล" ตามลำดับ รวมเป็นค่า

: S = K ใน W [ J / K ]
W คือ การวัดจำนวน microstates ( การกระจายของธาตุ ) ที่ตระหนักถึงบาง microstates ของระบบ K หมายถึง Boltzmann คงที่ เอนโทรปีเป็นสัดส่วน W , ซึ่งหมายความว่าจะสูงกว่าถ้าบาง microstates รับรู้ผ่าน microstates แตกต่างกันมาก ตัวอย่างคลาสสิกเป็นก๊าซบรรจุกล่อง :จำนวน microstates ที่ตระหนักถึง microstates " โมเลกุลทั้งหมดในครึ่งหนึ่งของกล่อง " มีขนาดเล็กกว่ารู้ตัว microstates " โมเลกุลกระจาย " ดังนั้น ในกรณีที่สอง เอนโทรปีสูงกว่า

แชนน่อนข้อมูล Log W = [ บิต ]
ที่นี่ด้วย W มาตรการรัฐที่สุด ของระบบ อย่างไรก็ตามแชนน่อนแนวคิดไม่ได้หมายถึงระบบทางกายภาพ แต่ข้อความและรหัส ได้แก่ การเรียงลำดับและการกระจายของสัญญาณ ( เช่น , จดหมาย , อันดับ , ฯลฯ ) เขาอยู่ที่ความจุของช่องทางการสื่อสารบางอย่าง ( เช่นโทรเลข ) ข้อมูลระบบที่สามารถพบได้ใน 2 รัฐ ( เช่นเหรียญ ) = ฉันนิดหน่อย ถ้ามันสามารถพบได้ในเพียงหนึ่งของรัฐแล้วมีใครบ้างฉัน = 0 ( หมายถึงว่าไม่มีข้อมูลที่สามารถขนส่งได้ด้วย

การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2026 I Love Translation. All reserved.

E-mail: