Not only an external energy gradient is necessary, but a germ (in which the program of its development is inherent) is needed. The emergence and existence of the germ can in no way be explained by the energy gradient. Thus, using the theory of dissipative structures, one can point to a necessary condition of living creatures: that they must take up energy that is poor in entropy and release energy that is rich in entropy. However, this is not a sufficient explanation of their mod of existence (as is often suggested) the peculiarity of living systems cannot be described within The framework of a physical theory because the concept of function or purpose (see Section 6.3) cannot be used meaningfully for physical objects. Thus, one cannot say that it is the “purpose” (or the “function”) of water molecules to build a convection cell or a cyclone or that it is their purpose to transfer energy more efficiently (unless one defines the structure or the effect to be the purpose).
6.5.2 The concept of Information used by Howard Odum
Besides the physicalistic reduction of bioiogical systems to dissipative structures, another problem of Howward Odum’s theory is this use of the concepts of entropy and information. The problem, however, did not occur with him but rather with the “fathers” of the information theory: Claude Shannon and Warren Weaver. It is not a specific problem of the ecosystem theory in general. Even today, it pervades the literature and experts in the subject of information and complexity theory seem to be confused by it. The problem has to aspects: (1) The equalization of the thermodynamic concept of entropy (introduced by Boltzmann) with the concept of information used in communication theory (introduced by Shannon) and (2) the equalization of the syntactic and semantic dimension of the concept of information. Before going into these points, I want to outline, briefly, what Boltzmann and Shannon meant by “entropy” and “information,” respectively.
Boltzmann’s entropy: S = k In W [J/K]
W is a measure of the number of microstates (distribution of elements) that realize a certain microstates of a system; k denotes the Boltzmann constant. The entropy S is proportion to W, which means S is higher if a certain microstates is realized through many different microstates. The classical example is a gas-filled box: The number of microstates that realize the microstates “all molecules in one half of the box” is smaller than realizing the microstates “all molecules distributed evenly,” Thus, in the second case, the entropy is higher
Shannon’s information: I = log W [bit]
Here too, W measures the possible states of a system. However, Shannon’s concept did not refer to physical systems but to texts and codes, i.e., to the sequence and distribution of signs (e.g., letter,s number, etc.) He was in the capacity of certain communication channels (e.g., a telegraph). The information of a system that can be found in two states (e.g., a coin) is I = l bit. If it can be found in just one state, then one has I = 0 bit (meaning that no information can be transported by the
Not only an external energy gradient is necessary, but a germ (in which the program of its development is inherent) is needed. The emergence and existence of the germ can in no way be explained by the energy gradient. Thus, using the theory of dissipative structures, one can point to a necessary condition of living creatures: that they must take up energy that is poor in entropy and release energy that is rich in entropy. However, this is not a sufficient explanation of their mod of existence (as is often suggested) the peculiarity of living systems cannot be described within The framework of a physical theory because the concept of function or purpose (see Section 6.3) cannot be used meaningfully for physical objects. Thus, one cannot say that it is the “purpose” (or the “function”) of water molecules to build a convection cell or a cyclone or that it is their purpose to transfer energy more efficiently (unless one defines the structure or the effect to be the purpose).6.5.2 The concept of Information used by Howard OdumBesides the physicalistic reduction of bioiogical systems to dissipative structures, another problem of Howward Odum’s theory is this use of the concepts of entropy and information. The problem, however, did not occur with him but rather with the “fathers” of the information theory: Claude Shannon and Warren Weaver. It is not a specific problem of the ecosystem theory in general. Even today, it pervades the literature and experts in the subject of information and complexity theory seem to be confused by it. The problem has to aspects: (1) The equalization of the thermodynamic concept of entropy (introduced by Boltzmann) with the concept of information used in communication theory (introduced by Shannon) and (2) the equalization of the syntactic and semantic dimension of the concept of information. Before going into these points, I want to outline, briefly, what Boltzmann and Shannon meant by “entropy” and “information,” respectively.
Boltzmann’s entropy: S = k In W [J/K]
W is a measure of the number of microstates (distribution of elements) that realize a certain microstates of a system; k denotes the Boltzmann constant. The entropy S is proportion to W, which means S is higher if a certain microstates is realized through many different microstates. The classical example is a gas-filled box: The number of microstates that realize the microstates “all molecules in one half of the box” is smaller than realizing the microstates “all molecules distributed evenly,” Thus, in the second case, the entropy is higher
Shannon’s information: I = log W [bit]
Here too, W measures the possible states of a system. However, Shannon’s concept did not refer to physical systems but to texts and codes, i.e., to the sequence and distribution of signs (e.g., letter,s number, etc.) He was in the capacity of certain communication channels (e.g., a telegraph). The information of a system that can be found in two states (e.g., a coin) is I = l bit. If it can be found in just one state, then one has I = 0 bit (meaning that no information can be transported by the
การแปล กรุณารอสักครู่..

ไม่เพียง แต่การไล่ระดับพลังงานภายนอกเป็นสิ่งจำเป็น แต่เชื้อโรค ( ซึ่งโปรแกรมของการพัฒนาที่แท้จริง ) ที่จำเป็น การเกิดขึ้นและดำรงอยู่ของเชื้อโรคสามารถในทางที่ไม่สามารถอธิบายได้ โดยไล่ระดับของพลังงาน ดังนั้น การใช้ทฤษฎีโครงสร้าง dissipative หนึ่งสามารถจุดเงื่อนไขที่จำเป็นของสิ่งมีชีวิต :ที่พวกเขาต้องใช้พลังงานที่ไม่ดีในเลือด และปล่อยพลังงานที่อุดมไปด้วยค่า . อย่างไรก็ตาม นี่ไม่ใช่คำอธิบายที่เพียงพอของ mod ของการดำรงอยู่ ( มักพบ ) ลักษณะเฉพาะของระบบชีวิตไม่สามารถอธิบายได้ภายในกรอบของทฤษฎีทางกายภาพ เพราะแนวคิดของฟังก์ชันหรือวัตถุประสงค์ ( ดูมาตรา 63 ) ไม่สามารถใช้มีความหมายสำหรับวัตถุทางกายภาพ ดังนั้นหนึ่งสามารถพูดได้ว่า มันคือ " วัตถุประสงค์ " ( หรือ " ฟังก์ชัน " ) ของโมเลกุลของน้ำจะสร้างการหมุนเวียนเซลล์หรือพายุหมุนหรือมันคือวัตถุประสงค์ของพวกเขาเพื่อการถ่ายโอนพลังงานมีประสิทธิภาพมากขึ้น ( ยกเว้นหนึ่งกำหนดโครงสร้างหรือลักษณะที่จะเป็นวัตถุประสงค์ )
6.5.2 แนวคิดของการใช้สารสนเทศ โดยโฮเวิร์ดโอเดิ้ม
นอกจากการลด physicalistic ระบบ bioiogical โครงสร้าง dissipative อีกปัญหาของทฤษฎีของ howward โอเดิ้มนี้ใช้แนวคิดของเอนโทรปีและข้อมูล ปัญหา , อย่างไรก็ตาม , ไม่ได้เกิดขึ้นกับเขา แต่กับ " พ่อ " ของทฤษฎีข่าวสาร : นีโครโนมิคอน และวอร์เรน วีเวอร์ มันไม่ได้เป็นปัญหาเฉพาะของระบบนิเวศของทฤษฎีทั่วไป แม้วันนี้มันขจรขจายวรรณกรรมและผู้เชี่ยวชาญในเรื่องของข้อมูล และทฤษฎีที่ซับซ้อนดูเหมือนจะสับสนโดย มีปัญหาในด้าน( 1 ) ปรับแนวคิดของอุณหพลศาสตร์ของเอนโทรปี ( แนะนำโดยรวม ) กับแนวคิดของข้อมูลที่ใช้ในทฤษฎีการสื่อสาร ( แนะนำโดย Shannon ) และ ( 2 ) ความเท่าเทียมกันของลักษณะทางวากยสัมพันธ์และอรรถศาสตร์ มิติของแนวคิดของข้อมูล ก่อนที่จะเข้าไปในจุดนี้ ฉันต้องการเค้าร่างสั้น ๆ ว่ารวมแล้วแชนน่อนหมายถึง " เอนโทรปี " และ " ข้อมูล" ตามลำดับ รวมเป็นค่า
: S = K ใน W [ J / K ]
W คือ การวัดจำนวน microstates ( การกระจายของธาตุ ) ที่ตระหนักถึงบาง microstates ของระบบ K หมายถึง Boltzmann คงที่ เอนโทรปีเป็นสัดส่วน W , ซึ่งหมายความว่าจะสูงกว่าถ้าบาง microstates รับรู้ผ่าน microstates แตกต่างกันมาก ตัวอย่างคลาสสิกเป็นก๊าซบรรจุกล่อง :จำนวน microstates ที่ตระหนักถึง microstates " โมเลกุลทั้งหมดในครึ่งหนึ่งของกล่อง " มีขนาดเล็กกว่ารู้ตัว microstates " โมเลกุลกระจาย " ดังนั้น ในกรณีที่สอง เอนโทรปีสูงกว่า
แชนน่อนข้อมูล Log W = [ บิต ]
ที่นี่ด้วย W มาตรการรัฐที่สุด ของระบบ อย่างไรก็ตามแชนน่อนแนวคิดไม่ได้หมายถึงระบบทางกายภาพ แต่ข้อความและรหัส ได้แก่ การเรียงลำดับและการกระจายของสัญญาณ ( เช่น , จดหมาย , อันดับ , ฯลฯ ) เขาอยู่ที่ความจุของช่องทางการสื่อสารบางอย่าง ( เช่นโทรเลข ) ข้อมูลระบบที่สามารถพบได้ใน 2 รัฐ ( เช่นเหรียญ ) = ฉันนิดหน่อย ถ้ามันสามารถพบได้ในเพียงหนึ่งของรัฐแล้วมีใครบ้างฉัน = 0 ( หมายถึงว่าไม่มีข้อมูลที่สามารถขนส่งได้ด้วย
การแปล กรุณารอสักครู่..
