I propose the hypothesis that much of our appreciation of causal relat การแปล - I propose the hypothesis that much of our appreciation of causal relat ไทย วิธีการพูด

I propose the hypothesis that much

I propose the hypothesis that much of our appreciation of causal relations is preverbal and
multimodal, shared with infants and nonhuman animals that lack language. Even at 2½ months, human
babies act surprised when colliding objects do not behave in normal ways, which suggests that they
already possess some elementary understanding of causality. The linguistic and mathematical
limitations of infants require us to look elsewhere for ideas about how they represent causality, which
I conjecture is mainly based on sensory-motor patterns. Babies have patterns of neural activation for
sensory experiences such as seeing a toy or hearing a bell, and they also have neural patterns
corresponding to sequences of motor behaviors such as reaching out and grabbing the toy. It would be
fascinating to work out an account of how neural populations can combine sensory and motor
patterns. For example, when a baby sees a rattle, grabs it, moves it, and then sees the toy in a different
place while hearing it make a sound, there is a repeated pattern of experience that is sensory-motorsensory.
Within a few months of birth, babies have an extensive history of such sensory-motor interactions
that provide them with a good idea of what it is to manipulate the world, not just observing it but
constantly intervening to make things happen in it. Much later, when, as children, they have acquired
language, they can use the word “cause,” but its meaning still depends on the earlier preverbal
experience of perceiving a situation, acting, and perceiving the results of the action. Much later still,
people can acquire a richer understanding of causality by education in statistical inference, but that
still depends on an intuitive notion of causality as intervention that began with sensory-motor
experience
Even very sophisticated ideas about causality, such as Bayesian networks, require an intuitive
notion of causality to provide a scaffolding for how variables are related to each other. Brains meld
this preverbal sensory-motor notion with later linguistic representations to provide a highly useful,
neurally encoded concept of causality that supplies the basis for the explanatory relation that holds
between hypotheses and evidence. Thus we are beginning to glimpse the neural mechanisms that
allow brains to represent hypotheses and concepts, including explanation and causality, using patterns
of neural activity that constitute both verbal and multimodal representations. I suspect that human
understanding of time, like that of space and causality, is often difficult to put into words because its
neural encoding is partly dependent on physiological rather than verbal representations.
But we still need an account of how brains integrate many competing claims about explanations to
make an inference to the best explanation, which requires figuring out the most coherent way of
accepting some hypotheses and rejecting others. Hypotheses and evidence are related to each other by
both positive constraints that concern how they fit together, and negative constraints between
representations that resist fitting together. The most important kind of positive constraint is that when
a hypothesis explains a piece of evidence, they cohere with each other. For example, the hypothesis
that Simpson killed Nicole fits with the evidence that Nicole is dead because the killing causally
explains the death. The most important kind of negative constraint is between hypotheses that
contradict each other or that compete more loosely to explain some piece of evidence. For example,
the hypothesis that Simpson killed Nicole competes with the defense's hypothesis that she was killed
by drug dealers.
To see how this might work in the brain, begin with a highly simplified view of elements such as
hypotheses and evidence as represented by single neuronlike units rather than by patterns of activation
in neural populations. We can then build an artificial neural network that represents constraints among
elements by links between the units that stand for them. Figure 4.2 shows a simple network that has
units representing competing hypotheses in the Simpson case. Positive constraints based on what
explains what are captured by excitatory links between units, roughly analogous to the synaptic
connections that enable one neuron to excite another. Note that figure 4.2 allows levels of explanatory
hypotheses, with the hypothesis that Simpson was angry at his ex-wife explaining why he killed her,
which explains why she is dead. Negative constraints are captured by inhibitory links between units.
Another positive constraint that affects the network is that we should tend to accept what we have
observed with our senses, in this case that Nicole is dead.
In order to figure out the best explanation of the evidence, we need to figure out how to maximize
satisfaction of positive and negative constraints, where we satisfy a positive constraint between
elements by accepting both of them, and a negative constraint by rejecting one and accepting the other.
Fortunately, there are various computational algorithms available for maximizing constraint
satisfaction. The most psychologically natural one uses a number called activation to represent the
high or low acceptability of a unit, where activation is roughly analogous to the firing rate of a
neuron. Then we can use simple algorithms to spread activation in parallel among the units in a
network until some are accepted and others are rejected. For example, when activation is spread
among all the units in the network in figure 4.2, the result is that the unit for the hypothesis that
Simpson is a murderer gets activated, and the competing unit about drug dealers gets deactivated. In
this way, a highly simplified neural network can make a complex coherence judgment using parallel
constraint satisfaction. This method of maximizing explanatory coherence has been used to model a
great many examples from law and science, including the theory revisions that occurred in the major
scientific revolutions wrought by Copernicus and Einstein
From a brain science perspective, the method just described is unsatisfactory because it is obvious
that complex hypotheses such as crime explanations and scientific claims are not represented in the
brain by single neurons. Another problem is that constraints in figure 4.2 are symmetric, allowing two
elements to mutually constrain each other, so that excitatory and inhibitory links between units are
also symmetric. But in real neural networks it never happens that two neurons both excite or inhibit
each other. Fortunately, it is possible to model the calculation of explanatory coherence in a much
more neurologically realistic way.
First, we represent each element by a population of neurons rather than by a single unit. Second,
we represent a link by a whole complex of links between neurons in multiple populations. At this
level, there is no problem in having symmetrical connections because some of the neurons in one
population excite neurons in the other, while others in the second population excite other neurons in
the first one. The resulting neural networks with thousands of artificial neurons are much larger than
the few dozen units that suffice for modeling the Simpson trial and other legal and scientific cases.
But your brain has approximately one hundred billion neurons to work with, so this scale does not
seem to be a problem. Our computer simulations show that more biologically realistic neural
networks can accomplish the same kind of parallel constraint satisfaction as can the simpler ones that
use one unit for each element.
Thus we are beginning to understand how inference to the best explanation might occur in the brain.
As we saw with perception, inference is the result of the dynamic parallel interaction of neural
patterns, not of serial linguistic steps. Attention to brain mechanisms shows how inference can
nonmysteriously be holistic and multimodal. Later chapters will show how similar neural
mechanisms tie inference with emotions and actions.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
ผมเสนอสมมติฐานของเราเพิ่มค่าความสัมพันธ์เชิงสาเหตุ preverbal และทุก ร่วมกับทารกและสัตว์ nonhuman ที่ขาดภาษา แม้ในเดือน 2½ มนุษย์ทารกทำประหลาดใจเมื่อวัตถุชนไม่ทำงานในรูปแบบปกติ การที่พวกเขาแล้วมีบาง causality เข้าใจระดับประถมศึกษา ภาษาศาสตร์ และคณิตศาสตร์ข้อจำกัดของทารกต้องเราแสวงหาความคิดเกี่ยวกับวิธีที่พวกเขาแสดง causality ซึ่งผมคาดคะเนส่วนใหญ่ขึ้นอยู่กับรูปแบบเครื่องยนต์ที่รับความรู้สึก เด็กมีรูปแบบของการเปิดใช้งานประสาทสำหรับประสบการณ์ทางประสาทสัมผัสเช่นเห็นเครื่องเล่น หรือได้ยินเป็นเบลล์ และพวกเขายังมีรูปแบบประสาทที่สอดคล้องกับลำดับของพฤติกรรมมอเตอร์เช่นการเข้าถึง และเล่นแบบโลภ มันจะสถานการทำงานจากบัญชีของประชากรวิธีประสาทสามารถรวมทางประสาทสัมผัส และการเคลื่อนที่รูปแบบการ ตัวอย่าง เมื่อเด็กเห็นตัวสั่น grabs มัน ย้ายมัน แล้ว เห็นเล่นในที่ต่าง ๆทำขณะฟังทำให้มีเสียง รูปแบบการซ้ำของประสบการณ์ทางประสาทสัมผัสของ motorsensory ที่ภายในกี่เดือนเกิด ทารกมีการโต้ตอบการรับความรู้สึกของมอเตอร์ดังกล่าวประวัติอย่างละเอียดที่มีความคิดที่ดีของมันคืออะไรที่ควบคุมโลก ไม่เพียงสังเกต แต่ตลอดเวลาอยู่ระหว่างกลางเพื่อให้สิ่งที่เกิดขึ้นใน มากต่อมา เมื่อ เป็นเด็ก พวกเขาได้รับภาษา พวกเขาสามารถใช้คำว่า "สาเหตุ" แต่ความหมายยังคงขึ้นอยู่กับ preverbal ก่อนหน้านี้experience of perceiving a situation, acting, and perceiving the results of the action. Much later still,people can acquire a richer understanding of causality by education in statistical inference, but thatstill depends on an intuitive notion of causality as intervention that began with sensory-motorexperienceEven very sophisticated ideas about causality, such as Bayesian networks, require an intuitivenotion of causality to provide a scaffolding for how variables are related to each other. Brains meldthis preverbal sensory-motor notion with later linguistic representations to provide a highly useful,neurally encoded concept of causality that supplies the basis for the explanatory relation that holdsbetween hypotheses and evidence. Thus we are beginning to glimpse the neural mechanisms thatallow brains to represent hypotheses and concepts, including explanation and causality, using patternsof neural activity that constitute both verbal and multimodal representations. I suspect that humanunderstanding of time, like that of space and causality, is often difficult to put into words because itsneural encoding is partly dependent on physiological rather than verbal representations.But we still need an account of how brains integrate many competing claims about explanations tomake an inference to the best explanation, which requires figuring out the most coherent way ofaccepting some hypotheses and rejecting others. Hypotheses and evidence are related to each other byboth positive constraints that concern how they fit together, and negative constraints betweenrepresentations that resist fitting together. The most important kind of positive constraint is that whena hypothesis explains a piece of evidence, they cohere with each other. For example, the hypothesisthat Simpson killed Nicole fits with the evidence that Nicole is dead because the killing causallyexplains the death. The most important kind of negative constraint is between hypotheses thatcontradict each other or that compete more loosely to explain some piece of evidence. For example,the hypothesis that Simpson killed Nicole competes with the defense's hypothesis that she was killedby drug dealers.To see how this might work in the brain, begin with a highly simplified view of elements such ashypotheses and evidence as represented by single neuronlike units rather than by patterns of activationin neural populations. We can then build an artificial neural network that represents constraints amongelements by links between the units that stand for them. Figure 4.2 shows a simple network that hasunits representing competing hypotheses in the Simpson case. Positive constraints based on whatexplains what are captured by excitatory links between units, roughly analogous to the synapticconnections that enable one neuron to excite another. Note that figure 4.2 allows levels of explanatoryhypotheses, with the hypothesis that Simpson was angry at his ex-wife explaining why he killed her,which explains why she is dead. Negative constraints are captured by inhibitory links between units.Another positive constraint that affects the network is that we should tend to accept what we haveobserved with our senses, in this case that Nicole is dead.In order to figure out the best explanation of the evidence, we need to figure out how to maximizesatisfaction of positive and negative constraints, where we satisfy a positive constraint betweenelements by accepting both of them, and a negative constraint by rejecting one and accepting the other.Fortunately, there are various computational algorithms available for maximizing constraintsatisfaction. The most psychologically natural one uses a number called activation to represent thehigh or low acceptability of a unit, where activation is roughly analogous to the firing rate of aneuron. Then we can use simple algorithms to spread activation in parallel among the units in anetwork until some are accepted and others are rejected. For example, when activation is spreadamong all the units in the network in figure 4.2, the result is that the unit for the hypothesis thatSimpson is a murderer gets activated, and the competing unit about drug dealers gets deactivated. Inthis way, a highly simplified neural network can make a complex coherence judgment using parallelconstraint satisfaction. This method of maximizing explanatory coherence has been used to model agreat many examples from law and science, including the theory revisions that occurred in the majorscientific revolutions wrought by Copernicus and EinsteinFrom a brain science perspective, the method just described is unsatisfactory because it is obviousthat complex hypotheses such as crime explanations and scientific claims are not represented in thebrain by single neurons. Another problem is that constraints in figure 4.2 are symmetric, allowing twoelements to mutually constrain each other, so that excitatory and inhibitory links between units arealso symmetric. But in real neural networks it never happens that two neurons both excite or inhibiteach other. Fortunately, it is possible to model the calculation of explanatory coherence in a muchmore neurologically realistic way.First, we represent each element by a population of neurons rather than by a single unit. Second,we represent a link by a whole complex of links between neurons in multiple populations. At thislevel, there is no problem in having symmetrical connections because some of the neurons in onepopulation excite neurons in the other, while others in the second population excite other neurons inthe first one. The resulting neural networks with thousands of artificial neurons are much larger thanthe few dozen units that suffice for modeling the Simpson trial and other legal and scientific cases.But your brain has approximately one hundred billion neurons to work with, so this scale does notseem to be a problem. Our computer simulations show that more biologically realistic neural
networks can accomplish the same kind of parallel constraint satisfaction as can the simpler ones that
use one unit for each element.
Thus we are beginning to understand how inference to the best explanation might occur in the brain.
As we saw with perception, inference is the result of the dynamic parallel interaction of neural
patterns, not of serial linguistic steps. Attention to brain mechanisms shows how inference can
nonmysteriously be holistic and multimodal. Later chapters will show how similar neural
mechanisms tie inference with emotions and actions.
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
ผมขอเสนอข้อสันนิษฐานมากเรารู้คุณค่าและความสัมพันธ์เป็น preverbal
แบบร่วมกันกับทารกและสัตว์ที่ไม่ใช่มนุษย์ไม่มีภาษา ที่ 2 ½เดือนมนุษย์
ทารกทำท่าประหลาดใจเมื่อชนวัตถุ ไม่ประพฤติในทางปกติ ซึ่งแสดงให้เห็นว่าพวกเขามีบางประถม
ความเข้าใจดังกล่าวต่อไป ภาษาและคณิตศาสตร์
ข้อจำกัดของทารกที่เราต้องดูที่อื่นสำหรับความคิดเกี่ยวกับวิธีการที่พวกเขาแสดงความเป็นเหตุเป็นผลที่
ผมคาดเดาเป็นหลักตามรูปแบบและมอเตอร์ ทารกมีรูปแบบของการกระตุ้นให้ประสาท
ประสบการณ์ทางประสาทสัมผัสเช่นเห็นของเล่น หรือได้ยินเสียงกระดิ่ง และพวกเขายังมีรูปแบบประสาท
สอดคล้องกับลำดับของพฤติกรรม เช่น มอเตอร์ ยื่นมือออกไปและคว้าของเล่นมันจะน่าสนใจที่จะทำงานออก
บัญชีวิธีประชากรประสาทสามารถรวมประสาทสัมผัสและมอเตอร์
ลวดลาย ตัวอย่างเช่น เมื่อลูกเห็นบ่น คว้ามันย้ายแล้วเห็นของเล่นในสถานที่แตกต่างกัน
ตอนที่ได้ยินเสียงดัง มีซ้ำรูปแบบของประสบการณ์ที่เป็นประสาทสัมผัส motorsensory .
ภายในไม่กี่เดือนของการเกิดทารกมีประวัติอย่างละเอียด เช่น การปฏิสัมพันธ์
ที่มอเตอร์ให้พวกเขามีความคิดที่ดีของสิ่งที่จะจัดการกับโลก ไม่ใช่แค่สังเกตมัน แต่แทรกแซง
อย่างต่อเนื่องเพื่อให้สิ่งที่เกิดขึ้นในนั้น มากเมื่อตอนเป็นเด็ก พวกเขาได้รับ
ภาษาที่พวกเขาสามารถใช้คำว่า " เหตุผล " แต่ความหมายของมันก็ขึ้นอยู่กับก่อนหน้านี้ preverbal
ประสบการณ์ของการรับรู้สถานการณ์ การแสดง และรับรู้ผลของการกระทำ มากในภายหลังก็ยังสามารถได้รับความเข้าใจ
คนร่ำรวยของความเป็นเหตุเป็นผล โดยการศึกษาในการอนุมานทางสถิติ แต่ความคิดที่ใช้งานง่าย
ยังขึ้นอยู่กับความสัมพันธ์ของการแทรกแซงที่เริ่มด้วยประสาทสัมผัสประสบการณ์

แม้มอเตอร์ความคิดซับซ้อนมากเกี่ยวกับความเป็นเหตุเป็นผล เช่นเครือข่ายเบย์
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: