In physical sciences and engineering the metaphysical paradigm has bee การแปล - In physical sciences and engineering the metaphysical paradigm has bee ไทย วิธีการพูด

In physical sciences and engineerin

In physical sciences and engineering the metaphysical paradigm has been largely superseded by the representational one, which, in turn, is increasingly complemented by emphasis on the role of models and, therefore, by the relativistic paradigm, moderated by the pragmatic instances analyzed above. The adoption of a pragmatic perspective in PM research and practice requires a critical re-conceptualization. First of all, the adoption of a model-based view, as opposed to a truth-based view, has substantial implications on the measurement process and on the interpretation of its results. From a model-based point of view, measurement is regarded as a knowledge-based process, rather than a purely empirical determination. The object whose property is measured is assumed to exist in the empirical world, but it is acknowledged that the data collected about that object results from an interpretation process, i.e., an explicit or implicit model, which belongs to the symbolic/informational realm. As a consequence, the measurement procedure must be defined, and the system under measurement designed and set up by considering the context and the goals for which the measurement itself is being undertaken. Furthermore, particular care has to be exerted when utilizing any data or information in a context other than that in which it was meant, as this has substantial implications on the drivers, purposes and uses of PM (Behn, 2003 and Hatry, 1999). This is particularly significant in benchmarking exercises or compilation of league tables in both private and public sector contexts (Ammons, 1999 and Goldstein and Spiegelhalter, 1996). Equally, from a model-based point of view, it would be nonsensical to state that a performance indicator is either ‘good’ or ‘bad’ in absolute terms. Rather, on the bases of its goals and other relevant factors (e.g., cost, quality), an indicator could be deemed to be adequate or inadequate-to-purpose. For example, an indicator that considers the average time an organization spends to produce a quote might be appropriate to monitor the organization's responsiveness to customers. This does not equate to saying that the average difference between date of verbal confirmation of receipt of quote by customers and the date of first contact by customers is the ‘right measure’ for responsiveness to customers. In fact, the calculation of variance in performance could also be informative. However, a simple average might be appropriate for monitoring purposes, whereas richer information would be necessary to support process improvement.

Second, the aims of accuracy, repeatability and objectivity in measurement emphasize the necessity to define the properties being measured, and to question and consider the influence of the measurer on the measurement results. Although most organizations utilize measures of ‘absenteeism’, for example, the ways in which absenteeism is effectively defined and measured can substantially vary (Hausknecht et al., 2008). Moreover, information on absenteeism would be influenced by the person undertaking the measurement, i.e., differences in responses are likely to emerge if measurement is performed either by management or by an independent agency. Reasons for measurement (e.g., understanding reasons for absence, launching a new program to motivate employees, or simply reducing absenteeism) would also influence measurement results. Therefore, operational definitions could be adopted to enhance consistency and trust in the indicators introduced (Deming, 1986 and Goldratt and Cox, 2004). However, the relevance and unavoidability of interpretive models in the measurement process also highlight the importance of surfacing mental models in the design and use of PM systems. If mental models are considered as “deeply ingrained assumptions, generalizations, or even pictures or images that influence how we understand the world and how we take action” (Senge, 2006, p. 8), it is clear how PM could be both influenced by, and used as a way to challenge, mental models. This is particularly relevant, since long-term success often depends on the process through which management teams modify and improve the shared mental models of their organizations, their markets, and their competitors (Argyris, 1977, De Geus, 1999 and Senge, 2006).

The consideration of the epistemic role of the measurer also has significant consequences in relation to organizational learning and review of PM systems. As Bohm (1980, p. 23) argued, “the attempt to suppose that measures exist prior to man and independently of him leads […] to the ‘objectification’ of man's insight, so that it becomes rigidified and unable to change, eventually bringing about fragmentation and general confusion”. If confusion exists between reality and the measurement results obtained from it, in such a way that measurement is seen as capturing the essence of objects, PM systems will inevitably be static. Research has demonstrated how the use of excessively rigid PM systems could lead to organizational paralysis, or ‘ossification’ (Smith, 1995b). Indeed, after investing substantial resources to design and implement large sets of performance indicators, organizations often decide not to modify them, also because they are perceived as ‘perfect representations’ of performance. On the contrary, only by analyzing the data gathered through the system and, in particular, reformulating the PM system itself, can organizations improve their performance and generate single and double loop learning. Indeed, “double-loop changes cannot occur without unfreezing the models of organizational structures and processes now in good currency” (Argyris, 1992, p. 11). Therefore, reviews of PM systems must happen through an in-depth comparison between what is measured of the activities performed, and which activities really occur, since measurement is related to the knowledge about the state of an object, rather than the knowledge about the object ‘in itself’. Consequently, reviews could be used to challenge not only the current PM system, but also the organization's strategy and its implementation (on the roles of PM systems in strategy formulation and implementation see, for example, Chenhall, 2005, Gimbert et al., 2010 and Simons, 1990).

Fourth, replacing the criterion of truth with a criterion of adequacy implies that cost and quality of measurement should be considered relevant components of the measurement process, and, therefore, assessed both before and after measurement takes place. As a consequence, the introduction of PM systems must be considered as an investment from which to expect a certain return, rather than either an inherently fruitful use of resources (Kaplan and Norton, 1992) or a ‘necessary evil’ (Brignall and Modell, 2000). Both error and uncertainty should be considered in relation to the empirical ability of obtaining appropriate information on the intended property: hence, specificity and trust also become essential features of PM, as performance could be measured with great accuracy, but precision can be misleading, as indicators can be precisely wrong (Mari, 2007).

Fifth, the focus of measurement has to shift from what is measurable, which is a prevalently epistemological act, to the nature of the objects that we want to measure, i.e., the actual organizational processes and activities being performed. Moreover, indicators should not be considered as exact pictures of reality or as unveiling presumed truths. On the contrary, they ought to be used as ways to gather information about organizational performance that is as adequate as possible. Several authors have suggested ways to tackle the inherent incompleteness of PM systems (Chapman, 1997, Lillis, 2002 and Wouters and Wilderom, 2008). Although more appropriate designs and implementations could certainly contribute to this aim, it is also important to fully acknowledge the limitations of measurement. In particular, when measuring performance the last word has to go to the object being measured, and not to the subject; as subjects we have to continuously confront ourselves with the object and not vice versa (Ferraris, 2005).

Finally, as the etymology of ‘measurement’ suggests, PM systems should be proportionate, i.e., they should consist of an adequate number of indicators, which can inform decision-making processes, rather than aim at providing ‘true representations’ of performance. While great advancements in the theory and practice of performance measurement are certainly possible, they would have to go beyond ‘more and more precise measurement’.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
In physical sciences and engineering the metaphysical paradigm has been largely superseded by the representational one, which, in turn, is increasingly complemented by emphasis on the role of models and, therefore, by the relativistic paradigm, moderated by the pragmatic instances analyzed above. The adoption of a pragmatic perspective in PM research and practice requires a critical re-conceptualization. First of all, the adoption of a model-based view, as opposed to a truth-based view, has substantial implications on the measurement process and on the interpretation of its results. From a model-based point of view, measurement is regarded as a knowledge-based process, rather than a purely empirical determination. The object whose property is measured is assumed to exist in the empirical world, but it is acknowledged that the data collected about that object results from an interpretation process, i.e., an explicit or implicit model, which belongs to the symbolic/informational realm. As a consequence, the measurement procedure must be defined, and the system under measurement designed and set up by considering the context and the goals for which the measurement itself is being undertaken. Furthermore, particular care has to be exerted when utilizing any data or information in a context other than that in which it was meant, as this has substantial implications on the drivers, purposes and uses of PM (Behn, 2003 and Hatry, 1999). This is particularly significant in benchmarking exercises or compilation of league tables in both private and public sector contexts (Ammons, 1999 and Goldstein and Spiegelhalter, 1996). Equally, from a model-based point of view, it would be nonsensical to state that a performance indicator is either ‘good’ or ‘bad’ in absolute terms. Rather, on the bases of its goals and other relevant factors (e.g., cost, quality), an indicator could be deemed to be adequate or inadequate-to-purpose. For example, an indicator that considers the average time an organization spends to produce a quote might be appropriate to monitor the organization's responsiveness to customers. This does not equate to saying that the average difference between date of verbal confirmation of receipt of quote by customers and the date of first contact by customers is the ‘right measure’ for responsiveness to customers. In fact, the calculation of variance in performance could also be informative. However, a simple average might be appropriate for monitoring purposes, whereas richer information would be necessary to support process improvement.

Second, the aims of accuracy, repeatability and objectivity in measurement emphasize the necessity to define the properties being measured, and to question and consider the influence of the measurer on the measurement results. Although most organizations utilize measures of ‘absenteeism’, for example, the ways in which absenteeism is effectively defined and measured can substantially vary (Hausknecht et al., 2008). Moreover, information on absenteeism would be influenced by the person undertaking the measurement, i.e., differences in responses are likely to emerge if measurement is performed either by management or by an independent agency. Reasons for measurement (e.g., understanding reasons for absence, launching a new program to motivate employees, or simply reducing absenteeism) would also influence measurement results. Therefore, operational definitions could be adopted to enhance consistency and trust in the indicators introduced (Deming, 1986 and Goldratt and Cox, 2004). However, the relevance and unavoidability of interpretive models in the measurement process also highlight the importance of surfacing mental models in the design and use of PM systems. If mental models are considered as “deeply ingrained assumptions, generalizations, or even pictures or images that influence how we understand the world and how we take action” (Senge, 2006, p. 8), it is clear how PM could be both influenced by, and used as a way to challenge, mental models. This is particularly relevant, since long-term success often depends on the process through which management teams modify and improve the shared mental models of their organizations, their markets, and their competitors (Argyris, 1977, De Geus, 1999 and Senge, 2006).

The consideration of the epistemic role of the measurer also has significant consequences in relation to organizational learning and review of PM systems. As Bohm (1980, p. 23) argued, “the attempt to suppose that measures exist prior to man and independently of him leads […] to the ‘objectification’ of man's insight, so that it becomes rigidified and unable to change, eventually bringing about fragmentation and general confusion”. If confusion exists between reality and the measurement results obtained from it, in such a way that measurement is seen as capturing the essence of objects, PM systems will inevitably be static. Research has demonstrated how the use of excessively rigid PM systems could lead to organizational paralysis, or ‘ossification’ (Smith, 1995b). Indeed, after investing substantial resources to design and implement large sets of performance indicators, organizations often decide not to modify them, also because they are perceived as ‘perfect representations’ of performance. On the contrary, only by analyzing the data gathered through the system and, in particular, reformulating the PM system itself, can organizations improve their performance and generate single and double loop learning. Indeed, “double-loop changes cannot occur without unfreezing the models of organizational structures and processes now in good currency” (Argyris, 1992, p. 11). Therefore, reviews of PM systems must happen through an in-depth comparison between what is measured of the activities performed, and which activities really occur, since measurement is related to the knowledge about the state of an object, rather than the knowledge about the object ‘in itself’. Consequently, reviews could be used to challenge not only the current PM system, but also the organization's strategy and its implementation (on the roles of PM systems in strategy formulation and implementation see, for example, Chenhall, 2005, Gimbert et al., 2010 and Simons, 1990).

Fourth, replacing the criterion of truth with a criterion of adequacy implies that cost and quality of measurement should be considered relevant components of the measurement process, and, therefore, assessed both before and after measurement takes place. As a consequence, the introduction of PM systems must be considered as an investment from which to expect a certain return, rather than either an inherently fruitful use of resources (Kaplan and Norton, 1992) or a ‘necessary evil’ (Brignall and Modell, 2000). Both error and uncertainty should be considered in relation to the empirical ability of obtaining appropriate information on the intended property: hence, specificity and trust also become essential features of PM, as performance could be measured with great accuracy, but precision can be misleading, as indicators can be precisely wrong (Mari, 2007).

Fifth, the focus of measurement has to shift from what is measurable, which is a prevalently epistemological act, to the nature of the objects that we want to measure, i.e., the actual organizational processes and activities being performed. Moreover, indicators should not be considered as exact pictures of reality or as unveiling presumed truths. On the contrary, they ought to be used as ways to gather information about organizational performance that is as adequate as possible. Several authors have suggested ways to tackle the inherent incompleteness of PM systems (Chapman, 1997, Lillis, 2002 and Wouters and Wilderom, 2008). Although more appropriate designs and implementations could certainly contribute to this aim, it is also important to fully acknowledge the limitations of measurement. In particular, when measuring performance the last word has to go to the object being measured, and not to the subject; as subjects we have to continuously confront ourselves with the object and not vice versa (Ferraris, 2005).

Finally, as the etymology of ‘measurement’ suggests, PM systems should be proportionate, i.e., they should consist of an adequate number of indicators, which can inform decision-making processes, rather than aim at providing ‘true representations’ of performance. While great advancements in the theory and practice of performance measurement are certainly possible, they would have to go beyond ‘more and more precise measurement’.
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
In physical sciences and engineering the metaphysical paradigm has been largely superseded by the representational one, which, in turn, is increasingly complemented by emphasis on the role of models and, therefore, by the relativistic paradigm, moderated by the pragmatic instances analyzed above. The adoption of a pragmatic perspective in PM research and practice requires a critical re-conceptualization. First of all, the adoption of a model-based view, as opposed to a truth-based view, has substantial implications on the measurement process and on the interpretation of its results. From a model-based point of view, measurement is regarded as a knowledge-based process, rather than a purely empirical determination. The object whose property is measured is assumed to exist in the empirical world, but it is acknowledged that the data collected about that object results from an interpretation process, i.e., an explicit or implicit model, which belongs to the symbolic/informational realm. As a consequence, the measurement procedure must be defined, and the system under measurement designed and set up by considering the context and the goals for which the measurement itself is being undertaken. Furthermore, particular care has to be exerted when utilizing any data or information in a context other than that in which it was meant, as this has substantial implications on the drivers, purposes and uses of PM (Behn, 2003 and Hatry, 1999). This is particularly significant in benchmarking exercises or compilation of league tables in both private and public sector contexts (Ammons, 1999 and Goldstein and Spiegelhalter, 1996). Equally, from a model-based point of view, it would be nonsensical to state that a performance indicator is either ‘good’ or ‘bad’ in absolute terms. Rather, on the bases of its goals and other relevant factors (e.g., cost, quality), an indicator could be deemed to be adequate or inadequate-to-purpose. For example, an indicator that considers the average time an organization spends to produce a quote might be appropriate to monitor the organization's responsiveness to customers. This does not equate to saying that the average difference between date of verbal confirmation of receipt of quote by customers and the date of first contact by customers is the ‘right measure’ for responsiveness to customers. In fact, the calculation of variance in performance could also be informative. However, a simple average might be appropriate for monitoring purposes, whereas richer information would be necessary to support process improvement.

Second, the aims of accuracy, repeatability and objectivity in measurement emphasize the necessity to define the properties being measured, and to question and consider the influence of the measurer on the measurement results. Although most organizations utilize measures of ‘absenteeism’, for example, the ways in which absenteeism is effectively defined and measured can substantially vary (Hausknecht et al., 2008). Moreover, information on absenteeism would be influenced by the person undertaking the measurement, i.e., differences in responses are likely to emerge if measurement is performed either by management or by an independent agency. Reasons for measurement (e.g., understanding reasons for absence, launching a new program to motivate employees, or simply reducing absenteeism) would also influence measurement results. Therefore, operational definitions could be adopted to enhance consistency and trust in the indicators introduced (Deming, 1986 and Goldratt and Cox, 2004). However, the relevance and unavoidability of interpretive models in the measurement process also highlight the importance of surfacing mental models in the design and use of PM systems. If mental models are considered as “deeply ingrained assumptions, generalizations, or even pictures or images that influence how we understand the world and how we take action” (Senge, 2006, p. 8), it is clear how PM could be both influenced by, and used as a way to challenge, mental models. This is particularly relevant, since long-term success often depends on the process through which management teams modify and improve the shared mental models of their organizations, their markets, and their competitors (Argyris, 1977, De Geus, 1999 and Senge, 2006).

The consideration of the epistemic role of the measurer also has significant consequences in relation to organizational learning and review of PM systems. As Bohm (1980, p. 23) argued, “the attempt to suppose that measures exist prior to man and independently of him leads […] to the ‘objectification’ of man's insight, so that it becomes rigidified and unable to change, eventually bringing about fragmentation and general confusion”. If confusion exists between reality and the measurement results obtained from it, in such a way that measurement is seen as capturing the essence of objects, PM systems will inevitably be static. Research has demonstrated how the use of excessively rigid PM systems could lead to organizational paralysis, or ‘ossification’ (Smith, 1995b). Indeed, after investing substantial resources to design and implement large sets of performance indicators, organizations often decide not to modify them, also because they are perceived as ‘perfect representations’ of performance. On the contrary, only by analyzing the data gathered through the system and, in particular, reformulating the PM system itself, can organizations improve their performance and generate single and double loop learning. Indeed, “double-loop changes cannot occur without unfreezing the models of organizational structures and processes now in good currency” (Argyris, 1992, p. 11). Therefore, reviews of PM systems must happen through an in-depth comparison between what is measured of the activities performed, and which activities really occur, since measurement is related to the knowledge about the state of an object, rather than the knowledge about the object ‘in itself’. Consequently, reviews could be used to challenge not only the current PM system, but also the organization's strategy and its implementation (on the roles of PM systems in strategy formulation and implementation see, for example, Chenhall, 2005, Gimbert et al., 2010 and Simons, 1990).

Fourth, replacing the criterion of truth with a criterion of adequacy implies that cost and quality of measurement should be considered relevant components of the measurement process, and, therefore, assessed both before and after measurement takes place. As a consequence, the introduction of PM systems must be considered as an investment from which to expect a certain return, rather than either an inherently fruitful use of resources (Kaplan and Norton, 1992) or a ‘necessary evil’ (Brignall and Modell, 2000). Both error and uncertainty should be considered in relation to the empirical ability of obtaining appropriate information on the intended property: hence, specificity and trust also become essential features of PM, as performance could be measured with great accuracy, but precision can be misleading, as indicators can be precisely wrong (Mari, 2007).

Fifth, the focus of measurement has to shift from what is measurable, which is a prevalently epistemological act, to the nature of the objects that we want to measure, i.e., the actual organizational processes and activities being performed. Moreover, indicators should not be considered as exact pictures of reality or as unveiling presumed truths. On the contrary, they ought to be used as ways to gather information about organizational performance that is as adequate as possible. Several authors have suggested ways to tackle the inherent incompleteness of PM systems (Chapman, 1997, Lillis, 2002 and Wouters and Wilderom, 2008). Although more appropriate designs and implementations could certainly contribute to this aim, it is also important to fully acknowledge the limitations of measurement. In particular, when measuring performance the last word has to go to the object being measured, and not to the subject; as subjects we have to continuously confront ourselves with the object and not vice versa (Ferraris, 2005).

Finally, as the etymology of ‘measurement’ suggests, PM systems should be proportionate, i.e., they should consist of an adequate number of indicators, which can inform decision-making processes, rather than aim at providing ‘true representations’ of performance. While great advancements in the theory and practice of performance measurement are certainly possible, they would have to go beyond ‘more and more precise measurement’.
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
วิทยาศาสตร์กายภาพและวิศวกรรมศาสตร์กระบวนทัศน์ซึ่งส่วนใหญ่ได้รับการแทนที่โดยดำเนินการอย่างใดอย่างหนึ่ง ซึ่งในการเปิดมากขึ้น พร้อมเน้นบทบาทของรูปแบบและดังนั้นโดยกระบวนทัศน์เชิงสัมพัทธภาพมากขึ้น โดยปฏิบัติกรณีวิเคราะห์ข้างต้นการยอมรับการใช้มุมมองทางปฏิบัติในการวิจัย และการปฏิบัติน. ต้องใช้แนวความคิดเป็นสําคัญ ครั้งแรกของทั้งหมด การยอมรับมุมมองสำหรับ , ตรงข้ามกับความจริงดูจากมีผลกระทบอย่างมากต่อกระบวนการการวัดและการแปลความหมายของผลลัพธ์ของ จากสำหรับมุมมอง การวัด ถือเป็นกระบวนการฐานความรู้มากกว่าการกำหนดแบบเชิงประจักษ์ วัตถุที่มีสมบัติ เป็นวัดที่ถือว่าอยู่ในโลกเชิงประจักษ์ แต่ก็ยอมรับว่าข้อมูลเกี่ยวกับวัตถุนั้น ผลจากการตีความกระบวนการ ได้แก่ รูปแบบที่ชัดเจนหรือโดยนัย ซึ่งเป็นของอาณาจักรข้อมูลสัญลักษณ์ / อย่างไรก็ดี ขั้นตอนการวัดจะต้องระบุและภายใต้ระบบการวัดการออกแบบและติดตั้งโดยพิจารณาบริบทและเป้าหมายที่ประเมินตัวเองจะถูกดำเนินการ นอกจากนี้ การดูแล โดยเฉพาะต้องใช้เมื่อใช้ข้อมูลหรือข้อมูลในบริบทอื่น ๆ กว่านั้น ซึ่งมันหมายถึง นี้มีผลกระทบอย่างมากในไดรเวอร์ , วัตถุประสงค์และการใช้ PM ( เบห์น , 2003 และ hatry , 1999 )นี้คือโดยเฉพาะอย่างยิ่งที่สำคัญในการฝึกหรือการรวบรวมตารางในบริบททั้งภาคเอกชนและภาครัฐ ( Ammons , 2542 และ โกลด์สไตน์ และ spiegelhalter , 1996 ) เท่าจากสำหรับมุมมอง มันคงจะไร้สาระกับสภาพที่บ่งชี้ประสิทธิภาพเป็น ' ดี ' หรือ ' ดี ' ในแง่แน่นอน ค่อนข้างบนพื้นฐานของเป้าหมายและปัจจัยอื่น ๆที่เกี่ยวข้อง ( เช่น ต้นทุน คุณภาพ ) , ตัวบ่งชี้อาจจะถือว่าเพียงพอหรือไม่เพียงพอกับวัตถุประสงค์ ตัวอย่างเช่น ตัวบ่งชี้ที่พิจารณาเวลาเฉลี่ยที่องค์กรใช้ในการผลิตราคาอาจจะเหมาะสมเพื่อตรวจสอบการตอบสนองขององค์กรให้กับลูกค้านี้ ไม่ได้ถือเอาว่าค่าเฉลี่ยความแตกต่างระหว่างวันที่ยืนยันคำพูดของการอ้างโดยลูกค้าและวันที่ของการติดต่อครั้งแรกโดยลูกค้าเป็น ' วัด ' เพื่อตอบสนองกับลูกค้า ในความเป็นจริงการคำนวณของความแปรปรวนในการทำงานยังสามารถเป็นข้อมูล อย่างไรก็ตาม ค่าเฉลี่ยที่เรียบง่ายอาจจะเหมาะสมสำหรับการตรวจสอบวัตถุประสงค์ในขณะที่ข้อมูลรวยจะต้องสนับสนุนการปรับปรุงกระบวนการ

ที่สอง จุดมุ่งหมายของการเป้าหมายในการวัดความถูกต้อง และเน้นความจำเป็นที่จะต้องกำหนดคุณสมบัติ ที่ วัด และตั้งคำถามและพิจารณาอิทธิพลของขนาดในการวัดผล แม้ว่าองค์กรส่วนใหญ่ใช้มาตรการ ' ขาด ' ตัวอย่างเช่นวิธีการในการกำหนดและวัดซึ่งมีประสิทธิภาพอย่างมากสามารถแตกต่างกันไป ( hausknecht et al . , 2008 ) นอกจากนี้ ข้อมูลในการจะได้รับอิทธิพลจากคนที่เรียนการวัด เช่น ความแตกต่างในการตอบสนองมีแนวโน้มที่จะเกิดขึ้นถ้าวัดจะดำเนินการอย่างใดอย่างหนึ่ง โดยการจัดการหรือโดยหน่วยงานอิสระ เหตุผลสำหรับการประเมิน ( เช่นเข้าใจเหตุผลสำหรับการเปิดตัวโปรแกรมใหม่เพื่อกระตุ้นให้พนักงาน หรือเพียงแค่การลดการขาดงาน ) จะยังมีอิทธิพลต่อผลการวัด ดังนั้น นิยามปฏิบัติการ สามารถนำมาใช้เพื่อเพิ่มความมั่นคงและความน่าเชื่อถือในตัวชี้วัดที่แนะนำ ( Deming , 2529 และ goldratt และ Cox , 2004 ) อย่างไรก็ตามมีความเกี่ยวข้องและ unavoidability แบบแปลในกระบวนการวัดยังเน้นความสำคัญของพื้นผิวจิตรูปแบบในการออกแบบและใช้ระบบ PM ถ้ารูปแบบจิตใจ ถือว่าเป็น " ฝังแน่นสมมติฐานทั่วไป หรือแม้แต่ภาพหรือภาพที่มีอิทธิพลต่อวิธีที่เราเข้าใจโลกและวิธีการที่เราดำเนินการ " ( เซ็งเก , 2549 , หน้า 8 )มันเป็นที่ชัดเจนว่า pm อาจจะทั้งอิทธิพล และใช้เป็นวิธีที่จะท้าทายตัวจิต นี้จะเกี่ยวข้องโดยเฉพาะอย่างยิ่งเนื่องจากความสำเร็จระยะยาวมักจะขึ้นอยู่กับกระบวนการที่ทีมการจัดการแก้ไขและปรับปรุงรูปแบบขององค์กรร่วมกัน จิตใจของพวกเขา ตลาด และคู่แข่งของพวกเขา ( กีริส , 1977 , geus , 2542 และเซ็งเก , 2006 ) .

เมื่อพิจารณาถึงบทบาทความสัมพันธ์ของขนาดก็มีผลสำคัญในความสัมพันธ์กับการเรียนรู้และทบทวนระบบ PM เป็นบอม ( 1980 , 23 หน้า ) แย้ง " พยายามที่จะสมมติว่ามาตรการที่มีอยู่ก่อนและเป็นอิสระจากเขานำ [ . . . ] ' ' มนุษย์รักใคร่ปรองดองข้อมูลเชิงลึก เพื่อให้มันกลายเป็น rigidified และไม่สามารถที่จะเปลี่ยนในที่สุดนำไปสู่การสับสน " ทั่วไป ถ้าสับสนระหว่างความเป็นจริงและผลการวัดที่ได้จากมัน ในทางวัดจะเห็นเป็นที่จับสาระสำคัญของวัตถุระบบ PM ย่อมจะคงที่ การวิจัยได้แสดงให้เห็นว่าการใช้มากเกินไปอาจนำไปสู่การอัมพาตงวด PM ระบบองค์การ หรือ ' ' ( ซึ่งสมิธ1995b ) แน่นอน หลังจากการลงทุนในทรัพยากรมากมายในการออกแบบและสร้างชุดใหญ่ของตัวชี้วัดประสิทธิภาพ องค์กร มักจะตัดสินใจที่จะไม่ปรับเปลี่ยนพวกเขายังเพราะพวกเขาจะรับรู้เป็น ' ตัวแทน ' ที่สมบูรณ์แบบของการแสดง ในทางตรงกันข้ามเท่านั้น โดยการวิเคราะห์ข้อมูลที่รวบรวมผ่านระบบ และโดยเฉพาะใน reformulating ระบบ PM นั้นเองสามารถปรับปรุงประสิทธิภาพขององค์กรและสร้างวงเรียนรู้เดี่ยวและคู่ แน่นอน คู่ " ห่วงการเปลี่ยนแปลงไม่สามารถเกิดขึ้นโดยไม่มีการปล่อยรุ่นของโครงสร้างองค์กรและกระบวนการในสกุลเงินที่ดี " ( กีริส , 2535 , หน้า 11 ) ดังนั้นความคิดเห็นของระบบ PM ต้องเกิดขึ้นผ่านการเปรียบเทียบเชิงลึกระหว่างสิ่งที่เป็นวัดของกิจกรรมที่ดำเนินการซึ่งกิจกรรมก็เกิดขึ้น ตั้งแต่การวัดความรู้เกี่ยวกับสถานะของวัตถุ มากกว่าความรู้เกี่ยวกับวัตถุในตัวเอง ' ดังนั้น การแสดงความคิดเห็นอาจจะใช้ความท้าทายไม่เพียง แต่ปัจจุบัน PM ระบบ แต่ยังกลยุทธ์ขององค์กรและการปฏิบัติตนในบทบาทของระบบ PM ในการกำหนดกลยุทธ์และใช้งานดู ตัวอย่างchenhall 2005 gimbert et al . , 2010 และ Simons , 1990 )

4 แทนเกณฑ์ของความจริงกับเกณฑ์ของความเพียงพอพบว่า ต้นทุน และคุณภาพของการวัดควรพิจารณาองค์ประกอบที่เกี่ยวข้องในกระบวนการ การวัด และการประเมินทั้งก่อนและหลังจากการวัดเกิดขึ้น อย่างไรก็ดีความรู้เบื้องต้นของระบบ PM ต้องถือว่าเป็นการลงทุนที่คาดหวังผลตอบแทนที่แน่นอน มากกว่าเนื้อแท้มีผลทั้งการใช้ทรัพยากร ( Kaplan และ Norton , 1992 ) หรือ " ความชั่วร้ายที่จำเป็น ( และ brignall แบบ , 2000 ) ทั้งข้อผิดพลาดและไม่ควรได้รับการพิจารณาในด้านความสามารถเชิงประจักษ์ของการได้รับข้อมูลที่เหมาะสมกับวัตถุประสงค์ คุณสมบัติ : ดังนั้นความจำเพาะและความไว้วางใจเป็นคุณสมบัติสำคัญของ PM , ประสิทธิภาพสามารถวัดได้ด้วยความถูกต้องดี แต่ความแม่นยำอาจทำให้เข้าใจผิด เป็นตัวชี้วัดที่สามารถแน่นอนผิด ( มาริ , 2007 ) .

5 , โฟกัสได้เปลี่ยนจากวัดอะไรวัด ซึ่งเป็นหน้าที่ prevalently ญาณวิทยาในธรรมชาติของ วัตถุที่เราต้องการวัด คือจริงขององค์กรกระบวนการและกิจกรรมที่ถูกกำหนด นอกจากนี้ ชี้ไม่ควรถือว่าเป็นภาพแห่งความเป็นจริงที่แน่นอนหรือสันนิษฐานว่า เปิดเผยความจริง ในทางตรงกันข้ามพวกเขาควรจะใช้เป็นวิธีการรวบรวมข้อมูลเกี่ยวกับประสิทธิภาพขององค์การซึ่งเป็นที่พอเป็นไปได้ผู้เขียนได้แนะนำหลายวิธีที่จะแก้ไขปัญหาที่แท้จริง incompleteness ระบบ PM ( Chapman , 1997 , ลิลลิส ปี 2002 และ วูเทอร์ และ wilderom , 2008 ) ถึงแม้ว่าการออกแบบที่เหมาะสมและการใช้งานจะต้องนำไปสู่เป้าหมายนี้ ยังเป็นสิ่งสำคัญที่จะทราบเป็นอย่างดี ข้อจำกัดของการวัด โดยเฉพาะอย่างยิ่งเมื่อวัดประสิทธิภาพคำสุดท้ายไป วัตถุที่ถูกวัด และไม่เกี่ยวกับวิชา เป็นวิชาที่เราต้องเผชิญหน้ากับตนเองอย่างต่อเนื่องกับวัตถุและไม่ในทางกลับกัน ( เฟอร์รารี่ , 2005 ) .

สุดท้ายเป็นรากศัพท์ของ ' วัด ' ชี้ ระบบ PM ควรจะได้สัดส่วน คือ พวกเขา ควรประกอบด้วยตัวเลขที่เพียงพอของตัวบ่งชี้ซึ่งสามารถแจ้งการตัดสินใจมากกว่าที่จะมุ่งให้ตัวแทน ' ' ที่แท้จริงของการปฏิบัติ ในขณะที่ก้าวหน้าอย่างมากในด้านทฤษฎีและปฏิบัติของการวัดประสิทธิภาพอย่างแน่นอนที่สุด พวกเขาจะต้องไปใช้จ่ายมากขึ้นและแม่นยำกว่าการวัด
'
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: