2,722 research outputs found
Réparer le cercle : la responsabilisation de l’Autochtone alcoolique
Le prĂ©sent article fournit une rĂ©flexion critique de la relation entre l’alcool et les Autochtones Ă partir d’une revue holistique des travaux produits dans le champ des sciences sociales et mĂ©dicales. Les institutions juridiques et de la santĂ©, ainsi que les milieux universitaires, ont participĂ© Ă la construction d’une relation « problĂ©matique » entre l’alcool et les Autochtones. Or, le concept de l’alcoolisme devrait, selon nous, ĂŞtre abordĂ© en tant que rĂ©ponse culturelle et en tant que manifestation des troubles identitaires individuels et communautaires rĂ©sultant des dĂ©structurations profondes que l’insertion des Autochtones Ă l’État-nation a provoquĂ©es. Actuellement, l’État, sous pression de groupes politiques autochtones, tente de redonner de l’autonomie aux communautĂ©s autochtones tout en conservant une vision « victimisante » des Autochtones. L’autonomisation des peuples autochtones couplĂ©e Ă une « dĂ©victimisation » peut inciter l’individu alcoolique Ă ne plus se considĂ©rer de cette manière, mais plutĂ´t comme un adulte responsable envers lui-mĂŞme et sa communautĂ©. Afin d’accĂ©der Ă l’autonomie gouvernementale, cette responsabilisation est nĂ©cessaire, car les communautĂ©s ont besoin de nouveaux modèles sains et autonomes.Based on the scientific literature produced by social and medical sciences, this article presents a critical reflexion on the relationship between alcohol and Natives. Throughout Canadian history, the state and academia participated in the construction of this “problematic” relationship. With this knowledge, we better understand the government’s misinformed intervention politics. The concept of alcoholism should be considered a cultural response. It is also a manifestation of the complex individual and community identity struggles, engendered by the inclusion of native communities in the nation state. Today, under the pressure of native political groups, the state tries to give back autonomy to native communities while maintaining a victimising view of them. “De-victimisation” would allow the alcoholic individual to consider himself a responsable adult and thus strengthen his community. To access self-gouvernance, active responsibility is a necessary and difficult first step because communities are in need of new, healty and autonomous models.Este artĂculo presenta una reflexiĂłn crĂtica de la relaciĂłn entre el alcohol y los pueblos autĂłctonos a partir de una amplia revisiĂłn de los trabajos generados en las ciencias sociales y la medicina. Las instituciones jurĂdicas y de salud, al igual que el medio universitario, han participado en la construcciĂłn de una relaciĂłn “problemática” entre el alcohol y las comunidades autĂłctonas. Sostenemos, sin embargo, que el concepto de alcoholismo deberĂa abordarse en tanto que respuesta cultural y manifestaciĂłn de los problemas de identidad individuales y comunitarios que resultan de las desestructuraciones profundas provocadas por la inserciĂłn de los pueblos autĂłctonos en el Estado-naciĂłn. En la actualidad, el Estado trata de restablecer la autonomĂa a las comunidades autĂłctonas, pero conserva una visiĂłn “victimizante” de estas comunidades. La autonomizaciĂłn de los pueblos autĂłctonos, junto con “desvictimizaciĂłn”, pueden incitar al individuo alcohĂłlico a ya no considerarse como tal, sino como un adulto responsable consigo mismo y con su comunidad. Esta responsabilizaciĂłn es necesaria a fin de acceder a la autonomĂa gubernamental, en la medida en que las comunidades necesitan nuevos modelos sanos y autĂłnomos
Système de valeurs et rapports au temps des adolescents québécois
L’article présente certains résultats d’une enquête par questionnaire menée auprès de 1 847 jeunes québécois âgés entre 11 et 15 ans. Pour la majorité d’entre eux, les parents représentent leur principale source de soutien. Ils se font de leur vie adulte une image à la ressemblance de celle de leurs parents : d’abord l’amour et un travail valorisant, de nombreux amis ; quand tout cela sera jugé satisfaisant, ils auront des enfants. Le refus de la famille, sorte de négation des valeurs familiales, renvoie à des rapports difficiles à l’institution familiale et à l’institution scolaire, l’une des résultantes étant une identité plus problématique. Les amis constituent la deuxième source de soutien des jeunes ; cette source prend de plus en plus d’importance avec l’âge, mais sans pour autant effacer le rôle des parents. Ils intériorisent très tôt les rapports au temps de la vie adulte et ils se disent stressés. Les aspirations scolaires sont fortement reliées à leurs représentations de l’avenir, dans la construction d’une perspective sur soi qui reconnaît l’empreinte du temps.This paper presents some of the results from a questionnaire-based survey of 1,847 young Québecers aged 11 to 15 years. For most of them, their parents remain their principal source of support. They form an image of their life as adults similar to that of their parents: first, love and a rewarding job, and plenty of friends. Once they are satisfied with these, they will have children. The refusal to have a family, a kind of negation of family values, is linked to difficult relations with the institutions of family and school, one outcome being identity problems. Friends constitute the second source of support for young people. This source grows in importance with age, although without eliminating the role of the parents. Quite early on, they internalize the temporal paradigms of adult life, and report that they feel stressed. Their educational aspirations are closely linked with their representations of the future, in the construction of an outlook upon themselves that recognizes the imprint of time
Achieving the Potential of Health Care Performance Measures: Timely Analysis of Immediate Health Policy issues
The United States is on the cusp of a new era, with greater demand for performance information, greater data availability, and a greater willingness to integrate performance information into public policy. This era has immense promise to deliver a learning health care system that encourages collaborative improvements in systems-based care, improves accountability, helps consumers make important choices, and improves quality at an acceptable cost. However, to curtail the possibility of unintended adverse consequences, it is important that we invest in developing sound measures, understand quality measures' strengths and limitations, study the science of quality measurement, and reduce inaccurate inferences about provider performance
Measurement Error in Performance Studies of Health Information Technology: Lessons from the Management Literature
Just as researchers and clinicians struggle to pin down the benefits attendant to health information technology (IT), management scholars have long labored to identify the performance effects arising from new technologies and from other organizational innovations, namely the reorganization of work and the devolution of decision-making authority. This paper applies lessons from that literature to theorize the likely sources of measurement error that yield the weak statistical relationship between measures of health IT and various performance outcomes. In so doing, it complements the evaluation literature’s more conceptual examination of health IT’s limited performance impact. The paper focuses on seven issues, in particular, that likely bias downward the estimated performance effects of health IT. They are 1.) negative self-selection, 2.) omitted or unobserved variables, 3.) mis-measured contextual variables, 4.) mismeasured health IT variables, 5.) lack of attention to the specific stage of the adoption-to-use continuum being examined, 6.) too short of a time horizon, and 7.) inappropriate units-of-analysis. The authors offer ways to counter these challenges. Looking forward more broadly, they suggest that researchers take an organizationally-grounded approach that privileges internal validity over generalizability. This focus on statistical and empirical issues in health IT-performance studies should be complemented by a focus on theoretical issues, in particular, the ways that health IT creates value and apportions it to various stakeholders
Objective measures of complexity
Mesures Objectives de la Complexité pour la Prise de Décision Dynamique. La gestion efficace de systèmes sociotechniques complexes dépend d’une compréhension des interrelations dynamiques entre les composantes de ces systèmes, de leur évolution à travers le temps, ainsi que du degré d’incertitude auquel les décideurs sont exposés. Quelles sont les caractéristiques de la prise de décision complexe qui ont un impact sur la performance humaine dans l’environnement moderne du travail, constamment en fluctuation et sous la pression du temps, exerçant de lourdes demandes sur la cognition ? La prise de décision complexe est un concept issu de la macrocognition, impliquant des processus et des fonctions de bas et haut niveaux de description tels que la métacognition, soit pour un individu de penser à propos de son propre processus de pensées. Dans le cas particulier de la prise de décision complexe, ce phénomène est nommé la pensée systémique. L’étude de la prise de décision complexe en dehors de l’environnement traditionnel du laboratoire, permettant un haut niveau de contrôle mais un faible degré de réalisme, est malheureusement difficile et presque impossible. Une méthode de recherche plus appropriée pour la macrocognition est l’expérimentation basée sur la simulation, à l’aide de micromondes numérisés sous la forme de jeux sérieux. Ce paradigme de recherche est nommé la prise de décision dynamique (PDD), en ce qu’il tient compte des caractéristiques de problèmes de prise de décision complexe telles que des séquences complexes de décisions et de changements d’états d’un problème interdépendants, qui peuvent changer de façon spontanée ou comme conséquence de décisions préalables, et pour lesquels la connaissance et la compréhension du décideur peut n’être que partielle ou incertaine. Malgré la quantité de recherche concernant la PDD à propos des difficultés encourues pour la performance humaine face à des problèmes de prise de décision complexe, l’acquisition de connaissances à propos de systèmes complexes, et à savoir si le transfert de l’apprentissage est possible, il n’existe pas de mesure quantitative de ce en quoi un problème de décision est considéré comme étant complexe. La littérature scientifique mentionne des éléments qualitatifs concernant les systèmes complexes (tels que des interrelations dynamiques, une évolution non-linéaire d’un système à travers le temps, et l’incertitude à propos des états d’un système et des issues des décisions), mais des mesures quantitatives et objectives exprimant la complexité de problèmes de décision n’ont pas été développées. Cette dissertation doctorale présente les concepts, la méthodologie et les résultats impliqués dans un projet de recherche visant à développer des mesures objectives de la complexité basées sur les caractéristiques de problèmes de prise de décision dynamique pouvant expliquer et prédire la performance humaine. En s’inspirant de divers domaines d’application de la théorie de la complexité tels que la complexité computationnelle, la complexité systémique, et l’informatique cognitive, un modèle formel des paramètre de la complexité pour des tâches de prise de décision dynamique a été élaboré. Un ensemble de dix mesures objectives de la complexité a été développé, consistant en des mesures de la complexité structurelle, des mesures de la complexité informationnelle, la complexité de la charge cognitive, et des mesures de la difficulté d’un problème, de la non-linéarité des relations, de l’incertitude concernant l’information et les décisions, ainsi qu’une mesure de l’instabilité d’un système dynamique sous des conditions d’inertie. Une analyse des résultats expérimentaux colligés à partir de cinq scénarios de PDD révèle qu’un nombre restreint de candidats parmi des modèles de régression linéaires multiple permet d’expliquer et de prédire les résultats de performance humaine, mais au prix de certaines violations des postulats de l’approche classique de la régression linéaire. De plus, ces mesures objectives de la complexité présentent un degré élevé de multicolinéarité, causée d’une part par l’inclusion de caractéristiques redondantes dans les calculs, et d’autre part par une colinéarité accidentelle imputable à la conception des scénarios de PDD. En tenant compte de ces deux considérations ainsi que de la variance élevée observée dans les processus macrocognitifs impliqués dans la prise de décision complexe, ces modèles présentent des valeurs élevées pour le terme d’erreur exprimant l’écart entre les observations et les prédictions des modèles. Une analyse additionnelle explore l’utilisation de méthodes alternatives de modélisation par régression afin de mieux comprendre la relation entre les paramètres de la complexité et les données portant sur performance humaine. Nous avons d’abord opté pour une approche de régression robuste afin d’augmenter l’efficience de l’analyse de régression en utilisant une méthode réduisant la sensibilité des modèles de régression aux observations influentes. Une seconde analyse élimine la source de variance imputable aux différences individuelles en focalisant exclusivement sur les effets imputables aux conditions expérimentales. Une dernière analyse utilise des modèles non-linéaires et non-paramétriques afin de pallier les postulats de la modélisation par régression, à l’aide de méthodes d’apprentissage automatique (machine learning). Les résultats suggèrent que l’approche de régression robuste produit des termes d’erreur substantiellement plus faibles, en combinaison avec des valeurs élevées pour les mesures de variance expliquée dans les données de la performance humaine. Bien que les méthodes non-linéaires et non-paramétriques produisent des modèles marginalement plus efficients en comparaison aux modèles de régression linéaire, la combinaison de ces modèles issus du domaine de l’apprentissage automatique avec les données restreintes aux effets imputables aux conditions expérimentales produit les meilleurs résultats relativement à l’ensemble de l’effort de modélisation et d’analyse de régression. Une dernière section présente un programme de recherche conçu pour explorer l’espace des paramètres pour les mesures objectives de la complexité avec plus d’ampleur et de profondeur, afin d’appréhender les combinaisons des caractéristiques des problèmes de prise de décision complexe qui sont des facteurs déterminants de la performance humaine. Les discussions concernant l’approche expérimentale pour la PDD, les résultats de l’expérimentation relativement aux modèles de régression, ainsi qu’à propos de l’investigation de méthodes alternatives visant à réduire la composante de variance menant à la disparité entre les observations et les prédictions des modèles suggèrent toutes que le développement de mesures objectives de la complexité pour la performance humaine dans des scénarios de prise de décision dynamique est une approche viable à l’approfondissement de nos connaissances concernant la compréhension et le contrôle exercés par un être humain face à des problèmes de décision complexe.Objective Measures of Complexity for Dynamic Decision-Making. Managing complex sociotechnical systems depends on an understanding of the dynamic interrelations of such systems’ components, their evolution over time, and the degree of uncertainty to which decision makers are exposed. What features of complex decision-making impact human performance in the cognitively demanding, ever-changing and time pressured modern workplaces? Complex decision-making is a macrocognitive construct, involving low to high cognitive processes and functions, such as metacognition, or thinking about one’s own thought processes. In the particular case of complex decision-making, this is called systems thinking. The study of complex decision-making outside of the controlled, albeit lacking in realism, traditional laboratory environment is difficult if not impossible. Macrocognition is best studied through simulation-based experimentation, using computerized microworlds in the form of serious games. That research paradigm is called dynamic decision-making (DDM), as it takes into account the features of complex decision problems, such as complex sequences of interdependent decisions and changes in problem states, which may change spontaneously or as a consequence of earlier decisions, and for which the knowledge and understanding may be only partial or uncertain. For all the research in DDM concerning the pitfalls of human performance in complex decision problems, the acquisition of knowledge about complex systems, and whether a learning transfer is possible, there is no quantitative measure of what constitutes a complex decision problem. The research literature mentions the qualities of complex systems (a system’s dynamical relationships, the nonlinear evolution of the system over time, and the uncertainty about the system states and decision outcomes), but objective quantitative measures to express the complexity of decision problems have not been developed. This dissertation presents the concepts, methodology, and results involved in a research endeavor to develop objective measures of complexity based on characteristics of dynamic decision-making problems which can explain and predict human performance. Drawing on the diverse fields of application of complexity theory such as computational complexity, systemic complexity, and cognitive informatics, a formal model of the parameters of complexity for dynamic decision-making tasks has been elaborated. A set of ten objective measures of complexity were developed, ranging from structural complexity measures, measures of information complexity, the cognitive weight complexity, and measures of problem difficulty, nonlinearity among relationships, information and decision uncertainty, as well as a measure of the dynamical system’s instability under inertial conditions. An analysis of the experimental results gathered using five DDM scenarios revealed that a small set of candidate models of multiple linear regression could explain and predict human performance scores, but at the cost of some violations of the assumptions of classical linear regression. Additionally, the objective measures of complexity exhibited a high level of multicollinearity, some of which were caused by redundant feature computation while others were accidentally collinear due to the design of the DDM scenarios. Based on the aforementioned constraints, and due to the high variance observed in the macrocognitive processes of complex decision-making, the models exhibited high values of error in the discrepancy between the observations and the model predictions. Another exploratory analysis focused on the use of alternative means of regression modeling to better understand the relationship between the parameters of complexity and the human performance data. We first opted for a robust regression analysis to increase the efficiency of the regression models, using a method to reduce the sensitivity of candidate regression models to influential observations. A second analysis eliminated the within-treatment source of variance in order to focus exclusively on between-treatment effects. A final analysis used nonlinear and non-parametric models to relax the regression modeling assumptions, using machine learning methods. It was found that the robust regression approach produced substantially lower error values, combined with high measures of the variance explained for the human performance data. While the machine learning methods produced marginally more efficient models of regression for the same candidate models of objective measures of complexity, the combination of the nonlinear and non-parametric methods with the restricted between-treatment dataset yielded the best results of all of the modeling and analyses endeavors. A final section presents a research program designed to explore the parameter space of objective measures of complexity in more breadth and depth, so as to weight which combinations of the characteristics of complex decision problems are determinant factors on human performance. The discussions about the experimental approach to DDM, the experimental results relative to the regression models, and the investigation of further means to reduce the variance component underlying the discrepancy between the observations and the model predictions all suggest that establishing objective measures of complexity for human performance in dynamic decision-making scenarios is a viable approach to furthering our understanding of a decision maker’s comprehension and control of complex decision problems
Retour réflexif et qualité de la langue
La présente recherche a été subventionnée par l'Association des collèges privés du Québec dans le cadre du programme PREPBibliographie : pages 127-133
- …