Le risque iatrogène est souvent sous-évalué et entraîne des couts indus au système de santé et des problèmes de santé indésirables chez les patients

Le terme « iatrogène » est relatif à un effet indésirable provoqué par un médecin ou un traitement médical. Ainsi, l’hospitalisation due à une maladie ou un dérangement iatrogène font-ils l’objet de sanctions envers le médecin prescripteur?

La « iatrogénèse » relève de l’ensemble des conséquences néfastes sur l’état de santé individuel ou collectif de tout acte ou mesure pratiquée ou prescrite par un professionnel de santé habilité et qui vise à préserver, améliorer ou rétablir la santé.

La notion est donc très générale, qualifiant un trouble ou un effet non souhaitable consécutif : à l’intervention d’un médecin ou autre professionnel de la santé qu’il y ait ou non erreur de traitement; ou à l’utilisation d’un médicament, qu’elle corresponde ou non à son indication habituelle.

Il y a donc surmultiplication de conséquences néfastes à partir d’une seule entrevue chez un professionnel de la santé visant originellement à résoudre une problématique de santé. Il y a également surmultiplication d’entrevues médicales comme suite aux conséquences néfastes et indésirables d’une médication. Cela entraîne une surcharge de système de santé et de couts afférents aux risques « iatrogène » inutiles qui pourraient être évités.

Rappelons qu’une maladie, un état, un effet secondaire, etc. sont iatrogènes lorsqu’ils sont occasionnés par un traitement médical. En grec, le mot signifie littéralement « provoquer par le médecin » (iatros : médecin; génès : qui est engendré), ou par d’autres professionnels de la santé, par exemple par un pharmacien, ou un dentiste.

Lorsque le patient est ignoré, cela engendre une crainte ou une anxiété et une perte de confiance aux professionnels de la santé. Il peut donc également ignorer les ordonnances.

La iatrogénèse (auparavant nommée iatrogénie) médicamenteuse s’avère particulièrement courante dans le domaine de la maladie mentale et de la santé mentale. Tout médicament a des effets bénéfiques, mais aussi des effets indésirables. Ils peuvent provenir du médicament lui-même, de son association avec un autre médicament, de son incompatibilité avec le malade ou d’une erreur de prise.

La réduction du risque iatrogène doit être définie comme une priorité dans la réduction des coûts du système de santé. Elle peut même entraîner le décès ou l’hospitalisation du patient. Les personnes vulnérables et les personnes agées seraient plus a risque d’une iatrogénie médicamenteuse.

Au niveau du particulier, il faut respecter l’ordonnance à la lettre (horaires de prise, dosage, durée du traitement) et informer tous les médecins consultés des médicaments que l’on prend. Mais cette approche est souvent insuffisante, car par exemple le médecin à l’origine de la prescription n’est pas toujours informé des autres médicaments pris par le patient, ni des nombreuses interactions entre les médicaments. Le pharmacien qui connaît son patient et ses habitudes en matière de médicaments, ou qui constate que des médicaments sur une ou plusieurs ordonnances sont incompatibles entre eux, peut jouer un rôle considérable pour éviter de telles interactions néfastes entre médicaments.

Or, une approche systémique s’avère nécessaire. En effet, il est nécessaire d’appréhender la question sous l’angle systémique, car on imputerait, à l’hôpital, plus de 80 % des causes profondes des événements indésirables à l’organisation hospitalière. Dans tous les cas, tous les professionnels de la santé qui prescrivent des médicaments se doivent d’être au courant de l’historique des ordonnances, puisque la prescription est un acte en lui même, qui entraîne des couts.

La iatrogénèse reste en grande partie évitable et la maîtrise du risque s’inscrit à la fois dans le domaine de la qualité des soins et dans celui de la sécurité des soins de santé.

Le secret de la créativité, de l’intelligence et de la pensée scientifique

La recherche montre que la créativité et l’intelligence sont liées aux connexions physiques au sein de notre cerveau. Voici comment relier les points.

Il y a une différence essentielle entre la connaissance et l’expérience et cela serait le mieux décrit ainsi :

knowledge.connection

L’image élaborer par le dessinateur Hugh MacLeod réussi de manière brillante à exprimer un concept qui ne s’avère pas souvent facile à saisir.

L’image établit clairement son point — que la connaissance seule n’est utile que si nous pouvons en faire des liens avec ce que nous savons. Que vous utilisiez ou non les termes « connaissances » et « expérience » pour expliquer la différence, le concept lui-même est solide. [Or, selon moi, il existe une troisième dimension, celle de l’intuition; une connaissance immédiate de la vérité sans l’aide du raisonnement ou une faculté qui permet de prévoir, de deviner. Ainsi a priori, il n’y a pas de connexion préétablie].

Beaucoup de grands écrivains, dartistes et de scientifiques ont discuté de l’importance de la collecte d’idées et de morceaux de connaissances (ici assimilé à des « points »)qui pullulent dans le monde qui nous entoure pour établir des liens entre ces « points » afin d’alimenter la pensée créatrice ainsi que les nouvelles idées.

Il s’agit d’un sujet d’inspiration vraiment amusant à lire, et donc voici quelques citations et conseils depenseurs créatifs concernant l’importance d’effectuer des connexions dans votre cerveau.

Mais avant de commencer, toutefois, analysons une recherche qui montre que l’intelligence est étroitement liée aux connexions physiques dans notre cerveau.

Intelligence et connexions: pourquoi votre cerveau a besoin de bien communiquer avec elle-même

Une recherche du « California Institute of Technology[2] » a montré que l’intelligence est quelque chose qui se retrouve dans tout le cerveau, plutôt que dans une région spécifique : les chercheurs ont découvert qu’au lieu de résider au sein d’une structure unique, l’intelligence générale est déterminée par un réseau de régions sur les deux côtés du cerveau.

L’un des chercheurs de cette recherche a expliqué que l’étude a montré que le cerveau travaille tel un système distribué. Ainsi, plusieurs régions du cerveau, et les liens entre eux (connexions)s’avèrent ce qui était le plus important pour l’intelligence générale.

L’étude soutient également une théorie existante concernant l’intelligence dictant que l’intelligence générale est fondée sur la capacité du cerveau à se rassembler et intégrer différents types de traitement, tels que la mémoire de travail.

À l’Université de Washington[3], une étude de recherche a constaté que la connectivité avec une zone particulière du cortex préfrontal est en corrélation avec l’intelligence générale d’une personne.

Cette étude a montré que l’intelligence est en partie appuyée sur certaines zones du cerveau à fonctionnement de haut niveau, et en partie sur leur capacité de communication avec d’autres zones dans le cerveau.

En dehors de la connectivité physique au sein du cerveau, la capacité à faire des liens entre les idées et les connaissances que nous détenons dans nos mémoires (car on pense qu’il existe plusieurs types de mémoire rependus dans plusieurs zones du cerveau) peut ainsi nous aider à penser de manière plus créative et à produire un travail de meilleure qualité.

Les connexions sont le carburant de la créativité : rien n’est vraiment original!

Steve Jobs est une personne toute désigner chaque fois qu’il est question de faire référence à la créativité ou à l’innovation, et il n’est donc pas surprenant de remarquer qu’il a déjà parlé de l’établissement de connexions. Cette grande citation est tirée d’une entrevue dans la revue Wired en 1996 : la créativité relève seulementde la connexion entre des éléments. Lorsque vous demandez aux gens créatifs comment ils ont réalisé une chose, ils se sentent un peu coupables, car ils ne l‘ont pas vraiment fait, ils ont seulement vu quelque chose.

Steve Jobsavait ensuite expliqué que l’expérience (comme nous l’avons vu dans l’illustration ci-haut) s’avère le secret pour être en mesure de faire des liens aussi facilement : c‘est parce qu’ils ont été en mesure de connecter les expériences qu’ils ont vécues et de synthétiser de nouvelles choses. Et la raison principale pour laquelle ils ont été en mesure de le faire, c’est qu’ils ont eu plus d’expériences, ou bien parce qu’ils ont effectué plus de réflexion sur leurs expériences, que les autres.

Maria Popova est sans doute l’un des meilleurs exemples (et promoteurs) de ce que nous appelons « créativité combinatoire » (combinatorial creativity)[4]. C’est-à-dire, la production des connexions entre les choses pour créer de nouvelles idées :… afin de vraiment pouvoir créer et de pouvoir contribuer au monde, nous devons être en mesure de « connecter » une multitude de points de connaissance, et d’effectuer une « pollinisation croisée » (cross-pollinate) d’idées d’une multitude de disciplines et de sujets, et de combiner et recombiner ces morceaux et ainsi construire de nouveaux châteaux (superstructure qui sied au-dessus d’un ensemble de choses. Selon Popova, être capable de faire lecture d’un large éventail de sujets s’avère souvent l’un des éléments les plus importants. Elle met beaucoup d’emphase sur la manière dont nos ego affectent notre volonté de construire sur ce que les autres ont élaboré avant nous :… c’est quelque chose que nous comprenons tous à un niveau intuitivement profond, mais que notre ego créatif (creative ego) ne veux plus ou moins pas vraiment à accepter : et c’est l’idée que la créativité s’avère combinatoire, et que rien n’est tout à fait original, et que tout repose sur ce qui est venu avant nous…

Popova fait usage d’une analogie avec les blocs Lego où elle compare les points de connaissances que nous détenons à des blocs de construction Lego : plus nous détenons ces blocs de construction (connaissances), plus diversifié leurs formes et leurs couleurs, plus intéressants de nos châteaux deviendra.

L’auteur Austin Kleon est quelqu’un qui vient immédiatement à l’esprit chaque fois qu’il est question de connectivité et de l’art de remixer. Kleon est l’auteur de l’ouvrage « Steal Like An Artist », un livre sur l’utilisation du travail des autres pour inspirer et informer ses propres travaux. Il débute son livre ainsi : chaque artiste se fait poser la question : « Mais où prenez-vous vos idées? ». L’artiste honnête répond, « Je les vole ».

Kleon s’avère une source d’inspiration importante, car il est tellement honnête au sujet de la manière dont le travail d’autrui est devenu une partie intégrante à son propre travail. Il est également désireux à mettre en exergue cette phrase de Maria Popova que « rien n’est vraiment original » : Chaques idées nouvelles n’est seulement qu’un « composite ou mélange » ou un remix d’une ou plusieurs autres idées précédentes.

Si vous êtes à la recherche de l’acquisition des conseils sur la création de plus de connexions entre les connaissances que vous détenez et entretenez (et ainsi recueillir encore plus de connaissances), une lecture du livre de Kleon est un excellent moyen pour débuter. Il propose certaines suggestions tel que :

  • transportez un cahier de notes ou un ordinateur portable (notebook) partout ou vous allez ;

  • lisez beaucoup ;

  • entretenez un fichier de travail (scratch file) ;

Comment la pensée scientifique relève de la capacité à produire des connexions

Lorsqu’il s’agit du domaine de la science, les connexions entre les points de connaissance semblent être tout aussi importantes. Dans l’art de l’investigation scientifique (The Art of Scientific Investigation), le professeur à l’Université de Cambridge W. I. B. Beveridge a écrit que les scientifiques qui réussissent « ont souvent été des personnes entretenant divers sujets d’intérêts », ce qui a généralement conduit à leur originalité : l’originalité consiste souvent à savoir relier des idées dont la connexion n’avait pas été soupçonnée auparavant.

Cet auteur a également suggéré que les scientifiques devraient élargir le champ de leur lecture, et ce, en dehors de leur domaine, afin d’ajouter à leurs connaissances (afin qu’ils aient plus de points de connaissances lorsque vient plus tard le temps de les connecter) : La plupart des scientifiques estiment que c’est un sévère handicap que d’enquêter sur un problème dans l’ignorance de ce qui est déjà connu sur le sujet d’enquête.

L’écrivain de science Dorian Sagan est en accord sur le fait que la science porte essentiellement sur la capacité à produire des connexions: la nature n’obéit désormais plus aux divisions « territoriales » de disciplines scientifiques académiques ou les continents apparaissent comme des espaces à être coloré afin de refléter les divisions nationales de leurs habitants humains. Pour l’auteur, les grands moments « satori », « d’épiphanies », « Eureka » ou « aha! » scientifiques s’avèrent essentiellement caractérisés par l’aptitude à savoir connecter les points de connaissances.

Ajouter à vos connaissances – le pouvoir de nouvel expériences

Commencez donc à faire plus de connexions entre les points de connaissance et faites preuve de créativité. Après tout, plus vous détenez de connaissances, plus vous serez en mesure de faire de connexions. Commencez par faire plus de lecture, élargissez vos domaines et sujets de lectures, et explorez de nouvelles possibilités pour la collecte de connaissances (par exemple, tentez de nouvelles expériences, allez à des rencontres ou entreprenez un nouveau passe-temps).

Comme le chercheur Dr Duezel l’explique si bien lorsqu’il s’agit de vivre de nouvelles expériences : « Seules les choses complètement nouvelles provoquent une forte activité dans la région mésencéphale du cerveau (midbrain area) ».

Donc, essayez quelque chose de nouveau et forcez-vous à une douce surcharge de votre cerveau pouvant ainsi apporter une spectaculaire amélioration de l’activité cervicale.

Gardez une trace de tout — en particulier dans la douche

Comme le suggère Austin Kleon, prendre un ordinateur portable (ou votre téléphone intelligent), ou un cahier de notes, partout avec vous allez et prenez des notes lorsque quelque chose vous viens à l’esprit. Ne vous attendez pas à ce que votre cerveau se souvienne de tout — donnez-lui un coup de main en notant les concepts ou idées importants que vous rencontrerez dans vos réflexions. Alors que vous faites cela, vous vous souviendrez de notes précédentes qui s’y rapportent (hey, vous faites déjà des connexions!) — et prenez également bien note de ces liens entre les points de connaissances.

Vous pouvez le faire même lorsque vous êtes sous la douche avec quelque chose comme « Acqua Notes ». La douche est un endroit particulièrement privilégié ou il a été prouvé qu’elle nous rend plus créatifs.

Révisez vos notes journalières, journalièrement — la méthode de Benjamin Franklin

La révision de vos notes peut souvent aider à vous permettre de plus facilement vous en rappeler lorsque vous en avez besoin. Lisez ce que vous avez pris en notes auparavant, et vous constaterez peut-être que depuis, vous avez ajouté plus de connaissances à votre répertoire, et que vous pouvez maintenant mieux vous connecter à vos anciennes notes!

En fait, cette habitude c’était l’un des secrets les mieux gardés de Benjamin Franklin. Chaque matin et chaque soir, il révisait sa journée en répondant à une simple question : « qu’est-je fais de bon aujourd’hui? ».

— –

sources

  1. http://www.fastcompany.com/3031994/the-future-of-work/the-secret-to-creativity-intelligence-and-scientific-thinking

références

  1. http://www.sciencedaily.com/releases/2010/02/100222161843.htm

  2. https://news.wustl.edu/news/Pages/24068.aspx

  3. http://en.wikipedia.org/wiki/Computational_creativity#Combinatorial_creativity

Une certaine distance face au conflit personnel peut favoriser un raisonnement sage et judicieux

Si l’on se trouve confronté à un dilemme (inter)personnel troublant, tel qu’un(e) conjoint(e) qui vous triche, vous pouvez réfléchir de manière plus judicieuse si vous le considérez comme le ferait un observateur extérieur, selon une étude.

Ces résultats sont les premiers à démontrer l’existence d’un nouveau type de biais cognitif que l’on entretient lorsqu’il s’agit du raisonnement sage et judicieux quant au dilemme concernant les relations interpersonnelles. Les chercheurs la nomment « biais du Paradox de Salomon », selon le célèbre roi qui était connu pour sa sagesse, mais qui échouait à prendre de « bonnes » décisions personnelles.

Les chercheurs de l’Université du Michigan ont demandé aux participants de l’étude, qui ont tous déclaré être dans une relation amoureuse monogame, de réfléchir sur un conflit relationnel. Ils ont été invités à vivement imaginer un scénario dans lequel leur partenaire ou le partenaire d’un ami avait été infidèle, et ont ensuite été invités à répondre à une série de questions sur ce scénario.

Les questions ont été conçues pour puiser dans les dimensions du raisonnement judicieux, comme la capacité à reconnaître les limites de ses propres connaissances, à la recherche d’un compromis, à prendre en compte les points de vue des autres, et à reconnaître les différentes manières dont le scénario pouvait se dérouler.

Les résultats des expériences indiquent que les participants qui ont été invités à raisonner sur le conflit relationnel d’un ami ont fourni des réponses plus judicieuses que ceux qui ont été invités à raisonner sur leur propre conflit relationnel.

Dans une seconde expérience, les scientifiques ont cherché à savoir si la distance personnelle (personal distance) peut faire une différence. La procédure est similaire à la première expérience, mais cette fois ils ont demandé explicitement aux participants de prendre soit une perspective à la première personne (« vous mettre dans cette situation ») ou une perspective à la troisième personne (« vous mettre dans les chaussures de votre ami ») lors du raisonnement sur le conflit.

Les résultats confirment ceux de la première expérience : les participants qui ont réfléchi à leur propre relation conflictuelle en fonction d’une perspective à la première personne ont montré un raisonnement sage moins judicieux que ceux qui ont réfléchi au conflit relationnel d’un ami.

Mais prendre le point de vue d’un étranger semblait éliminer cette distorsion : les participants qui ont pensé à leur propre relation de conflit à travers les yeux d’un ami étaient tout aussi sages que ceux qui pensaient au conflit d’un ami.

Fait intéressant; les résultats d’une troisième expérience où l’on a comparé, les données de jeunes adultes (20-40 ans) à celle d’adultes plus âgés (60-80 ans) ont indiqué que, contrairement à l’adage affirmant que la sagesse s’acquiert avec l’âge, les participants plus âgés étaient plus sages dans le raisonnement sur leur propre relation conflictuelle que leurs homologues plus jeunes.

Ensemble, ces résultats suggèrent que la distanciation face à un problème personnel en l’abordant comme un étranger peut être la clé de raisonnement sage et judicieux.

Ainsi, ces chercheurs sont les premiers à pouvoir démontrer qu’il existe un moyen simple d’éliminer ce biais dans le raisonnement en parlant de soi-même à la troisième personne et en utilisant notre nom lors de la réflexion sur un problème relationnel. Ainsi, lorsque nous employons cette stratégie, nous sommes plus susceptibles de réfléchir sagement et judicieusement sur une question, un problème ou un litige.

— –
source

La tablette fait son entrée à l’école … Une frénésie justifiée ?

Nous assistons actuellement à une frénésie mondiale autour de l’usage de la tablette à l’école. Selon le journal Le Monde, en matière d’équipement des écoles, les établissements américains ont déjà dépensé 5 milliards de dollars. La Grande-Bretagne, elle, a dépensé 194 millions de livres (226 millions d’euros) pour offrir 300 000 machines à ses élèves. De son côté, le District scolaire de Los Angeles, a signé un contrat de 30 millions de dollars avec Apple pour équiper 47 de ses écoles primaires d’iPad cet automne. Depuis cette rentrée scolaire, la Thaïlande a doté chaque élève d’un ordinateur à l’entrée du CP et un million d’enfants sont équipés d’une ardoise tactile qui est devenue l’instrument de base du cartable de l’écolier. Si 80 % des Français jugent l’utilisation des tablettes tactiles à l’école utile, selon le 7e baromètre trimestriel de l’économie numérique de la Chaire économique de l’université Paris-Dauphine, cette frénésie n’est-elle qu’un effet de mode ou bien la tablette doit-elle s’imposer à l’école pour devenir désormais un outil personnel d’apprentissage incontournable ? Apprend-on mieux avec une tablette ?

Des sciences cognitives à la salle de classe

Melhuish et Falloon (2010) identifient cinq affordances spécifiques ou des «avantages» liés à l’utilisation des tablettes : l’accessibilité, l’omniprésence, une pédagogie constructiviste en contexte, la connectivité, des expériences personnalisées. La tablette est un outil qui peut associer tous les médias. Pour Monique Linard, l’interactivité des multimédias favorise les médiations cognitives et offre un éventail très riche de fonctions techniques capables d’accompagner et de stimuler efficacement les nombreux aspects de l’interaction et de l’apprentissage humain, à condition de mieux comprendre cette interaction et de prendre en compte les conditions de sa réussite. De même, les professeurs Robert Brien, Jacqueline Bourdeau et Johanne Rocheleau insistent sur l’importance de l’interactivité lors de l’acquisition de nouvelles connaissances et de nouvelles compétences et soulignent l’utilisation des systèmes multimédias interactifs comme support à l’apprentissage. Mais qu’en est-il concrètement dans les classes ? Dans le cadre du projet académique du développement des usages pédagogiques du numérique 2012-2013, les 6 départements de l’académie Orléans-Tours se sont mobilisés autour des tablettes à l’école primaire et ont essayé de répondre à la question.

L’objectif a été de développer des projets d’usages de la tablette à l’école primaire, de suivre les pratiques des enseignants impliqués, d’évaluer les usages des tablettes au service des apprentissages. Les IEN-TICE qui pilotent les groupes départements TICE se sont tous mobilisés et ont travaillé en interaction étroite avec les IEN maternelle, les formateurs TICE, les conseillers pédagogiques et les équipes enseignantes volontaires. Un rapport académique rend compte du protocole d’observation, des situations d’apprentissage mises en place et soutenues par des tablettes. Il interroge les effets de l’usage des tablettes tactiles en contexte scolaire sur les élèves mais aussi sur les enseignants. Il nous donne de premiers résultats dans différents contextes.

Quelles plus-values pour les apprentissages ?

Avec cet outil nomade, nous avons des potentialités multimédia à portée de main. La tablette peut être à la fois une banque d’images, un appareil photo, un laboratoire de langue et c’est un outil qui aide l’enseignant à médiatiser son enseignement. Les observations nous montrent que l’élève peut s’enregistrer, s’écouter, se corriger. et les applications transversales comme « book creator » permettent toutes sortes de projets de classe comme le cahier de vie en maternelle, ou la création de parcours en histoire de l’art. Si la tablette est avant tout une porte ouverte vers la création, c’est aussi un outil « boîte à mémoire » qui permet aux élèves de revoir à souhait les réalisations faites en classe. La construction progressive des notions en situation en est facilitée. C’est aussi un outil tactile à haute valeur cognitive qui permet à l’élève de s’exercer et de se corriger. L’enseignant interagit avec l’effort positif et la motivation des élèves, leur fournissant du temps d’apprentissage vraiment efficace et présentant des situations didactiques et pédagogiques pertinentes et stimulantes. Une façon d’engager les élèves dans leurs apprentissages !

Un impact positif sur les apprentissages peut être noté dans de nombreux champs disciplinaires comme en lecture. Dehaene dans son ouvrage « des sciences cognitives à la salle de classe » nous précise qu’il existe de nombreux outils numériques pour faciliter l’apprentissage de la lecture et parfois beaucoup trop de temps de l’enseignement est alloué dans les écoles à la présentation de concepts qui pourraient être acquis au moyen d’un matériel didactique de qualité et adapté. Encore faut-il connaître les potentialités des outils, les rendre accessibles et mettre en avant leurs apports pour les apprentissages. Pour mieux aborder la « chimie » du code alphabétique, l’usage de la tablette en est un exemple. Maria Montessori serait certainement heureuse de pouvoir découvrir le « Qbook », livre numérique développé aux USA qui combine le format ebook avec l’interactivité d’un smartphone en offrant une approche kinesthésique de la lecture et permettant aux élèves de mieux appréhender le code alphabétique. Elle nous inventerait une pédagogie Montessori 2.0 ! Comme je l’ai abordé lors de mon intervention au salon du futur du livre, les livres et albums interactifs avec toutes leurs fonctionnalités peuvent faciliter la compréhension des textes littéraires dans certaines conditions.

Avec la tablette, il est possible de proposer de nouvelles ambitions intellectuelles pour les élèves en développant l’individualisation, et en renouvelant les modes d’organisation dépassant l’espace-temps de la classe qui facilitent les apprentissages “dans” et “hors les murs” de l’école. La réalité augmentée au travers d’une tablette tactile peut enrichir les documents imprimés d’éléments virtuels. Les enseignanst peuvent utiliser les QR Codes pour enrichir les supports de cours destinés aux élèves avec des documents multimedia. Les enfants peuvent les consulter grâce à une application spécifique installée sur les tablettes en classe. Une occasion d’apporter des aides pour les leçons à mémoriser ou pour rendre les sup¬ports de cours plus ludiques ! Il suffit d’insérer des QR Codes pour géné¬rer du contenu aug¬menté sur les tablettes.

Quels changements pour l’enseignant ? La tablette permet-elle d’abattre les murs de la classe

Les ressources numériques sont au cœur du métier de l’enseignant comme je l’ai souligné lors mon intervention aux journées nationales de l’innovation (6). L’usage de la tablette doit s’inscrire dans une réflexion plus large qui prend en compte le rôle majeur du maître et de sa place pour la médiatisation de son enseignement. Avec les tablettes, des environnements personnels d’apprentissage peuvent être développés pour que l’élève puisse travailler en autonomie, s’exercer .

Pour relever ce défi, différents chantiers en perspective se profilent à l’horizon ;

  • si les enseignants notent des avantages en terme de « flexibilité pédagogique » avec la tablette, on peut noter une augmentation de la charge de travail en amont pour le choix du contenu adapté dans un contexte donné. Un collecteur de ressources et d’applications partageables pourrait être envisagé au niveau d’une académie pour aider les enseignants à mettre en place une pédagogie efficace avec les tablettes.
  • l’enseignant a besoin de créer ou de trouver du contenu adapté pour développer une pédagogie inversée propice aux apprentissages qui lui permet de redéfinir son taux de présence auprès de ses élèves pour les guider et les accompagner.
  • les enseignants qui utilisent les tablettes sont amenés à réfléchir sur leurs pratiques mais comme le précise Laurillard en 2007, la construction et l’utilisation de différents environnements numériques nécessitent des compétences et la connaissance des affordances pédagogiques et techniques. La formation des enseignants autour des tablettes est cruciale.
  • il nous faut assurer la mobilisation de tous les acteurs autour de cette problématique des usages de la tablette et les corps d’inspection, dans leurs missions d’impulsion, d’accompagnement et d’expertise ont un rôle majeur à jouer.
  • les collectivités doivent être associées à la réflexion sur le problème de l’équipement des écoles.

Pour conclure : Panacée ou pas panacée ?

Au-delà des phases de prise en main et des considérations techniques qui sont à présent connues et qui sont chronophages, il s’agit bien désormais d’engager des pratiques pédagogiques innovantes s’appuyant sur le potentiel cognitif des tablettes tactiles. Comme le précise l’UNESCO dans son rapport (2013, p 9), « la technologie mobile n’est pas et ne sera jamais la panacée éducative. Mais elle est un outil puissant et encore trop souvent ignoré, un outil parmi d’autres pour l’éducation ». Les potentialités pédagogiques ne tiennent pas uniquement dans une tablette mais dans la façon dont on s’en sert. La place et le rôle du maître restent essentiels. L’accompagnement des équipes est nécessaire et les inspecteurs jouent un rôle important avec les équipes de formateurs. Les usages de ces outils numériques peuvent se construire collectivement par une communauté d’enseignants qui peuvent partager leurs observations, leurs réussites et comme disait Jean-Pierre Astolfi : « Il faut encourager et capitaliser toutes les tentatives, même modestes, pour accompagner un changement de paradigme didactique qui se cherche encore ». Avec les tablettes ne peut-on pas générer ces « révolutions minuscules » ou ces « petits moments magiques », qui bousculent les certitudes, qui « boostent » la réflexion des élèves, et qui permettent aussi une réflexion des enseignants sur les différentes façons d’apprendre ? Ces moments de manipulation via ces interfaces numériques à haute valeur cognitive ne sont-ils pas une façon de faire vivre concrètement dans l’action, l’expérience de ce qu’un savoir en construction produit comme surprise et inspiration ? Avec tous les apports du numérique, nous pouvons repenser ici à ce que Louis Legrand appelait une « pédagogie de l’étonnement » et Georges Snyders « la joie à l’école » !

— –

texte reproduit : Le Café Pédagogique, le lundi 04 novembre 2013, http://www.cafepedagogique.net/lexpresso/Pages/2013/11/04112013Article635191344747035425.aspx#.U6LEzLZx4ZI.twitter

De la pensée stratégique

La prise de conscience du public à la santé cognitive (cognitive health) est relativement récente par rapport à la santé physique. De plus en plus de preuves suggèrent que l’entrainement cognitif (cognitive training) semble assez prometteur quant aux possibilités de « l’augmentation » des performances cognitives du cerveau chez les populations normales et cliniques. Le ciblage des fonctions cognitives d’ordre supérieur, comme le raisonnement, en particulier, peut notamment favoriser certains changements cognitifs généralisés nécessaires faire face aux complexités de la vie quotidienne. Par exemple, des chercheurs de L’UCLA[6,7,8,9] ont constaté que les personnes âgées qui ont régulièrement fait usage d’un logiciel de remise en forme du cerveau sur un ordinateur ont démontré une amélioration significative des compétences mnésiques (ou de la mémoire) et du langage. D’autres chercheurs ont précédemment constaté qu’un entrainement pouvait améliorer la mémoire et augmenter l’activité du cerveau souffrant d’une légère déficience cognitive[10,11].

L’entrainement cognitif basé sur la stratégie (strategy-based cognitive training) a le potentiel d’améliorer la performance cognitive et effectivement avoir de réels avantages dans la vie courante selon un article de perspective axée sur les données (data-driven perspective article) par le Center for BrainHealth at The University of Texas at Dallas publiée dans la revue à accès ouvert Frontiers in Systems Neuroscience. La perspective fondée sur la recherche (research-based perspective) met en évidence des changements neuronaux, cognitifs, ainsi que dans la vie courante et ont été mesurés lors d’essais cliniques randomisés (randomized clinical trials) qui ont comparé le « gist-reasoning strategy-training » à l’entrainement de la mémoire chez les populations allant d’adolescents aux adultes plus âgées en bonne santé, aux personnes souffrant de lésions cérébrales, à ceux à risque de la maladie d’Alzheimer.

Notre cerveau est câblé pour être inspiré. L’une des principales différences de nos études[1,2,3,4] par rapport à d’autres recherches interventionnelles (interventional research) visant à améliorer les capacités cognitives, c’est que nous n’avons pas mis l’accent sur les fonctions cognitives spécifiques tels que la vitesse de traitement, la mémoire, ou l’apprentissage de nouvelles compétences isolées (isolated new skills). Au lieu de cela, le programme d’entrainement au « gist reasoning training program » encourage l’usage d’un ensemble commun de stratégies de réflexion multidimensionnelles pour synthétiser de l’information et l’élimination d’habitude toxiques qui nuisent à la l’efficacité des performances du cerveau.

L’entrainement à travers les études a été court, allant de 8 à 12 séances offertes sur un à deux mois en périodes de 45 à 60 minutes. Le protocole a porté sur trois stratégies cognitives — l’attention stratégique (strategic attention), le raisonnement intégré (integrated reasoning) et l’innovation. Ces stratégies sont de nature hiérarchique et peuvent être largement appliquées à la plupart des activités mentales journalières les plus complexes[5].

Au niveau de base, les participants de la recherche ont été encouragés à filtrer l’information concurrente qui n’est pas pertinente et à se concentrer uniquement sur des informations importantes. Aux niveaux plus avancés, les participants ont été invités, par exemple, à produire des interprétations, des thèmes ou des déclarations générales à partir d’informations dont ils avaient besoin ou dont ils désiraient lire. Chaque nouvelle stratégie est construite à partir des stratégies précédentes et les participants de la recherche ont été mis au défi d’intégrer toutes les étapes alors qu’ils abordaient les activités mentales, et ce, à la fois pendant les entrainements, et à l’extérieur des périodes d’entrainements.

On note ainsi certains bénéfices cognitifs qui ont été documentés dans les domaines d’entrainement tels que l’abstraction, le raisonnement et l’innovation. Et les bénéfices ont également débordé dans des domaines qui n’ont pas été entrainés, tels que la mémoire des faits, la planification et la résolution de problèmes. Ce qui est intéressant à propos de cette étude, c’est que lors les essais randomisés comparant le « gist-reasoning strategy-training » à l’entrainement de la mémoire, nous avons constaté que ce n’était pas d’apprendre de nouvelles informations qui engageait les réseaux cérébraux répandus et qui élevait les performances cognitives, mais plutôt le traitement plus profond de l’information et l’usage de ces informations de nouvelles manières qui « augmente » effectivement les performances du cerveau (essentiellement, se dépassé).

Le renforcement de la capacité intellectuelle n’est pas une science-fiction; ce qui semblait improbable est maintenant dans le domaine de la réalité.

Les changements physiques positifs au sein du cerveau et l’amélioration cognitive entre les populations en réponse à l’entraînement mental basé sur la stratégie (strategy-based mental training) démontrent le potentiel de la neuro-regénératif du cerveau.

La capacité à reconnaître, à synthétiser et à créer « l’essence » des idées complexes et des problèmes complexes à résoudres relèvent de compétences fondamentales pour la réussite scolaire, professionnelle et dans la vie courante. La capacité à améliorer la santé de la cognition et des réseaux neuronaux complexes, après une blessure ou un diagnostic d’une condition aura des implications majeures pour la prévention, le diagnostique et le traitement du déclin cognitif et de l’amélioration des performances cognitives chez les jeunes afin de les préparer à un avenir inconnu, et et chez les personnes plus âgées qui veulent rester mentalement robuste.

— –

sources

  1. Medical Xpress (2014, April 28) “Research shows strategic thinking strengthens intellectual capacity”, http://medicalxpress.com/news/2014-04-strategic-intellectual-capacity.html
  2. Center for BrainHealth. (2014, April 28). “Strategic thinking strengthens intellectual capacity. ScienceDaily“, Retrieved May 1, 2014 from http://www.sciencedaily.com/releases/2014/04/140428094259.htm
  3. Sandra B. Chapman, Raksha A. Mudar. “Enhancement of cognitive and neural functions through complex reasoning training: evidence from normal and clinical populations”, Frontiers in Systems Neuroscience, 2014;8, DOI:10.3389/fnsys.2014.00069
  4. (2014, April 28) “BrainHealth Research Shows Strategic Thinking Strengthens Intellectual Capacity”, The University of Texas at Dallas, Center for Brain Health.

références

  1. Chapman, S. B., Aslan, S., Spence, J. S., Hart, J. J., Bartz, E. K., Didehbani, N., … & Lu, H. (2013). Neural mechanisms of brain plasticity with complex cognitive training in healthy seniors. Cerebral Cortex, bht234, http://cercor.oxfordjournals.org/content/early/2013/08/21/cercor.bht234.full.pdf+html?sid=4dca13a4-3470-4076-bc51-dfdc121de7be.
  2. Champeau, R. (2013, June 25). “Memory improves for older adults using computerized brain-fitness program“, UCLA research alert – Academics & Faculty, UCLA Newsroom, http://newsroom.ucla.edu/releases/memory-improves-for-older-adults-246978
  3. Miller, K. J., Dye, R. V., Kim, J., Jennings, J. L., O’Toole, E., Wong, J., & Siddarth, P. (2013). Effect of a computerized brain exercise program on cognitive performance in older adults. The American journal of geriatric psychiatry: official journal of the American Association for Geriatric Psychiatry, 21(7), 655-663, http://europepmc.org/abstract/MED/23602310 (+ http://www.ajgponline.org/article/S1064-7481%2813%2900117-6/abstract).
  4. Karen J. Miller, Richelin V. Dye, Jeanne Kim, Julia L. Jennings, Elizabeth O’Toole, Julie Wong, Prabha Siddarth. Effect of a Computerized Brain Exercise Program on Cognitive Performance in Older Adults. The American Journal of Geriatric Psychiatry, 2013; 21 (7): 655 DOI: 10.1016/j.jagp.2013.01.077
  5. University of California – Los Angeles Health Sciences. (2013, June 25). Memory improves for older adults using computerized brain-fitness program. ScienceDaily. Retrieved May 1, 2014 from http://www.sciencedaily.com/releases/2013/06/130625172352.htm
  6. Benjamin M. Hampstead, Anthony Y. Stringer, Randall F. Stilla, Michelle Giddens, K. Sathian. Mnemonic strategy training partially restores hippocampal activity in patients with mild cognitive impairment. Hippocampus, 2012; DOI: 10.1002/hipo.22006
  7. Emory University. (2012, March 1). Training can improve memory and increase brain activity in mild cognitive impairment. ScienceDaily. Retrieved May 1, 2014 from http://www.sciencedaily.com/releases/2012/03/120301180950.htm

Près d’un adulte canadien sur trois rapporte avoir vécu de l’abus durant l’enfance

Une nouvelle étude qui donne à réfléchir constate que près d’un tiers des adultes au Canada a vécu de l’abus sous forme de maltraitance et de violence durant l’enfance au sein de leur foyer.

Ainsi, l’abus peut prendre plusieurs formes, notamment les sévices, les sévices sexuels, ou l’exposition à la violence conjugale (parents, beaux-parents, ou tuteurs).

En outre, tel que publié dans le Journal de l’Association médicale canadienne — JAMC (Canadian Medical Association Journal – CMAJ), les enquêteurs ont constaté que la maltraitance des enfants est liée à des troubles mentaux et des idées suicidaires (idéation) ou des tentatives de suicide.

Du point de vue de la santé publique, ces résultats mettent en évidence l’urgent besoin de faire de la prévention de la maltraitance des enfants une priorité au Canada.

Bien que le lien entre la maltraitance des enfants et la santé mentale soit déjà connu, on note cependant qu’au Canada, un déficit d’études et de recherches ressent, fournissant les informations les plus complètes sur la prévalence du phénomène de la maltraitance des enfants et du lien entre les différents types de violence et les troubles mentaux chez les adultes.

Ce présent recensement est la première étude représentative à l’échelle nationale de la maltraitance des enfants et des troubles mentaux au Canada. Les chercheurs ont examiné les données de 23 395 personnes, et ce, provenant de partout au Canada, qui ont participé à l’Enquête sur la santé dans les collectivités canadiennes : santé mentale, 2012 (2012 Canadian Community Health Survey: Mental Health)[a,b].

Les participants étaient âgés de 18 ans ou plus et étaient représentatifs de personnes vivant dans les 10 provinces. L’étude a exclu les résidents des trois territoires, les résidents des communautés autochtones, les membres à temps plein des Forces canadiennes et les personnes vivant au sein d’institutions.

Ainsi, selon l’étude, 32 % des adultes canadiens ont connu de la maltraitance, notamment la violence physique qui est la plus courante (26 %), suivie de la violence sexuelle (10 %), et l’exposition à la violence conjugale (8 %).

Les hommes étaient plus susceptibles d’avoir été victimes de violence physique (31 % contre 21 % chez les femmes) et d’avoir un taux d’abus plus élevé (34 % contre 30 %). Les sévices sexuels étaient plus fréquents chez les femmes (14 % contre 6 % des hommes), de même que pour l’exposition à la violence conjugale (9 % contre 7 %) que les enfants.

Les personnes entre 35 et 64 ans étaient plus susceptibles que ceux âgés de 18 à 34 ans de déclarer avoir été maltraitées dans l’enfance.

Tous les trois types de violence envers les enfants ont été associés à tous les types de troubles mentaux diagnostiqués par entrevue, les conditions mentales autodéclarées, les idées suicidaires [pensées de suicide], et les tentatives de suicide dans les modèles d’ajustement pour les variables sociodémographiques » écrivent les auteurs.

L’abus de drogues ou de dépendance, des pensées suicidaires et tentatives de suicide sont restées associées à tous les types de violence envers les enfants, malgré l’usage de modèles les plus adaptés (ou ajusté).

Le type le moins grave de violence physique (les gifles au visage, à la tête ou aux oreilles, les coups ou les fessées avec un objet de dur comme la strappe ou le bâton) a montré une forte association avec toutes les conditions mentales dans les modèles ajustés en fonction des variables sociodémographiques.

L’exposition à plus d’un type de violence augmente les chances d’avoir une condition mentale. Les provinces de l’ouest du Canada ont enregistré les taux de maltraitance des enfants les plus élevés, avec le Manitoba en premier (40 %), suivie de la Colombie-Britannique et de l’Alberta (36 %). Terre-Neuve et le Labrador ont enregistré les taux de violence les plus bas, soit à 21 %. Le Québec se situe autour de 32 % des enfants qui ont vécu une forme ou une autre de maltraitance de l’étude.

Tous les fournisseurs de soins de santé se doivent d’être conscients de la relation entre les types spécifiques de violence envers les enfants et certains troubles mentaux. Les cliniciens qui travaillent dans le domaine de la santé mentale doivent être suffisamment qualifiés pour évaluer les patients exposer à la violence et doivent comprendre les implications pour le traitement.

— –

Les associations entre la maltraitance des enfants et le déficit de l’attention, les idéations suicidaires et les tentatives de suicide ont montré de plus forts effets chez les femmes que les hommes.

— –

sources

  1. Nauert, R. (2014). Nearly 1 in 3 Canadian Adults Reports Abuse. Psych Central. Retrieved on April 23, 2014, from http://psychcentral.com/news/2014/04/23/nearly-1-in-3-canadian-adults-reports-abuse/68875.html

  2. Afifi, T. O., et coll. (2014, April 22)”Child abuse and mental disorders in Canada”, Early Access, CMAJ 2014. DOI:10.1503/cmaj.131792, http://www.cmaj.ca/content/early/2014/04/22/cmaj.131792.full.pdf (+ http://bit.ly/1icduEe).

références

  1. Canadian Community Health Survey: Mental Health, 2012 – http://www.statcan.gc.ca/daily-quotidien/130918/dq130918a-eng.htm

  2. Canadian Community Health Survey – Mental Health (CCHS), 2012 – http://www23.statcan.gc.ca/imdb/p2SV.pl?Function=getSurvey&SDDS=5015

  3. Leung, M. (2014, April 22), “One in three Canadian adults has experienced child abuse: study”, CTV News Canada, http://www.ctvnews.ca/health/one-in-three-canadian-adults-has-experienced-child-abuse-study-1.1786838

  4. Branswell, H. (2014, April 22). “1 In 3 Canadian Adults Have Suffered Child Abuse, New Study Suggests”, http://www.huffingtonpost.ca/2014/04/22/child-abuse-canada_n_5192339.html

[DRAFT] Une ardoise pas si vierge : Qu’est-ce que les enfants comprennent sur le monde social? Plus que vous ne le pensez!!!

La capacité à évaluer d’autres personnes est essentiel pour naviguer dans le monde social. Les humains doivent être en mesure d’évaluer les actions et les intentions des gens autour d’eux, et de prendre des décisions précises sur qui est ami et qui est ennemi (ou adversaire), et qui est un partenaire social approprié et qui ne l’est pas. En effet, tous les animaux sociaux bénéficient de cette capacité d’identifier les individus congénères qui peuvent aider, et distinguer ces personnes des autres qui peuvent leur nuire.

Les adultes humains évalue rapidement et automatiquement les personnes sur la base de caractéristiques physiques et comportementementales, mais les origines ontogénétique et le développement de cette capacité restent encore mal comprises.

La réussite de l’existence des adultes humains dans le monde social repose sur essentiellement sur la capacité d’évaluer autrui. Nous devons être en mesure de faire la distinction entre les personnes de confiance des personnes peu fiables, et d’identifier qui est susceptible d’être aidant, de qui ne l’est pas – ceux qui pourrait valoir la peine d’être approcher et ceux qu’il vaut mieux éviter. Ces jugements sont informés en partie, par les comportements d’autrui – nous avons tendance à juger positivement ceux dont les actions envers les autres ont un caractère sociable et serviable, et à juger négativement ceux dont les actions sont nuisibles ou antisocial en nature. En supposant [ou en attribuant] que les actions sociales d’autrui sont motivés par des traits de personnalité sous-jacents et durables qui continueront à influencer leur comportement de la personne au fil du temps, nous pouvons alors produire des jugements sur qui sera probablement un bon ou mauvais partenaire social (social partner).

Il est question de l’évaluation et du jugement social.

Les nouveau-nés ont une réputation à défendre : ils sont reconnus pour manger, dormir, et être que de véritables machines à souiller des couches. Souvent considérés, et déconsidérés, comme une « page blanche », les nouveau-nés auraient beaucoup à apprendre. Les gens ont ainsi acquis l’habitude de penser, et de croire que les capacités cognitives des nourrissons étaient sévèrement limitées. Or, les outils et les recherches les plus récentes ont vraiment peint un portrait de la réalité totalement différente.

Pourtant, eux aussi ont beaucoup à nous apprendre. Ainsi, alors même que les scientifiques explorent ce qui se passe dans leurs adorables minuscules têtes, les chercheurs ont remarqué que les bébés présentaient une surprenante richesse quant à la compréhension du monde sociale autour d’eux.

Pour la plus grande partie du 20e siècle, les manuels de psychologie du développement enseignaient qu’il fallait des années pour que les enfants saisissent les concepts « socio-moraux » (social-moral concept) tels que l’équité et l’altruisme. Ces études, cependant, rencontraient de sérieuses limitations : Ils relevaient principalement d’entretiens avec les enfants et ne pouvaient donc ainsi ne rien révéler sur les nourrissons, les poupons ou les tout-petits pré-verbaux avec un lexique limité.

Un tournant s’est produit lors des années 1980, lorsque Renée Baillargeon PhD, et directrice du Cognition Laboratory at the University of Illinois at Urbana-Champaign, et ses collègues, ont développé une méthode pour tester la compréhension des bébés au sujet des objets et des événements de leur environnement autour d’eux. La technique est fondée sur la constatation que les bébés regardent « mesurablement » plus longtemps lors d’événements qui défient leurs attentes.

Cette équipe, et plus tard d’autres ont depuis exploré ce que les nourrissons comprennent des états mentaux d’autrui, un concept connu sous le nom « théorie de l’esprit » (theory of mind). Plus récemment, ce travail a conduit à s’interroger sur le développement social et moral des  nourrissons et des jeunes enfants. Le paysage de la recherche est en constante évolution et la science commence à poser certaines questions qui n’ont pas été auparavant effectivement posées à sujet des jeunes bébés.

Étudier la moralité chez les nourrissons peut s’avérer particulier. La morale est difficile à définir, même chez les adultes. Pourtant, les chercheurs de ce domaine se sont porté sur quelques traits principaux, y compris la serviabilité, l’équité et la bonté. La recherche indique que ces « comportements prosociaux » (prosocial behaviors) peuvent être détectés chez les bébés âgés de quelques mois.

Dans une telle étude, Wynn (http://bit.ly/1fW114X) et ses collègues J. Kiley Hamlin, doctorat, et Paul Bloom, Ph.D., ont présentés aux enfants agés de 3 mois une marionnette avec des yeux gros comme des piastres françaises (Googly eyes or jiggly eyes) qui monte péniblement une colline. Dans un scénario, un triangle utile aide à pousser le cercle vers le haut. Dans un autre, un carré pas si gentil frappe le cercle l’entrainant ainsi vers le bas de la colline. Plus tard, un expérimentateur a montré les deux personnages aux bébés (le triangle ou le carré). Or, les enfants préfèrent regarder (gaze) les personnages qui aident plutôt que ceux qui nuisent. Cette préférence semble exister que dans un contexte social, puisque les bébés ne montrent aucune préférence lorsque les personnages poussent des objets inanimés haut ou en bas de la colline (Developmental Science, 2010). À l’âge de 5 mois, comme suite à une maitrise plus précise de leurs motricités, les bébés tentent activement d’atteindre le personnage gentil déconsidérant le personnage méchant — ce qui suggère que le regard prolongé (extended gaze) des enfants âgés de trois mois s’avère une indication quant à leur préférence. Les résultats suggèrent que les bébés peuvent distinguer entre les gentils et les méchants avant même de pouvoir se rouler sur eux-mêmes.

Au moment où ils atteignent 1 an d’âge, les bébés ont acquis les aptitudes physiques pour commencer à s’engager de leurs propres chefs dans des comportements utiles — et un certain nombre d’études ont montré qu’ils le font avidement, et avec un certain empressement. En fait, ils aident même sans qu’on le leur demande, et ce sans être louangé ou récompensé pour l’effort.

Dans une étude (Sommerville, A., Schmidt, M., 2011, Plos One), on observe que l’altruisme semble se développer de manière précoce chez les enfants et les chercheurs ont démontré que les nourrissons âgés de 15 mois semblent spontanément comprendre les notions de partage et d’équité. Les chercheurs ont testé 47 enfants qui ont regardé une vidéo sur le partage de la nourriture, puis en interaction avec le chercheurs, alors qu’ils étaient assis sur les genoux de leurs mamans, et les résultats montrent que les normes d’équité et d’altruisme sont plus rapidement acquisesent qu’on ene le pensaient ».

Warneken et Michael Tomasello, PhD, du Max Planck Institute for Evolutionary Anthropology, en Allemagne, ont donné à des jeunes de 2 ans l’occasion d’aider un adulte qui n’est pas familier à prendre des objets qui ont chuté tels que des marqueurs et des trombones. Les chercheurs ont constaté que les enfants ont contribué de façon égale et fréquente, peut importe si leurs parents ont souligné la problématique, s’ils ont encouragé à aider, s’ils ont donné la consigne de le faire ou s’il se tenaient tout simplement tranquillement à proximité. Le fait que le parent était dans la même salle (ou pièce) que le rejeton n’avait aucune importance. Ces résultats suggèrent donc que les tout-petits ont un désir intrinsèque d’être utiles (Infancy, 2013).

Mais les bébés semblent également capable de comprendre que tout le monde ne mérite d’être aidé. Valerie Kuhlmeier (http://bit.ly/1lFAKJz), Ph.D., chef du Infant Cognition Group at Queen’s University, en Ontario, et Kristen Dunfield (http://bit.ly/1ijQiyx), Ph.D., maintenant à l’Université Concordia, à Montréal, ont présenté deux scénarios aux enfants âgés de 21 mois. Dans l’une, un adulte taquine le bébé avec un jouet sans le partager. Dans l’autre, un deuxième adulte essaie de partager le jouet avec l’enfant, mais était incapable de le remettre à cause de part la manière dont le mobilier avait été disposé dans la chambre. Puis, lorsqu’un expérimentateur laisse tomber le jouet hors de la portée des adultes, les bébés sont plus susceptibles de prendre le jouet et de le remettre à la personne qui avait déjà essayé de le partager (Psychological Science, 2010).

Même à 21 mois, les bébés peuvent faire lecture de l’intention ; c’est la pensée qui compte. Or, le comportement prosocial est coûteux, et il peut être judicieux de s’engager dans ces comportements de manière sélective.

Tout parent qui a entendu le hurlement de l’enfant criant « Ce n’est pas juste! » sait que les enfants sont sensibles et susceptibles à l’iniquité, et l’inégalité. Or, les bébés comprennent la notion d’équité longtemps avant d’avoir des mots pour se plaindre à ce sujet.

Dans une étude de Baillargeon et ses coll., les bébés regardaient plus les biscuits qui avait été divisé inégalement entre deux marionnettes animées girafe, que les biscuits qui avaient été distribués de manière égale et équitable. En fait, les bébés semblaient s’attendre à une situation égalitaire et semblaient avoir été surpris que les marionnettes eussent été flouées. Cependant, cette attente ne concernait que les créatures animées. Lorsque l’expérimentateur avait divisé les biscuits entre des girafes en peluche inanimée, les bébés regardaient aussi longtemps les biscuits qui avaient été répartis de manière uniforme ou non (Psychological Science, 2012).

Dans un deuxième volet de cette étude, les bébés regardaient alors qu’un expérimentateur donne des autocollants à deux femmes. Dans certains cas, ces femmes avaient coopéré ensemble à ranger les jouets. Dans d’autres, seule l’une des deux femmes avait fait tout le travail de ranger les jouets, pendant que l’autre adulte jouait. Baillargeon et ses collègues ont constaté que les enfants de 21 mois avaient été surpris lorsque le fainéant obtenait un autocollant — mais seulement si l’expérimentateur pouvait constater qui avait travaillé et qui avaient, paraissé. Avant même leur deuxième anniversaire, les bébés semblent capables de comprendre que vous devez gagner votre juste part.

Le sens d’équité semble être si fort à l’âge de 3 ans que les enfants sont tout à fait prêts à renoncer à une récompense s’ils pensent qu’ils sont traités injustement. Ainsi, Peter R. Blake, EDD, et Katherine McAuliffe (http://bit.ly/1hx6c7y), PhD, ont conçu un appareil de distribution de bonbons ‘Skittles’ disposés dans des plats face de deux enfants. Lorsqu’il avaient le choix de fournir plus de bonbons à l’autre enfant, ou pas soit, les enfants agés de 4 ans optaient souvent de jeter tous les bonbons à la corbeille (PLoS ONE, 2013). Ainsi, ces enfants préfèrent ne rien obtenir si un autre enfant est en position d’en obtenir plus que lui.

Cependant, ce n’est pas parce que les enfants semblent comprennent l’équité, que cela signifie qu’ils la pratiquent. Dans une paire d’études, Blake et McAuliffe a montré que la plupart des enfants âgées de 4 à 7 ans rejetaient les situations dans lesquelles ils avaient reçu une plus faible part des bonbons ou d’autocollants, mais l’inégalité étaient accueilli s’ils étaient en position d’en obtenir la plus grande partie — même lorsque les enfants ont déclaré que partager était la bonne chose à faire. Les enfants semblent approuver l’égalité, mais ils ne les utilisent pas toujours», dit Warneken. Cette réflexion semble se déplacer autour de 7 ou 8 ans, les chercheurs ont constaté (Cognition, 2011; PLoS ONE, 2013). Ainsi, les enfants semblent approuver l’égalité, mais ils ne l’utilisent pas toujours. Cette réflexion semble se déplacer autour de 7 ou 8 ans (Cognition, 2011; PLoS ONE, 2013).

Avant cela, les enfants semblent effectivement préférer une situation injuste lorsqu’on leur donne la main haute. Wynn et ses collègues ont donné aux enfants âgés de 5 ans une chance de choisir une pile de jetons qu’ils pouvaient échanger contre un prix. Les chercheurs ont trouvé que les enfants ont préféré prendre sept jetons si un autre enfant n’en recevait pas, plutôt que huit jetons pour deux (Cognition, 2014).

Les jeunes enfants s’avèrent en fait extrêmement intéressées (self-interested) et tendent positivement vers une iniquité de base. Combinés aux conclusions sur les enfants, ceci souligne une distinction importante entre ce que les bébés et les enfants veulent que les autres fassent, et ce qu’ils veulent pour eux-mêmes.

D’autres recherches effectuer par Sommerville suggèrent que l’équité et la générosité sont entrelacées dès l’âge de 1 an. Dans une expérience similaire à l’étude de la girafe de Baillargeon, Sommerville a constaté que les enfants âgées de 15 mois qui avaient été le plus surpris par une contingence injuste étaient plus susceptibles de partager leur jouet favorisé (PLoS ONE, 2011).

Parce que d’autres recherches indiquent que la reconnaissance de l’équité émerge entre 9 mois et 12 mois d’âge, Sommerville affirme que les enfants âgées de 15 mois qui sont probablement moins sensibles à l’injustice ne sont pas seulement à la traîne par rapport à leurs pairs sur cette importante étape de développement. Nous pensons  que nous commençons à puiser dans une partie intéressante des différences individuelles qui persistent au fil du temps tout au long de la vie chez la personne.

Les différences individuelles mises de côté, certaines situations sociales peuvent inspirer une personne à agir de manière plus ou moins moralement. Warneken et ses collègues ont démontré cette idée dans une expérience destinée à tester l’équité dans l’action (fairness in action).

Des chercheurs ont truqué un système dans lequel deux enfants ont dû travailler ensemble pour tirer une corde afin de soulever une boîte avec des billes à l’intérieur. À partir d’environ 3 ans, les scientifiques ont constaté que les enfants avaient tendance à partager les billes s’ils avaient travaillé ensemble pour les récupérer. Si un enfant fini avec trois billes, alors que son partenaire n’en obtenait qu’un seul, ils avaient partagé pour que chacun en détienne deux. Toutefois, si les enfants avaient travaillé de manière indépendante chacun de leurs côtés afin d’obtenir les billes, il ne semblait pas préoccuper du fait que chacun pouvait se retrouver avec un nombre différent de billes au terme de l’exercice.

À cet égard, les enfants de trois ans ont un pas d’avance sur nos cousins les primates. Warneken et ses collègues ont produit exactement la même expérience avec des chimpanzés, et ils ont constaté que les singes étaient prêts à s’associer pour récupérer des récompenses alimentaires. Mais si l’un des chimpanzés se retrouvait avec plus de gâteries que son partenaire, ils les gardaient tous joyeusement (Nature, 2012). Un sens précoce de l’équité peut avoir évolué afin d’aider les humains à travailler ensemble pour survivre. Le travail collaboratif est le berceau de l’égalité.

Il apparaît également que les bébés sont capables de comprendre le concept du « nous » par rapport à celui d’« autrui », et ce, à un âge relativement précoce.

Dans un exemple, Wynn, Hamlin et ses collègues ont demandé à des enfants âgées de 9 mois et de 14 mois de choisir un aliment, soit un biscuit Graham ou des haricots verts. Ensuite les bébés regardaient une série de spectacles de marionnettes dans lequel une marionnette qui aime les craquelins alors que l’autre des haricots verts. Les enfants en deux groupes d’âge ont préféré les personnages qui étaient gentils que les marionnettes qui partageaient leurs goûts.

Cela s’accorde donc avec les résultats de recherche antérieurs et ne s’avère pas vraiment inattendu. Mais le constat suivant a surpris les chercheurs : les bébés ont aussi une nette préférence pour les personnages qui étaient méchants à la marionnette dissemblable (Psychological Science, 2013).

Wynn, hésitant à décrire ses conclusions dans le jargon psychologique des expressions « en groupes » (in-groups) et « hors-groupes» (out-group), car il est difficile de savoir si les bébés construisent les groupes sociaux autour de ces préférences alimentaires partagées. Cela semble être fondamentalement une préférence partagée : si vous valorisez les aspects du monde de la même manière que je le fais, donc je vous aime.

D’autres études suggèrent qu’alors que les bébés reconnaissent les groupes sociaux, ils ne s’attendent pas nécessairement à un traitement préjudiciable des gens à l’extérieur du groupe. Baillargeon a dirigé des études dans lesquelles les expérimentateurs s’identifient comme membres de groupes sociaux confectionnés par annonce, par exemple, « Je suis une lumi » ou «Je suis un tarfen ». Baillargeon a trouvé que des bébés de 16 mois sont surpris lorsqu’une personne ne parvient pas à aider un autre membre de son groupe. Cependant, les bébés participants aux études de Baillargeon ne semblent pas avoir des attentes quant à savoir si une personne doit aider un étranger. S’ils ne font pas partie de votre club, vous avez le choix de déterminer si vous vous impliquez ou non.

Alors que les les scientifiques continuent d’étudier le développement social et moral de nourrissons, une importante question demeure sans réponse : Est-ce que les principes sociaux-moral sont acquis (social-moral principles learned), ou les bébés sont nés avec ces systèmes déjà préétablit, déterminer biologiquement, par la genèse développementale de l’être humain (essentiellement, est-ce inné ou acquis)?

D’importants indices pourraient provenir d’études dites interculturelles qui pourraient ainsi aider à éclairer sur la manière et le moment lorsque les bébés de différentes cultures présentent des différences des comportements sociaux. Mais ces études n’ont tout simplement pas encore été produites.

On peut considérer qu’étudier les bébés est pur, en quelque sorte. Elle peut nous renseigner sur la manière dont nos processus sociaux et moraux se développent avant même qu’ils ne soient « embrouillés » par la culture ou la langue ou le raisonnement complexe.

Lorsque vous observez les bébés, c’est magique.

— –

Les humains possèdent un sens moral inné? Pour explorer cette question, des chercheurs (Hamlin, J.K., Wynn, K., & Bloom, P., 2007) ont présenté des preuves que les nourrissons jugent autrui en fonction de leurs actions sociales — ils préfèrent ceux qui aident les autres et évite ceux qui entravent autres. Certains (Scarf, D., Imuta, K., Columbo, M., & Hayne, H., 2012) soulèvent une autre interprétation du phénomène, en présentant certaines données qu’ils interprètent comme étant la préférence des enfants quant aux scénarios sociaux que les scientifiques ont présentés aux nourrissons qui peut être expliqués par une aversion pour un « événement en collision » (colliding event) et une attirance pour un « événement en rebondissement » (bouncing event). Scarf et coll. suggèrent, plus généralement, que les bébés ne possèdent, ni de boussole morale rudimentaire, ni aucune autre capacité sophistiquée, et que cela repose simplement sur la présence de certains mécanismes associatifs simples et généraux.

— –

Comment l’enseignement de la gratitude, à l’école, rend les enfants plus heureux!

Avec les compressions budgétaires et l’intensification des exigences de performance sur les enseignants, et autres membres du personnel de l’école, comment les écoles peuvent-elles renforcer les connexions entre les élèves et leurs enseignants, les écoles et les communautés?

Ainsi, à l’approche de l’Action de grâces, les enfants, à l’école, sont souvent amenés au contact de, et a pensé à, la notion de gratitude. Or, la gratitude relève du lien de reconnaissance envers quelqu’un dont on est l’obligé à l’occasion d’un bienfait reçu ou d’un service rendu. Il relève également du sentiment de reconnaissance et d’affection envers quelqu’un. La reconnaissance montre comment établir des relations positives et un sentiment d’attachement avec l’école pouvant ainsi aider à transformer les jeunes, les professeurs, l’école, et le système de l’éducation.

Ainsi, peut-être qu’à cette occasion, les enfants feront un papier en forme de dinde (turkey handprint) et écriront-ils un remerciement pour chaque plume, ou une quelconque activité du genre. Bien sûr, c’est un exercice relativement agréable pour la progéniture, mais le fait de faire preuve de gratitude peut-il vraiment faire une différence pour les enfants?

Froh et Bono (2012) constatent que certaines recherches antérieures montrent clairement que c’est le cas. La pratique de la gratitude augmente les émotions positives et améliore l’optimisme des élèves, et diminue ainsi leurs émotions négatives et certains symptômes physiques, et les fait se sentir plus connecté et plus satisfait de l’école et de la vie en général. Or, la plupart de ces études ont été réalisées avec des étudiants de la classe moyenne supérieure qui fréquentent le lycée (primaire) ou le collège.

Les résultats permettent de soulever une question: est-ce que ces résultats demeurent vrais pour d’autres types d’étudiants, en particulier les enfants plus jeunes et les enfants en situations à haut risque? Deux nouvelles études montrent que la gratitude est associée à de réels effets positifs, et ce, dans la vie de ce types d’enfants — et suffisamment pour suggérer qu’elle devrait être une priorité pour les étudiants, et ce, tout au long de l’année.

Jeffrey Froh est un pionnier de la recherche de la gratitude chez les jeunes enfants. Froh et ses collègues ont donc testé un nouveau type de programme (ou curriculum) de gratitude pour les enfants du primaire (âgés de 8 à 11), le plus jeune étudié jusqu’à présent. Premièrement, les enfants ont appris les trois types d’évaluation qui nous font sentir reconnaissants : que quelqu’un a intentionnellement fait quelque chose de bénéfique pour nous; que de fournir un bénéfice comporte un cout pour eux; que le bénéfice à de la valeur pour nous.

Après une semaine de leçons quotidiennes d’une demi-heure, les étudiants ont montré une augmentation significative de la pensée de la gratitude et de l’humeur de la gratitude (grateful thinking and grateful mood) ce qui signifie que les leçons ont produit un effet significatif. Aussi, lorsque tous les enfants ont eu la chance d’écrire une note de remerciements à la ??? (PTA) après une présentation, les élèves ont écrit 80 pour cent plus de notes que les enfants qui n’ont pas reçu de leçons, montrant ainsi que leur l’accroissement de la gratitude se traduit effectivement dans des comportements de gratitudes (grateful behavior).

Dans la seconde partie de l’étude, les chercheurs ont étalonné le programme sur cinq semaines, une leçon par semaine. Les résultats des élèves ont été testés juste après la fin du programme, puis ensuite plusieurs fois, et ce jusqu’à cinq mois plus tard. Par rapport aux enfants qui n’ont pas eu les leçons de gratitude, les enfants ont montré une augmentation constante au fil du temps de la pensée de gratitudes, de la gratitude elle-même, ainsi que des émotions positives. En fait, les différences entre les deux groupes étaient la plus élevées cinq mois après la fin du programme, ce qui indique que les leçons de gratitude ont eu des effets positifs durables.

Dans l’ensemble, cette étude suggère que même les jeunes élèves peuvent apprendre à regarder le monde à travers les yeux de la gratitude et qu’ils peuvent devenir non seulement plus reconnaissants, mais également plus heureux.

Dans une autre étude récente, Mindy Ma et ses collègues ont étudié la gratitude d’un genre de population très différent que celles utilisées dans les études précédentes sur la gratitude chez les jeunes : les adolescents afro-américains (12 -14 ans) à faible revenu, des écoles urbaines sous-performantes.

Les scientifiques cherchaient savoir si, dans ce genre d’environnement à haut risque, la gratitude pourrait aider à protéger les enfants contre les contraintes auxquels ils sont confrontés, et ce, à la maison comme à l’école. Les chercheurs ont donc interrogé près de 400 élèves de trois collèges différents pour savoir s’ils se ressentaient de la gratitude en réponse aux choses que d’autres font et qui leur bénéficie (les chercheurs l’appellent la gratitude « morale-affect »; « moral-affect » gratitude) ou s’ils ont tendance à se concentrer sur les aspects positifs dans nos vies et le monde (appelés « orientation de la vie » de la gratitude; « life-orientation » gratitude).

Les chercheurs ont constaté que ceux qui étaient plus susceptibles de sentir de la gratitude pour les autres ont également montré un plus grand intérêt académique, obtenu de meilleures notes, et ont une plus grande implication parascolaire; ceux qui ont apprécié en général les aspects positifs ont obtenu des scores plus faibles sur les comportements à risque comme la toxicomanie et l’usage de drogues, ainsi que les attitudes et les activités sexuelles. Un facteur, les relations familiales positives, a été associée aux deux types de gratitude. En d’autres termes, au moins pour ce groupe d’étudiants, la gratitude morale-affect (morale-affect gratitude) semblait améliorer les conditions positives de leur vie, alors que l’orientation de la vie de la gratitude (life-orientation gratitude) semblait tampon contre certains pièges communs de haut risque.

On peut noter, cependant, que cette étude n’a pas pu déterminer si la gratitude a effectivement causé ces aboutissements positifs (ou vice versa). Mais cette étude montre une avenue prometteuse que la gratitude peut jouer un rôle essentiel dans la protection des adolescents à risque des difficultés dans leur vie, peut-être en favorisant une plus grande ouverture d’esprit et en constituant un certain renforcement de leurs ressources personnelles et de leurs habiletés et capacités d’adaptation.

D’autres études à l’avenir devraient inclure des expériences avec ce type de programmes — comme peut-être le nouveau programme de Froh pour ainsi évaluer les effets de l’enseignement de la gratitude chez les populations à risque. Ce qui pourrait nous donner à tous quelque chose de plus à célébrer le jour de l’Action de grâces!

Bien que le domaine de l’étude de la gratitude demeure encore jeune et relativement nouveau, nous sommes déjà en train d’apprendre [et de comprendre] que la gratitude fait plus que simplement produire des enfants qui se sentent bien; il améliore également l’humeur, la santé mentale, et la satisfaction de la vie, et il peut relancer un engagement plus volontariste dans la vie à un moment critique de leur développement, lorsque leur identité prend forme.

Par exemple, une étude de Froh et Bono montre que les adolescents qui avaient des niveaux élevés de gratitude lorsqu’ils entraient au secondaire avaient moins d’émotions négatives, moins de dépression et plus d’émotions positives, une meilleure satisfaction de la vie, plus de bonheur, et ce, quatre ans plus tard quand lorsqu’ils terminent leurs études secondaires. Ils ont également plus d’espoir et un sentiment de sens dans leur vie. Une autre étude, qui a fait le suivi d’étudiants pendant plus de six mois, montre que sentiment de gratitudes motive les adolescents à aider les autres (altruisme) et à utiliser leurs forces pour contribuer à la société.

Aussi, une étude de Froh et Bono sur la visite de gratitude (gratitude visit) nous avons constaté que les élèves qui ont commencé l’étude avec un bas niveau d’émotions positives ont rapporté plus de gratitudes et plus d’émotions positives immédiatement après l’étude, et plus d’émotions positives deux mois plus tard, par rapport aux étudiants qui n’ont pas reçu de visite de gratitude. La visite de gratitude (gratitude visit), dans lesquels l’élève écrit une lettre à quelqu’un qui les avait aidés, mais qu’ils n’avaient jamais bien remercier; les élèves ont fait lecture de leur lettre à cette personne qui les avaient aidés, puis plus tard, ils ont discuté de leur expérience avec d’autres pairs qui avaient également terminé une visite de gratitude.

— —

Sources

Froh, J., Bono, G. (2012). “How to foster gratitude in Schools”, Greater School, 19 november 2012, The Greater Good Science CenterUniversity of California, Berkeley, http://bit.ly/1kgBJTf.

Ma, M., Kibler, J. L., & Sly, K. (2013). Gratitude is associated with greater levels of protective factors and lower levels of risks in African American adolescents. Journal of adolescence, 36(5), 983-991, http://bit.ly/1kAOns6.

Froh, J. « Gratitude Lesson Plans », http://bit.ly/OotcyB.

Campbell, E. (2013). “How Teaching Gratitude In School Makes Kids Happier“, TheHuffingtonPost.com, 11 december 2013, http://huff.to/1e3Edl9.

APA (2012). “Growing Up Grateful Gives Teens Multiple Mental Health Benefits, New Research Shows”, American Psychological Association, 5 august 2012, http://bit.ly/PCzFXY, presentation “Searching for the Developmental Role of Gratitude: A 4-year Longitudinal Analysis” at Orange County Convention Center on august 5 2012.

Froh, J. J., Bono, G., & Emmons, R. (2010). Being grateful is beyond good manners: Gratitude and motivation to contribute to society among early adolescents. Motivation and Emotion, 34(2), 144-157, http://bit.ly/1spQVP2.

American Psychological Association (APA). (2012, August 6). “Growing up grateful gives teens multiple mental health benefits“, ScienceDaily, http://bit.ly/1fZ3eJx.
Froh, J. J., Kashdan, T. B., Ozimkowski, K. M., & Miller, N. (2009). Who benefits the most from a gratitude intervention in children and adolescents? Examining positive affect as a moderator. The Journal of Positive Psychology, 4(5), 408-422.

Références

Froh, J., & Bono, G. (2014). “Making Grateful Kids: The Science of Building Character”, Templeton Foundation Press.

Les étudiants de première génération!

En février 2013, le ministre de l’Enseignement supérieur, de la Recherche, de la Science et de la Technologie, M. Pierre Duchesne, déclarait dans un communiqué que l’augmentation du taux de diplomation universitaire devait passer par les étudiants de première génération (ÉPG). Ainsi, on cherche à cibler une nouvelle clientèle, les étudiants dits étrangers, et les étudiants dont les parents n’ont pas fait d’études postsecondaires. Le ministre soulignait alors l’importance comme société d’être capable d’aller chercher « des gens de tous les milieux », car selon lui, les classes plus aisées de la société sont surreprésentées dans les universités; « l’intelligence, ça ne vient pas avec le porte-monnaie ». Les universités qui attirent davantage d’étudiants de première génération pourraient donc obtenir plus d’argent. Le réseau de l’Université du Québec en accueille 65 % — un chiffre qui dépasse même 70 % en Abitibi, à Chicoutimi et à Rimouski — alors qu’il atteint seulement 20 % à l’Université McGill.

Dans un communiquer de septetembre 2013, le ministre annonçait l’attribution de subventions totalisant cinq millions de dollars sur trois ans dans la cadre du Programme d’arrimage universités-collèges. De passage à l’Université du Québec, le ministre a dévoilé le projet présenté par trois établissements de ce réseau et par six collèges des régions de l’Abitibi-Témiscamingue, du Bas-Saint-Laurent et du Saguenay-Lac-Saint-Jean. Ces derniers ont mis en commun leurs connaissances et expériences pour développer des initiatives liées au cheminement scolaire des étudiants de première génération (EPG), c’est-à-dire ceux dont les parents ne sont allés ni au collège ni à l’université. À partir des résultats des travaux et des expérimentations qui seront effectués par cette communauté de pratique, un modèle d’intervention auprès des EPG sera créé afin d’intervenir dans les moments les plus sensibles de leur parcours scolaire, à partir du 2e cycle du primaire jusqu’aux cycles supérieurs de l’université. Dans ce communiquer, on explique que l’on trouve des ÉPG dans tous les établissements d’enseignement universitaire québécois. Selon l’enquête ICOPE (Indicateurs de conditions de poursuite des études), réalisée par l’Université du Québec en 2011, ils représentent de 53 % à 72 % des étudiants inscrits en première année au baccalauréat dans son réseau, 31 % des étudiants inscrits dans les universités anglophones et 46 % dans les autres universités francophones.

Selon Bonin (2008), à l’automne 2006, 60 % des étudiants du réseau de l’Université du Québec étaient des EPG; l’auteure situe ce pourcentage à 54 % dans le cas de l’Université du Québec à Montréal.

Notons que même si, à plusieurs égards, le Canada se rapproche des régimes providentiels sociodémocrates européens, plusieurs études montrent qu’il se classe plutôt parmi les sociétés libérales au côté des États-Unis, du Royaume-Uni et d’autres pays semblables (Saint-Arnaud & Bernard, 2003; Esping-Andersen, 1999). Notons également qu’il existe des différences de régimes scolaires puisqu’ils relèvent de juridiction provinciale.

Certains parents n’ont pas fait d’études postsecondaires (collège, cégep ou université). Même si dans la littérature on ne semble pas s’entendre sur la définition exacte du concept d’étudiants de premières générations (ÉPG), l’importance de la scolarité des parents en regard de l’accessibilité aux études supérieures s’avère sans équivoque (Butlin, 1999; Foley, 2001; Looker, 2002). Les parents qui n’ont pas pu fréquenter l’université sont généralement plus désavantagés lorsqu’il s’agit de transmettre une un corpus de savoir expérientielle de l’enseignement et de l’apprentissage à leurs enfants — et pourtant, ce sont ces étudiants qui ont le plus besoin des conseils de leurs parents.

Ainsi, pour le moment, il n’existe aucun consensus sur la définition du concept étudiant de premières générations (ÉPG), et l’intérêt qu’elle soulève dans le milieu scientifique est relativement nouveau et limité. Toutefois, plusieurs chercheurs s’entendent sur la définition proposée, à savoir que ce sont les étudiants qui proviennent de familles où aucun des parents n’a atteint un niveau de scolarité supérieur au secondaire. Ceux-ci constituent maintenant un pourcentage élevé de la clientèle scolaire universitaire.

Le concept d’ÉPG a d’abord été utilisé dans le cadre de recherches institutionnelles menées aux États-Unis afin d’examiner l’influence de la scolarité des parents sur les parcours scolaires de leurs enfants (Adachi, 1979; Billson & Brooks-Terry, 1982). Peu à peu, une tradition de recherche s’est développée autour de ce concept qui a fait l’objet de multiples précisions conceptuelles (Auclair et coll., 2008) et théoriques. De façon générale, les études empiriques avaient pour objectif de saisir qui étaient ces étudiants et de quels milieux ils venaient. Elles visaient aussi à comprendre l’influence de la scolarité des parents sur les parcours scolaires de leurs enfants.

Ainsi donc, la majorité des chercheurs estime que le fait d’avoir fréquenté un collège ou une université est suffisant pour qu’un individu ait des connaissances sur l’éducation postsecondaire et possède un capital social et culturel transmissible à ses enfants lors de la transition vers ce niveau d’études (Lohfink & Paulsen, 2005; Pascarella et coll., 2004, 2003). Toutefois, la définition des étudiants dits de seconde génération varie d’une recherche à l’autre (Auclair et coll., 2008).

Des études menées aux États-Unis montrent que les ÉPG sont moins susceptibles de poursuivre leurs études au niveau universitaire, comparativement aux étudiants dont les parents sont titulaires d’un diplôme d’études postsecondaires (collégiales ou universitaires). Les ÉPG qui entreprennent des études universitaires seraient confrontés à plusieurs obstacles qui rendent leur parcours scolaire plus difficile. Les défis particuliers liés à ce statut sont susceptibles de s’ajouter aux enjeux adaptatifs propres à la transition à l’enseignement supérieur de sorte que les caractéristiques assurant habituellement le succès des projets d’études des jeunes sont possiblement à revoir en regard de ces étudiants. À cet effet, les études (surtout américaines) considèrent que leur situation est préoccupante : ils sont en proportion moins nombreux à compléter leur projet d’études et tendent aussi à l’abandonner plus précocement (Choy, 2001; Lohfink & Paulsen, 2005; Ishitani, 2003; Pascarella Pierson, Wolniak & Terenzini, 2004; Tym, McMillion, Barone, & Webster, 2004).

Comme l’ont proposé certains auteurs (Pascarella et coll., 2004), parce que les parents des EPG n’ont aucune expérience de scolarisation postsecondaire, ils connaissent généralement peu les caractéristiques, pratiques et ressources propres à ces environnements scolaires; ce faisant, ils peuvent difficilement transmettre à leurs enfants ces savoirs, ou ce que des auteurs appellent un capital social et culturel relatif à la fréquentation d’établissements postsecondaires (Bourdieu, 1986; Coleman, 1988). Ce capital social et culturel réfère au degré d’aisance et de familiarité du jeune avec la culture de son nouveau milieu. Les parents ayant fréquenté les institutions postsecondaires peuvent faire bénéficier leurs jeunes de leur expérience, les guider et les conseiller adéquatement, leur permettre de comprendre plus facilement l’importance de certaines décisions à prendre, etc. Privée de toutes ces ressources, l’arrivée des EPG dans leur nouveau milieu scolaire s’accompagnerait parfois d’un choc culturel (Bui, 2002; Fallon, 1997). Ce choc peut être accentué par une impression de discordance entre leurs antécédents familiaux et les attitudes à développer et les comportements à adopter pour bien s’intégrer dans leur nouveau milieu. La prise de distance avec la culture familiale pour mieux adhérer à celle attendue dans le nouveau milieu engendre parfois de la culpabilité ou un sentiment de déloyauté envers la famille (Hartig & Steigerwald, 2007). En revanche, quand l’EPG ne consent pas à adopter le nouveau code du milieu, il risque de développer un sentiment d’aliénation, la croyance de ne pas être à sa place, est susceptible d’avoir de la difficulté à préciser son statut et à développer un sentiment d’appartenance à un groupe où les pairs ont des origines familiales et sociales plus favorisées que lui.

Selon Bouffrard et coll. (2009), ces jeunes adultes doivent affronter des défis adaptatifs particuliers qui les mettent à risque d’abandonner leurs études, notamment : les inquiétudes financières; les inquiétudes financières; la conciliation travail-études; le sentiment d’insécurité.Les résultats de cette étude (Bouffard et coll., 2009) réalisée chez près de 2 000 étudiants de l’Université du Québec à Montréal indiquent que s’ils réussissent aussi bien que les autres à la fin de leur première année, ces étudiants sont significativement plus nombreux à ne plus être inscrits l’année suivante. L’étude constate également que ces étudiants sont notamment plus nombreux à être satisfaits de leur réussite scolaire et à lui accorder de l’importance pour leur insertion professionnelle, et ils rapportent être plus au clair avec leur choix de carrière et leur appréciation de leur projet d’études est plus positive que leurs collègues : ils rapportent y vivre plus d’émotions positives, lui accorder plus d’importance, lui attribuer un sens plus grand, se sentir plus en contrôle dans sa réalisation et être plus satisfaits de leur réussite jusqu’à ce moment.

De Broucker (2005), constate que ces analyses montrent que le revenu familial influence la participation aux études postsecondaires. Toutefois, selon l’étude, il ne s’agit pas d’un enjeu qui se manifeste seulement lorsqu’un jeune termine ses études secondaires et doit déterminer s’il fréquentera le collège ou l’université, et son impact n’est pas indépendant d’autres influences. Ainsi, le revenu familial et d’autres caractéristiques qui s’y rattachent souvent, notamment le niveau de scolarité et les aspirations des parents pour leurs enfants et la monoparentalité, exercent leur incidence très tôt dans la vie, même avant que l’enfant ne commence l’école, parce que ces facteurs influencent la capacité d’apprentissage et les aspirations et le rendement scolaire de l’enfant. Les gouvernements mettent l’accent sur l’aide financière aux étudiants pour leur permettre de fréquenter le collège ou l’université; mais une aide financière ne permettra pas de surmonter les désavantages qui empêchent certains jeunes d’obtenir les notes leur permettant d’avoir accès à l’enseignement postsecondaire au départ. De Broucker note donc cinq incidences, expliquer ci-bas : Interventions précoces, Diversité des cheminements, Informations et orientations, Politique de frais de scolarité, Aide financière.

Finnie et Mueller (2007) indiquent que la scolarité des parents et les variables qui s’y rattachent (ex. : habiletés en lecture) constituent la principale influence sur l’accès à l’enseignement postsecondaire et, à l’université tout particulièrement.

Selon Kamanzi et coll. (2010), qui présente une analyse dont les résultats sont en partie probants, confirmant le poids de l’origine sociale et culturelle dans l’accès aux études universitaires, mais pas dans l’obtention du baccalauréat au Canada. Ainsi, au Canada, l’accès à l’enseignement postsecondaire est influencé par diverses dimensions. Plus particulièrement, les facteurs caractérisant la scolarité au secondaire ont une influence forte sur l’accès à l’université, ce qui reflète le fonctionnement méritocratique du système scolaire et de l’université. Il existe donc des mécanismes de sélection sur la base des résultats scolaires et de la nature du parcours au secondaire.

Pour Kamanzi et coll. (2010), les effets du décrochage scolaire se font toujours sentir en réduisant la probabilité d’accéder aux études universitaires. Le dossier scolaire conserve les traces d’une scolarité caractérisée par des difficultés : les individus qui ont décroché ne désirent pas aller à l’université, indépendamment de leurs notes. D’autre part, la sélection n’est pas uniquement scolaire; elle est également sociale. En effet, l’accès des ÉPG aux études universitaires est plus faible que celui des non-ÉPG. Ainsi, les jeunes dont les parents ont fait des études postsecondaires, notamment universitaires, participent davantage aux études universitaires que les ÉPG. En plus, ils ont constaté que la catégorie socioprofessionnelle du père influence l’accès. Ainsi, l’analyse permet de constater l’effet de l’origine sociale sur la scolarisation, non seulement par le capital culturel au sens large du terme, mais aussi par le capital scolaire. En d’autres mots, la « démocratisation » des études universitaires est ségrégative, pour reprendre l’expression de Merle (2000), et elle est marquée du sceau de la reproduction sociale.

Au Canada, l’éducation relève de la juridiction des provinces et, historiquement, chacune d’entre elles a créé et aménagé son système d’éducation. Les différences des systèmes entre les provinces se font sentir quant à la probabilité d’accéder à l’université, laissant penser que l’organisation de l’offre des études universitaires a un effet sur l’accès. L’analyse (Kamanzi et coll., 2010) permet d’identifier les provinces (Québec, Alberta, Colombie-Britannique) où les taux d’accès aux études universitaires sont comparables à celui de l’Ontario et celles où ces taux d’accès sont significativement plus élevés que celui de l’Ontario (les provinces maritimes, le Manitoba et la Saskatchewan). Ce phénomène pourrait s’expliquer par l’importance des établissements universitaires au sein de la structure de l’enseignement postsecondaire de chacune de ces provinces. Celles où les collèges sont moins développés offriraient un accès à l’université plus élevé par rapport à la province de référence où les collèges communautaires sont bien implantés.

L’analyse (Kamanzi et coll. 2010) constate également que les ÉPG et les non-ÉPG ont des chances égales d’obtenir le diplôme de baccalauréat, ce qui contraste avec la situation des ÉPG étatsuniens. Doit-on y voir un effet de la méritocratie scolaire et considérer que les ÉPG canadiens qui poursuivent des études universitaires sont « semblables » aux non-ÉPG, ce qui laisse supposer que les facteurs qui influencent la persévérance des ÉPG relèvent principalement de la scolarité antérieure? Selon l’analyse, les ÉPG poursuivant des études universitaires ressemblent fortement aux autres étudiants quant au rendement scolaire et aux caractéristiques du parcours scolaire, notamment en ce qui concerne les moyennes du secondaire et le fait d’avoir connu ou non une interruption d’études. Dans la mesure où les ÉPG accèdent à l’université dans une proportion nettement plus faible que les non-ÉPG, on peut soutenir l’idée que les ÉPG qui poursuivent des études universitaires y arrivent au terme d’un processus de sur-sélection. Il s’agirait d’élèves ayant des compétences scolaires relativement élevées. Or, comme l’a noté Duru-Bellat (2002) pour les élèves performants, la poursuite des études universitaires est un acte normal, voire évident, peu importe leur origine sociale. Par contre, à compétences faibles comparables, les élèves d’origine sociale défavorisée aspirent moins aux études universitaires, car ils préfèrent ne pas s’aventurer dans un projet pour lequel la probabilité d’un échec leur semble trop élevée. Tout compte fait, les parcours scolaires s’inscrivent dans un processus d’auto-sélection.

Un dernier résultat de l’analyse ( Kamanzi et coll., 2010) met aussi en évidence une autre logique présente dans le fonctionnement du système éducatif, celle de la mobilisation scolaire de certains groupes sociaux – par exemple, les femmes et les immigrants – pour qui les études postsecondaires, et les études universitaires en particulier, représentent un instrument d’intégration socioéconomique, voire de mobilité sociale. Dans la mesure où les ÉPG viennent, pour la plupart, de familles plus défavorisées sur les plans économiques et scolaires, leur faible participation aux études universitaires tient à la fois à leurs compétences scolaires et à leurs aspirations moins élevées à la fin des études secondaires. Cela expliquerait d’ailleurs l’existence d’une relation fortement significative entre la note moyenne obtenue à la fin du secondaire et la persévérance à l’université chez les ÉPG, alors que cette même relation ne se retrouve pas chez les NÉPG. Comme ils bénéfi cient de peu ou de moins de ressources de la part de leurs familles, les ÉPG qui accèdent aux études universitaires se caractérisent particulièrement par de meilleures habiletés à composer avec leur métier d’étudiant et par un niveau plus élevé d’engagement dans les études.

— —

Une nouvelle approche développée et testée par des chercheurs de l’University of the Pacific’s Gladys L. Benerd School of Education pourrait peut aider les parents à favoriser la culture scolastique chez leur progéniture. Il existerait une perception commune selon laquelle les parents à faible revenu ne se soucient guère de l’éducation de leurs progénitures, et pourtant,  ce n’est pas nécessairement vrai.

Parmi les leçons tirées de cette nouvelle approche, on note : que les parents sont largement préoccupés par le financement des études postsecondaires; que les parents étaient réticents à encourager leurs enfants à poursuivre des objectifs qui pourraient s’avérer inaccessibles; ils doivent d’abord s’assurer que l’université peut être financièrement viable; que les présentations au sein de grands groupes submergés généralement les parents d’ÉPG. Une attention particulière ainsi que des conseils personnalisées et individualisées qui satisfont mieux les besoins d’information complexes des familles à faible revenu, est à préconiser; que ces parents préfèrent, quant aux informations écrites, le médium papier au détriment de courriels ou des blogues, et se sentaient plus en pouvoir lorsque l’information avait été livrée directement à eux plutôt que d’avoir été envoyé à la maison par le biais des élèves; que les parents affichaient un plus haut niveau d’engagement lorsqu’ils ont aidé leur enfant/élève à écrire un plan d’action collégiale ou universitaire, par rapport à l’examen de plans développé par les étudiants eux-mêmes; lorsque l’on fournit des outils efficaces et probants afin d’aider les élèves sous-performants et mal accompagné à se préparer pour le collège (ou l’université), les parents les utilisent.

Cette nouvelle approche utilise un modèle de recherche écosystémique dans lequel les chercheurs en partenariat avec les membres de la communauté s’unissent pour développer et tester des solutions aux problèmes sociaux, et ce, dans le monde dit réel. L’objectif est de créer des « connaissances pour l’action » (actionable knowledge) qui peut informer à la fois l’élaboration des politiques et de la recherche future.

Intervention précoce | Les enfants provenant de familles bien nanties réussissent mieux à l’école. Pour rendre l’accès au collège et à l’université plus équitable, il faut s’attaquer aux inégalités à mesure qu’elles s’accumulent à partir de la petite enfance, en intervenant de façon précoce pour offrir aux enfants à plus faibles revenus des programmes en matière d’enseignement, de santé et de mesures sociales visant à favoriser un développement qui leur permettra en bout de ligne de poursuivre des études posts-econdaires.

Élargir la gamme des choix orientés vers la carrière | Il nous faut disposer au niveau de l’école secondaire d’une plus vaste gamme de solutions de remplacement à la formation postsecondaire, comme des formules d’alternance études-travail, des programmes de formation professionnelle et des programmes de préapprentissage.

Information et orientation | Les jeunes ont besoin de beaucoup de préparation, dont des discussions sur les conditions préalables d’accès aux carrières et des précisions sur les coûts et les rendements véritables associés à la formation postsecondaire, pour pouvoir faire les bons choix en matière de formation scolaire. Il faut que les écoles consacrent des ressources suffisantes à cette fonction importante et qu’elles se préoccupent tout spécialement d’aider ceux qui risquent de ne pas avoir accès à ces informations au foyer.

Politique de frais de scolarité | Les gouvernements devraient envisager sérieusement d’instituer une limite sur la part des recettes que les établissements d’enseignement postsecondaire peuvent se procurer à l’aide des frais de scolarité, tout en maintenant leur part du financement public à un niveau suffisant pour rendre cela possible. Les universités devraient considérer la possibilité d’offrir des garanties de stabilité par programme, en vertu desquelles elles fixeraient les droits de scolarité pour la durée d’un programme donné, de sorte que les étudiants connaîtraient le montant du déboursé total dès le début du programme.

Aide financière | Dans le contexte de la hausse des coûts de l’enseignement postsecondaire absorbée par les étudiants, le système d’aide financière aux étudiants fait moins pour soutenir les étudiants qui ont le plus besoin d’être aidés financièrement. Les gouvernements devraient revoir leur décision d’utiliser davantage les crédits d’impôt en tant que moyen majeur de soutenir l’éducation, et mettre l’accent sur une aide fondée sur les besoins des étudiants – mais ils devraient aussi réévaluer les critères utilisés pour déterminer les besoins, pour faire en sorte que les étudiants à revenus peu élevés reçoivent une plus large part des aides financières. Les gouvernements devraient aussi rechercher des moyens d’aider les étudiants à faibles revenus afin qu’ils évitent d’accumuler de lourds fardeaux d’endettement et prévenir ainsi la situation inéquitable pour eux que représente le désavantage d’un endettement élevé au moment d’accéder au marché du travail après l’obtention de leur diplôme.

— –
Sources

Bonin, S. (2008). “Les étudiants de première génération universitaire – État de la situation à l’Université du Québec”, Direction de la recherche institutionnelle
Université du Québec – CAPRE, http://bit.ly/1kzJdwz.

Hubert, B. (2013). “Déterminants de l’adaptation et la persévérance de l’étudiant de première génération”, Réseau d’Information pour la Réussite Éducative, 17 juin 2013, http://bit.ly/1hup0nV (+ http://bit.ly/1mSCK3S, http://bit.ly/1oDAFdS).

Bouffrard, Thérèse., Grégoire, Simon., Veseau, Catole. (2009). “Déterminants de l’adaptation et la persévérance de l’étudiant de première génération”, Université du Québec à Montréal, http://bit.ly/1mSCK3S.

Dion-Viens, D. (2013). “Université: Duchesne veut plus d’étudiants de première génération”, leSoleil, 22 février 2013, http://bit.ly/1lDE0VW.

MESRST (2013). “Programme d’arrimage universités-collèges — Le ministre Pierre Duchesne annonce 5 M$ pour la réalisation de 16 projets en 2013-2014 et un engagement de 15 M$ pour l’an prochain”, Ministère de l’Enseignement supérieur, de la Recherche, de la Science et de la Technologie, 5 septembre 2013, http://bit.ly/1e1Lpyk.

Kamanzi, P. C., Doray, P., Bonin, S., Groleau, A., & Murdoch, J. (2010). “Les étudiants de première génération dans les universités: l’accès et la persévérance aux études au Canada”, Canadian Journal of Higher Education, 40(3), http://bit.ly/1imHzgg (+ http://bit.ly/1h31UK0).

De Broucker, P. (2005). “Accéder aux études postsecondaires et les terminer: la situation des étudiants à faibles revenus”, Ottawa: Réseaux canadiens de recherche en politiques publiques. Rapport de recherche W, 27, http://bit.ly/1h32kju.

University of the Pacific (2014). “Researchers empower parents to inspire first-generation college-goers”, 5 april 2014,  http://bit.ly/1sogIXW.

University of the Pacific. (2014, April 4). Empowering parents to inspire first-generation college-goers. ScienceDaily. Retrieved April 6, 2014 , http://bit.ly/1q8w131.

Références

Finnie, R., Mueller, R. E., Sweetman, A., & Usher, A. (2007). “Who Goes? What Matters? Accessing and Persisting in Post-Secondary Education in Canada”.

Finnie, R., & Mueller, R. E. (2007). “High School Student Characteristics and Access to Post‐Secondary Education in Canada: Evidence from the YITS”, mimeo (August), http://bit.ly/PJHj2m.

Butlin, G. (1999). Determinants of postsecondary participation. Education Quarterly Review, 5(3), 9-35.

Foley, K. (2001). “Why stop after high school?: A descriptive analysis of the most important reasons that high school graduates do not continue to PSE”, Canadian Millenium Scholarship Foundation.

Foley, K. (2001). “Pourquoi arrêter après l’école secondaire?: Analyse descriptive des raisons les plus importantes ayant motivé les diplômés de l’école secondaire à ne pas poursuivre d’études postsecondaires”, Montréal: Fondation canadienne des bourses d’étude du millénaire.

Looker, E. D. (2002). “Why Don’t They Go On?: Factors Affecting the Decisions of Canadian Youth Not to Pursue Post-secondary Education”, Canada Millennium Scholarship Foundation.

 

De l’interdisciplinarité et de la multidisciplinarité, et de la systémique des services de soins de santé en itinétance

La pratique avancée des infirmières praticiennes en psychiatrie/santé mentale, PAIPSM, propose une large gamme de services de soins de santé pour les adultes, les enfants, les adolescents et leurs familles dans les centres de soins primaires (primary care facility), les cliniques externes en santé mentale des hôpitaux, les services d’urgence psychiatrique des hôpitaux, la pratique privée/cabinet privé ou les centres hospitaliers, les prisons, ou en milieu de travail et enfin, les centres communautaires de santé (community health center ou CLSC), et enfin dans les soins infirmiers, et les habitations (domicile des patients, CHSLD, vieillir à la maison, assisted living facilities???).

PAIPSM peut produire des diagnostics, pratiquer la psychothérapie, et prescrire des médicaments, et ce, pour les patients qui ont des troubles psychiatriques, des troubles organiques du cerveau médicaux ou des problèmes de toxicomanie. Ils sont autorisés à fournir des services psychiatriques d’urgence, à produire des évaluations biopsychosociale, psychiatriques et psychologiques, et physiques ainsi que des plans de traitement et à faire gestion globale des soins de santé aux patients. Les modalités de traitement comprennent donc à la fois des médicaments et la gestion psychothérapeutique.

Le rôle des PAIPSM met l’accent sur la recherche, le leadership clinique, l’éducation, la consultation et la pratique clinique d’experts, se concentrant principalement sur les interventions au niveau systémique. Un PAIPSM peut pratiquer de manière autonome dans une grande variété de cadres. Ils peuvent donc servir de consultants ou d’éducateurs pour les familles, les itinérants ainsi que pour le personnel oeuvrant dans le domaine des soins de santé ou des programmes communautaires de santé mentale. Le PAIPSM porte donc une emphase sur le diagnostic psychiatrique, y compris le diagnostic différentiel des troubles médicaux comportant des symptômes psychiatriques, et le traitement pharmacologique des troubles psychiatriques.

Les soins infirmiers psychiatriques (Psychiatric Nursing) ou les soins infirmiers de santé mentale (Mental health Nursing) relève d’une la spécialité des soins infirmiers qui s’occupe essentiellement des personnes de tous âges atteintes de maladie mentale ou de détresse psychologique, comme la schizophrénie, le trouble bipolaire, la psychose, la dépression ou la démence. Les infirmières dans ce domaine reçoivent plus de formation que l’infirmière non spécialisée, notamment, en ce qui concerne les thérapies psychologiques, la construction d’une alliance thérapeutique, la gestion des comportements difficiles, et l’administration de médicaments psychiatriques. L’infirmière enregistrée en psychiatrique (IEP; Registered psychiatric nurse) est une profession distincte dans les quatre provinces le plus à l’Ouest au Canada.

Les soins infirmiers psychiatriques sont reconnus comme une profession distincte de la santé réglementée au Canada et dans d’autres pays. La profession de soins infirmiers psychiatriques dispose d’un Code national de déontologie et des normes de pratique de soins infirmiers psychiatriques. Ces dernières et d’autres Lignes directrices de pratique ou politiques afin de fournir un guide pour les IEP qu’elles soient du domaine clinique, administratif, de l’enseignement ou de la recherche.

Les IEP travaillent dans des environnements cliniques et de traitement difficultueux et dans les environnements de travail en équipe interdisciplinaire. Ils doivent faire preuve en permanence de jugement dans la prise de décisions et la résolution de problèmes afin de relever les défis cliniques et les besoins de soins de santé des patients. Ils doivent posséder d’excellentes compétences interpersonnelles et de communication afin d’être efficace en tant que thérapeutes capables de compassion et d’empathie, et dans l’exercice de tact et de diplomatie, tout en conseillant et en fournissant traitements aux patients. Leur formation universitaire et professionnelle fournit les connaissances et les compétences requises pour ces types de responsabilités.

Les IEP oeuvrent sont sur les lignes de front en travaillant en partenariat en tant que membres clés d’une équipe interdisciplinaire de professionnels de soins de santé ; psychiatres, psychologues, infirmières, ergothérapeutes, travailleurs sociaux, pharmaciens, gestionnaires, organismes communautaires, professionnels de l’application des lois et prestataires de services sociaux. Ils travaillent comme personnel infirmier, gestionnaire, conseillers, spécialistes cliniques, chefs d’équipe, superviseurs, directeurs, directeurs adjoints, professeurs, chercheurs, gestionnaires de cas et consultants dans des centaines de collectivités partout au Canada.

Les IEP en itinérance peuvent ainsi travailler indépendamment ou dans le cadre d’équipe(s) de soins de santé multidisciplinaire [et interdisciplinaire] notamment des psychiatres, médecins, psychologues, travailleurs sociaux, infirmiers. Les IEP sont responsables de l’évaluation, la planification, la mise en œuvre et l’évaluation des soins aux personnes en situation d’itinérance chronique vivant une ou plusieurs conditions psychiatrique et comorbide. Ils fournissent des données probantes, centrées sur une approche globale du fonctionnement humain, ainsi que sur les besoins spécifiques de la personne, les soins infirmiers sont axés sur le rétablissement des patients et leurs fournisseurs de services de soins de santé mentale.

De l’erreur diagnostique, du stigmate et de la santée mentale !

L’Organisation mondiale de la Santé (OMS) désigne les conditions abusives endurées par les personnes atteintes de troubles mentaux comme une urgence cachée des droits de l’homme. L’OMS signale que partout dans le monde, les gens souffrant de troubles mentaux et psychosociaux sont soumis à un large éventail de violations des droits de l’homme, à la stigmatisation et à la discrimination. En 2011, l’OMS appelait les gouvernements à augmenter les services aux personnes souffrant de troubles mentaux, neurologiques et de l’abus de substance.Le projet « QualityRights » vise essentiellement à améliorer la qualité et les conditions des droits de l’homme dans les établissements de santé mentale et de services sociaux ainsi que l’autonomisation des organisations qui défendent les droits des personnes en situation de handicap mental et psychosocial.

En examinant1 plus de 25 ans de réclamation de paiements pour faute professionnelle aux États-Unis, les chercheurs du  Johns Hopkins ont découvert que se sont les erreurs de diagnostic – et non les erreurs chirurgicales ou les surdoses de médicaments — qui représenteraient la plus grande portion des réclamations d’assurances, la nuisance la plus sévère pour les patients, et le plus gros montant des pénalités réclamés. Les patients qui ont été erronément diagnostiqués (misdiagnosing patients) ou les erreurs de diagnostique (misdiagnosis) est l’une des erreurs les plus coûteuses et dangereuses effectués par des médecins aux États-Unis. Les erreurs entraînent l’échec à traiter adéquatement la condition pathologique ou psychopathologique du patient.

Les paiements liés au diagnostic se sont élevés à 38,8 milliards de dollars entre 1986 et 2010. C’est bien la preuve que les erreurs de diagnostic pourraient facilement être le plus gros problème de sécurité et de faute médicale pour les patients aux États-Unis. Il y a beaucoup plus de « mal » provenant des erreurs de diagnostic que nous pouvions imaginer.

Bien que la nouvelle étude a porté uniquement sur un sous-ensemble des revendications — ceux qui s’élevaient au niveau d’un paiement pour faute professionnelle —, les chercheurs estiment que le nombre de patients souffrant d’erreur de diagnostic, potentiellement évitable, causant des blessures significatives et permanentes, ou la mort, chaque année, aux États-Unis, varie entre 80 000 à 160 000. Ils ont constaté que sur les 350 706 paiements, les erreurs de diagnostic sont le principal type d’erreur (28,6 %) et ont représenté la plus grande proportion du total des paiements (35,2 %). Les erreurs de diagnostic ont entraîné la mort ou l’invalidité presque deux fois plus souvent que les autres catégories d’erreurs.

Dans l’ensemble, les erreurs de diagnostic ont été sous-estimées et sont souvent peu reconnues, car ils sont difficiles à mesurer et à en faire le suivi en raison de l’écart fréquent entre le moment où l’erreur se produit et quand il est détecté. Ce sont des problèmes fréquents qui ont joué comme les seconds violons à des erreurs médicales et chirurgicales, qui sont immédiatement plus évidentes.

Certains experts croient que l’on a souvent minimisé la portée des erreurs diagnostic2 non pas parce qu’ils n’étaient pas au conscient de cette problématique, mais parce qu’ils avaient peur d’ouvrir une boîte de Pandore qu’ils ne pouvaient pas fermer. Des progrès ont été réalisés au regard d’autres types de préjudice pour le patient, mais cela ne va probablement pas être une solution magique en ce qui concerne les erreurs de diagnostic, car ils sont plus complexes et diversifiés que d’autres problèmes de sécurité des patients. Nous allons avoir besoin de beaucoup plus de gens en concentrant leurs efforts sur cette question si nous allons réussir à y faire face.

Ils ont également constaté que la plupart des réclamations pour erreur de diagnostic étaient reliées aux patients externes de soins hospitaliers (68,8 pour cent contre 31,2 pour cent), et les erreurs de diagnostic des patients hospitalisés étaient plus susceptibles d’être mortelles (48,4 pour cent contre 36,9 pour cent). La majorité des erreurs de diagnostic ont été des diagnostics ratés (misdiagnosis), plutôt que des retards ou de mauvais diagnostics. Ceci suggère que l’impact sur la santé publique de ces types d’erreurs est probablement beaucoup plus grave qu’on ne le croyait auparavant parce que les estimations antérieures sont basées sur les données d’autopsie, de sorte qu’ils ne comptent que le décès et non pas le handicap. Le bilan humain de diagnostics erronés est probablement beaucoup plus grand que l’étude ne le montre. Une estimation suggère que lorsque les patients consultent un médecin pour un nouveau problème, le taux d’erreur de diagnostic moyen peut être aussi élevé que 15 pour cent.

Ainsi, aux États-Unis, c’est donc une preuve de plus que les erreurs diagnostic pourrait facilement être le plus gros problème de sécurité et de fautes médicales pour les patients. Il y a beaucoup plus de préjudices causés les erreurs diagnostic que nous pouvons l’imaginer. Les erreurs de diagnostic (misdiagnosis) s’avèrent plus fréquentes, coûteuses et nocives, que les erreurs de traitements. L’erreur de diagnostic peut être définie comme un diagnostic qui est raté, erroné ou retardé, tel que détecté par certains tests ou constatations définitives ultérieurs. S’ensuit un préjudice découlant des méfaits du retard ou de l’échec du traitement de(s) condition(s) présentent alors que le diagnostic de travail (working diagnosis) s’avère erroné ou inconnu, ou découlant du traitement prévu pour une condition qui n’est réellement pas présente.

— –

Ainsi, les personnes atteintes de maladie mentale sont parmi les groupes de patients les plus stigmatisés dans le cadre des soins de santé (Putnam, 2008), et seraient plus susceptibles d’entretenir une mauvaise santé physique. De plus, au moins 14 études ont montré que les patients ayant une maladie mentale grave reçoivent de moins bons soins médicaux que les gens dit « normaux ». Selon une étude, l’espérance de vie d’une personne souffrant d’une maladie mentale grave est réduite de 25 ans.

Tout d’abord, nous devons déterminer ce que l’on entend par le terme « stigmatisation ». Le stigma est un stéréotype négatif. Corrigan (2005 ; Corrigan et al., 2004; Corrigan & Watson, 2002) classifie en trois types : « la stigmatisation publique», « l’auto-stigmatisation » et “l’évitement de l’étiquette”.

La stigmatisation publique (public stigma) est conceptualisée comme un processus par étapes : la pensée stéréotypée résultant de l’ignorance. Le public en générale infère la maladie mentale à partir d’indices explicites : les symptômes psychiatriques, les déficits en habiletés sociales, l’apparence physique et les étiquettes diagnostiques communs (Corrigan, 2000; Penn & Martin, 1998). Ces indices stigmatisante entraine souvent des stéréotypes (Corrigan, 2007; Krueger, 1996; Lauber & Rossler, 2007). Les stéréotypes les plus Répandues sur les personnes atteintes de maladie mentale sont la violence (personnes atteintes de maladie mentale sont dangereux), l’incompétence (ils sont incapables de vivre de façon autonome ou de produite un réel travail), et le blâme (en raison de la faiblesse de caractère ou de leur prorpre turpitude, ils sont responsables de l’apparition et la continuation de leur troubles) (Corrigan et al., 2000; Link et al., 1999). ; l’attitude négative, qui conduit à porter un préjudice ; et le comportement négatif, qui conduit à la discrimination. La stigmatisation publique relève du phénomène de grands groupes sociaux adhèrent aux stéréotypes négatifs, à propos, et subséquement agir contre, un groupe stigmatisé: dans ce cas-ci, les personnes atteintes de maladie mentale.

Or, la connaissance d’une série de stéréotypes n’implique pas un accord avec celle-ci (Devine, 1989; Jussim et al., 1995). Par conséquent, les résultats de la stigmatisation publique sont plus dommageables que lorsque les personnes qui ont des préjugés approuvent les stéréotypes négatifs et élicite des réactions émotionnelles négatives en résultante (” J’ai peur d’eux ») (Corrigan et al., 2009; Devine, 1995). Contrairement aux stéréotypes, qui sont des croyances, les préjugés impliquent un élément d’évaluation (généralement négative) (Allport, 1954; Eagly & Chaiken, 1993). Le préjugé est une réponse cognitive et affective qui mène à la discrimination, une réaction comportementale (Crocker et al., 1998). Le comportement discriminatoire constitue une action négative contre l’exo-groupe, qui peut se manifester par de l’évitement, le refus de s’associer aux membres de l’exo-groupe, ou par la perte d’opportunités ou des traitements susceptibles de promouvoir les objectifs d’une personne. La stigmatisation publique cause du tort aux gens qui souffrent de maladie mentale, et ce, à plusieurs égards. Les stéréotype, les préjugés et la discrimination peuvent voler aux gens étiquetés malades mentaux des importantes opportunités de la vie qui sont essentiels à la réalisation de leurs objectifs de vie. Il appert que certains employeurs évitent les travailleurs souffrant de maladie mentale en ne les embauchant tout simplement pas. Les locateurs “protége” leurs locataires de personnes atteintes de maladie mentale en refusant de leur en louer.

L’auto-stigmatisation (self-stigma) se produit lorsque certains ou tous les membres d’un groupes stigmatisés (ex: patients souffrants de troubles de santé mentale) intériorisent les attitudes [négatives] à leur égard, ce qui conduit à la perte de l’estime de soi et l’auto-efficacité, aisi qu’à des croyances et des comportements auto-destructeurs, notamment l’isolement, l’évitement des traitements et la divulgation d’informations qui peuvent avoir non seulement de graves répercussions sur leur vie personnelle, mais aussi sur leur statut d’emploi et les opportunités future. Avant l’apparition de la maladie mentale, la plupart des gens sont déjà conscients du stigmate endosser culturellement associé à la maladie mentale. Après avoir reçu un diagnostic, les croyances associées au stigmate sont activés, ce qui affecte l’estime de soi et la construction identitaire. Vivre au sein d’une culture imprégnée d’images stigmatisantes, les personnes atteintes de maladie mentale peuvent accepter ces notions et ainsi subir une diminution de l’estime de soi (Corrigan et al., 1999; Rosenberg, 1965), de l’auto-efficacité (Bandura, 1989), et la confiance en leur avenir (Corrigan, 1998; Holmes & River, 1998). La recherche montre que les personnes atteintes de maladie mentale intériorisent souvent les idées stigmatisantes largement adhérés au sein de la société et croient qu’ils sont moins appréciés en raison de leur trouble psychiatrique (Link, 1987; Link & Phelan, 2001). L’auto-préjudice conduit à des réactions émotionnelles négatives, proéminament, une faible estime de soi et une faible auto-efficacité (Link et al., 2001; Markowitz, 1998). Une faible auto-efficacité et faible estime de soi se sont révélés être associés à un défaut de poursuite d’un emploi ou des opportunités de vie autonome auquel les personnes atteintes de maladie mentale pourraient autrement réussir (Link, 1982, 1987). L’impact négatif de L’auto-stigmatisation sur l’estime de soi et l’auto-efficacité peuvent entraîner un effet d’impuissance apprise chez les personnes atteintes de maladie mentale (Corrigan et al., 2009).

L’évitement des étiquettes (label avoidance) est un troisième exemple de stigmatisation : les gens ne recherchent pas, ou participent à, des services de santé mentale, afin d’éviter l’impact flagrant d’une étiquette stigmatisante.

Rappelons que la stigmatisation diffère de la discrimination. La discrimination est un traitement injuste en raison de l’identité d’une personne, ce qui inclut la race, l’ascendance, le lieu d’origine, la couleur, l’origine ethnique, la citoyenneté, la croyance, le sexe, l’orientation sexuelle, l’identité sexuelle, l’expression sexuelle, l’âge, l’état matrimonial, l’état familial ou un handicap, y compris les troubles mentaux. Les actes de discrimination peuvent être ouvertes ou prendre la forme d’une discrimination systémique (secrète, caché).

La stigmatisation envers les personnes atteintes de maladie mentale par les fournisseurs en soins de santé se traduit par des disparités en terme d’accès, de traitement et de résultat (Birch, Lavender, & Cupitt, 2005; De Hert et al., 2011; Phelan & Basow, 2007). Les personnes atteintes de maladie mentale ont une incidence plus élevée de maladies chroniques et une espérance de vie plus courte que la population générale, mais leurs problèmes de santé sont souvent ignorés, car il sont déconsidéré et décridibilisé.

En 2007, une étude4 menée par le Royal College of Psychiatrists au Royaume-Uni a conclu que “une fois que l’équipe médicale est au courant qu’un patient a un problème psychiatrique, ils leur donnent des soins de moins bonne qualité”. Le rapport poursuit en expliquant que « les médecins n’aiment pas traiter avec des patients souffrant de troubles psychiatriques. Ils les considèrent comme différents et ils passent moins de temps avec eux. Ils ne proposent pas à ces patients la même intensité d’enquête, a contrario de ceux qui n’ont pas de trouble psychiatrique. C’est un traitement préjudiciable et inequitable.

De nombreuses personnes atteintes de maladie mentale rapporte donc souvent devoir subir les attitudes négatives du personnel de la santé mentale face à leurs pronostics diagnostic, liés en partie au « biais du médecin » (‘physician bias’). Le ‘diagnostic overshadowing’ semble être un phénomène courante dans les services de soins de santés, ce qui implique une mauvaise attribution des signes et symptômes de maladie physique à des troubles mentaux concomitants, conduisant ainsi à sous-diagnostic et a de mauvais traitements des conditions physiques5.

Vous pensiez qu’à mesure que les personnes deviennent de plus en plus éduquer aux complexes facteurs biologiques, sociaux et psychologiques qui vont composer la maladie mentale, ces personnes développerait en conséquence plus de compréhension et moins stigmatisant. Tant les professionnels de soins de santé et de la santé mentale contribuent régulièrement à renforcer les préjugés et la discrimination qui existe pour chez les personnes atteintes de maladie mentale.

À l’ère des soins centrés sur le patient, certains soutiennent que les médecins devraient s’abstenir de conseiller les patients ou de recommander un plan de traitement et devraient plutôt simplement rester neutre et présenter toutes les options et laisser exclusivement aux patients la décision finale. Nous et les autres pensent que dans une forte relation médecin-patient, les médecins doivent utiliser leurs connaissances médicales et l’expérience pour faire des recommandations afin d’aider les patients à faire des choix plus éclairés concernant leur traitement. Les patients peuvent être les ultimes décideurs quant au choix du traitement à initier, mais ils ont également besoin d’une expertise et des conseils du médecin pour faire les meilleurs choix.

En examinant plus de 25 ans de réclamation de paiements pour faute professionnelle aux États-Unis, les chercheurs du Johns Hopkins ont découvert que se sont les erreurs de diagnostic – et non les erreurs chirurgicales ou les surdoses de médicaments — qui représentaient la plus grande portion des réclamations d’assurances, la nuisance la plus sévère pour les patients, et le plus gros montant des pénalités réclamés. Les paiements liés au diagnostic se sont élevées à 38,8 milliards de dollars entre 1986 et 2010. C’est bien la preuves que les erreurs de diagnostic pourrait facilement être le plus gros problème de sécurité et de faute médicale pour les patients aux États-Unis. Il y a beaucoup plus de « mal » provenant des erreurs de diagnostic que nous pouvions imaginer.

Bien que la nouvelle étude a porté uniquement sur un sous-ensemble des revendications — ceux qui s’élevaient au niveau d’un paiement pour faute professionnelle —, les chercheurs estiment que le nombre de patients souffrant d’erreur de diagnostic, potentiellement évitable, causant des blessures significatives et permanentes, ou la mort, chaque année, aux États-Unis, varie entre 80 000 à 160 000. Ils ont constaté que sur les 350 706 paiements, les erreurs de diagnostic sont le principal type d’erreur (28,6 %) et ont représenté la plus grande proportion du total des paiements (35,2 %). Les erreurs de diagnostic ont entraîné la mort ou l’invalidité presque deux fois plus souvent que les autres catégories d’erreurs.

Dans l’ensemble, les erreurs de diagnostic ont été sous-estimées et sont souvent peu reconnues, car ils sont difficiles à mesurer et à en faire le suivi en raison de l’écart fréquent entre le moment où l’erreur se produit et quand il est détecté. Ce sont des problèmes fréquents qui ont joué comme les seconds violons à des erreurs médicales et chirurgicales, qui sont immédiatement plus évidentes.

Certains experts croient que l’on a souvent minimisé la portée des erreurs diagnostic non pas parce qu’ils n’étaient pas au conscient de cette problématique, mais parce qu’ils avaient peur d’ouvrir une boîte de Pandore qu’ils ne pouvaient pas fermer. Des progrès ont été réalisés au regard d’autres types de préjudice pour le patient, mais cela ne va probablement pas être une solution magique en ce qui concerne les erreurs de diagnostic, car ils sont plus complexes et diversifiés que d’autres problèmes de sécurité des patients. Nous allons avoir besoin de beaucoup plus de gens en concentrant leurs efforts sur cette question si nous allons réussir à y faire face.

Ils ont également constaté que la plupart des réclamations pour erreur de diagnostic étaient reliées aux patients externes de soins hospitaliers (68,8 pour cent contre 31,2 pour cent), et les erreurs de diagnostic des patients hospitalisés étaient plus susceptibles d’être mortelles (48,4 pour cent contre 36,9 pour cent). La majorité des erreurs de diagnostic ont été des diagnostics ratés (misdiagnosis), plutôt que des retards ou de mauvais diagnostics. Ceci suggère que l’impact sur la santé publique de ces types d’erreurs est probablement beaucoup plus grave qu’on ne le croyait auparavant parce que les estimations antérieures sont basées sur les données d’autopsie, de sorte qu’ils ne comptent que le décès et non pas le handicap. Le bilan humain de diagnostics erronés est probablement beaucoup plus grand que l’étude ne le montre. Une estimation suggère que lorsque les patients consultent un médecin pour un nouveau problème, le taux d’erreur de diagnostic moyen peut être aussi élevé que 15 pour cent.

— –

Médecins de famille : élicitation altruiste de l’humilation et de la honte!

Avez-vous déjà quitté le bureau d’un médecin avec un sentiment de honte ou de culpabilité? Aux États-Unis, il y une chance sur deux qu’une personne ait répondu « oui », selon une cette nouvelle étude de l’Université de Californie, San Diego. Et qu’est-ce qui s’est passé ensuite? Peut-être cela vous à-t-il motivés à apporter des modifications à un comportement malsain. Ou, peut-être avez-vous tout simplement menti au médecin lors des visites ultérieures? Peut-être l’éviterais vous à l’avenir? Peut-être même mettrez-vous entièrement fin au traitement?

Le sentiment de honte et de culpabilité comme résidu direct de l’interaction avec un médecin s’avèrerait assez fréquente, selon Christine Harris, professeure de psychologie à l’UC de San Diego de la division des sciences sociales, comme le sont également les réactions positives et négatives. Mais, étonnamment peu de recherches ont été faites sur le sujet. Or, aujourd’hui, dans une paire de nouvelles études, Harris et ses collègues examinent les conséquences de ces sentiments que les médecins inspirent. Harris et son équipe explore également la raison pour laquelle certains patients sont stimulés par l’expérience du sentiment de honte ou de culpabilité d’une manière qui favorise la santé tandis que d’autres se tournent vers le mensonge ou l’évitement.

Mieux comprendre les réactions des patients est donc important parce que « plus d’un tiers de tous les décès aux États-Unis sont encore essentiellement évitables et en grande partie dus à un comportement malsain patient ».

Dans les deux études, le poids et le sexe sont les plus fréquemment cités comme élicitant la honte aux sujets. La dentition est une considération le plus citée chez les jeunes (les autres considérations possibles comprennent également, entre autres, le tabagisme, la consommation d’alcool ou de drogue, la non-conformité aux prescriptions de médicaments ou le non-respect aux ordres du médecin, la santé mentale, etc.).

Les interactions avec les médecins de famille, les gynécologues et les dentistes ont été les spécialités les plus souvent citées comme source de honte. C’est probablement parce que, selon Harris, les gens voient généralement ces types de médecins plus que d’autres.

Dans les deux études, les réactions émotionnelles et comportementales à l’expérience de l’humiliation variaient considérablement : entre effectuer un profond changement de mode de vie pour améliorer sa santé, ou inversement, à complètement éviter tous les médecins.

Ce qui importe le plus et ce qui semble faire la plus grande différence, selon Harris, c’est de savoir si le patient « fait une attribution globale, condamnant l’ensemble de soi » ou condamne simplement le comportement. Se concentrer sur le comportement amène et mène le plus souvent à de bons résultats. Les personnes qui signalent une réaction plus positive se concentrent généralement sur l’acte (l’action) et non pas sur le soi (l’être). La capacité à changer médie la réponse. Ceux qui se disent : « Je suis un fumeur » ou « Je suis une personne obèse » peuvent se résigner, alors que pour ceux qui se disent « je fume » ou « je mange trop » semble également penser « je puis arrêter de faire ça ».

Un aspect important de l’expérience négative est celui de la perception du patient de l’intention du médecin. Si vous percevez votre médecin comme voulant intentionnellement vous faire ressentir de la honte ou de la culpabilité, la réaction est exclusivement négative; les chercheurs n’ont d’ailleurs trouvé aucune réaction positive.

Les chercheurs ont aussi constaté certaines différences sexuelles : les femmes ont déclaré avoir subi plus de honte et de culpabilité pendant leurs visites chez les médecins que les hommes. Elles ont également signalé plus des réactions négatives. Mais, curieusement, cela ne semble reposer sur le fait que les femmes font des attributions globales. Elles ne se remettent donc pas nécessairement plus en cause que les hommes. Il se pourrait que les médecins traitent les hommes et les femmes différemment. Ou peut-être que les femmes perçoivent le « signal » plus fortement ou ont des perceptions différentes de l’interaction avec leurs médecins.

En attendant, les médecins devront continuer à se soumettre à la tâche peu enviable de discuter de sujets délicats avec leurs patients et de faire des recommandations sur leurs comportements malsains, et ce qui est clair c’est que : « l’amour féroce (tough love) » et l’humiliation ne fonctionnent pas toujours. En fait, ils s’avèrent souvent contre-productifs.

Pour améliorer les résultats et aboutissements, les médecins doivent essayer de garder la conversation centrée sur le comportement (et non pas la personne) et également éviter, autant que possible, d’être perçus comme une personne tentant intentionnellement d’infliger de la honte ou de la culpabilité pour arriver à ses fins. Cela relève de la manipulation. La maltraitance et de la violence psychologique pour le bien d’autrui sont bien expliquées dans l’ouvrage d’Alice Miller, « C’est pour ton bien »1, et dénotent ses effets néfastes, délétères, et destructeurs.

— —

Parmi les 750 sujets d’une étude [2] sur les patients difficiles, 133 (17,8 %) ont été perçues comme difficiles par le docteur. Les patients « difficiles » étaient moins susceptibles de totalement faire confiance, ou d’être entièrement satisfaits, de leur médecin, et ils étaient plus susceptibles d’avoir une aggravation des symptômes dans un délai de 2 semaines suivant la rencontre. Les patients participant à des « rencontres difficiles » avaient plus de cinq symptômes, ont approuvé un stress récent et qu’ils entretenaient un trouble dépressif ou anxieux. Les médecins impliqués dans les rencontres difficiles étaient moins expérimentés et avaient des scores d’orientation psychosociale faible. Ainsi, des caractéristiques à la fois des patients et des médecins sont associées à des rencontres « difficiles », et les patients qui participent à ces rencontres ont de moins bons résultats à court terme.

À ce jour, la majorité des études portant sur les patients dits « difficiles » a uniquement mis l’accent sur les caractéristiques des patients. Le travail de Hinchey et Jackson s’appuie sur la recherche existante afin d’obtenir un portrait plus complet et plus global, en tenant compte des facteurs associés au fait de considéré le patient comme « difficile », autant lié aux patients et qu’aux cliniciens , ainsi que de l’impact de cette évaluation sur les résultats et aboutissement de santé des patients.

Un total donc de 750 adultes qui ont fréquenté une clinique de soins primaires sans rendez-vous (primary care walk-in clinic). Avant la consultation, les chercheurs ont évalué les symptômes, les attentes, leurs santés générales, les manières dont ils fonctionnaient physiquement, socialement et émotionnellement ainsi que si ces adultes avaient des troubles mentaux. Immédiatement après leur visite, les participants ont été interrogés sur leur satisfaction par rapport à la rencontre, et des attentes non satisfaites ainsi que leur niveau de confiance dans leur médecin. Deux semaines plus tard, les symptômes ont été contrôlés à nouveau. En outre, les cliniciens ont été invités à évaluer la difficulté de la rencontre après chaque visite.

Les auteurs ont constaté que près de 18 pour cent des patients ont été perçus comme « difficiles ». Les caractéristiques, à la fois des patients et des médecins, ont contribué à des rencontres « difficiles ». En particulier, les patients dits « difficiles » souffraient de plus symptômes, souffrait d’un état fonctionnel déficitaire, utilisent plus fréquemment les cliniques et étaient plus susceptibles d’avoir un trouble psychiatrique sous-jacent que les patients dit « non difficiles ». Les cliniciens ayant un style de communication plus ouvert et ceux qui ont plus d’expérience ont déclaré avoir moins de rencontres difficiles.

En conséquence, les patients issus de rencontres difficiles étaient moins satisfaits, ont eu moins confiance en leur médecin et un plus grand nombre d’attentes non satisfaites. Deux semaines plus tard, ils étaient aussi plus susceptibles de connaître une aggravation de leurs symptômes.

____________________

1 Miller, A. (1984). « C’est pour ton bien: Racines de la violence dans l’éducation de l’enfant, Paris: Aubier.

Du réductionnisme et du végétarisme

Voilà, selon moi, un exemple d’une pensée réductionniste, qui rattache un phénomène complexe à un petit nombre d’explications, et qui essentiellement se fonde sur la pensée scientifique, ainsi que celles de l’altruiste et de la compassion, et sur des biais comme l’anthropomorphisme, pour la justification du végétarisme. Essentiellement et actuellement, le végétarisme serait défini comme un acte d’altruisme et de compassion envers certains êtres vivants qui seraient sensibles et aurait des sentiments et émotions.

Je commencerais par souligner que pour la même fonction de l’orientation spatiale, les hommes par rapport aux femmes utilisent différents processus et substrats neurologiques. Même fonction, différents moyens d’accomplir la même fonction. Ainsi, même si tous les mammifères seraient tous capables de vivre les sentiments et émotions, comme les humains, avec la même sensibilité, ne restent qu’il se mange en eux quand même. L’acte du végétarisme, ne peut se fonder, sur l’empathie, car nul ne peut se mettre à la place d’un membre d’une autre espèce animale, alors même que les humains n’arrivent pas à systématiquement à être empathique entre eux.

Comme je l’ai démontré précédemment, et de manière détaillée (http://on.fb.me/19QcNWW), c’est un manque de respect à la Vie et la Nature, un manque de respect de l’ordre des choses. Encore, le problème n’est pas de manger de la viande, c’est de manger trop de viande, c’est également la marchandisation et l’industrialisation, la (sur)consommation, la (sur)population, la (sur)production industrielle, du gaspillage et des déchets, etc. Aussi, même l’industrie de l’agriculture commerciale et industrielle constitue actuellement une menace pour la Vie, la Nature et la biodiversité. Cesser de manger de la viande n’est pas suffisant pour s’affranchir de la tâche qui nous incombe, celle de vivre en harmonie avec notre environnement.

Ainsi, pour moi, je place une haute valeur morale et éthique à la Vie et la Nature, et donc à TOUTE la biodiversité, et toute Vie mérite d’exister et a droit au respect. La sensibilité commande donc que toute chose qui désire exister, telle qu’elle est, doit être respecté dans son intégrité. Ainsi, pour moi, manger une plante a le même poids moral, éthique, émotionnel, que de manger un mammifère, ou des insectes. Et si une bestiole désire de faire de moi son repas, je ne me demanderai pas s’il le prédateur est sensible, s’il a des émotions, ou si je peux raisonner avec lui, comme lui faire la morale. Lorsqu’un prédateur prend une heure ou deux pour tuer sa proie qui se défend, je ne suis pas sûr d’y constater du dialogue moral ou éthique entre êtres sensibles. Justifier le végétarisme par le fait que l’on se mette à la place d’un autre être vivant d’une autre espèce relève de la science-fiction. Nous verrons plus tard que c’est plus la manière de manger, que qu’est-ce qu’on mange qui est le problème.

Conséquemment, le végétarisme est un choix philosophique, et on mange de la végétation, non pas par compassion, altruisme, ou sensibilité, mais par choix éthique. Il relève donc de la culture humaine, et de décisions plus ou moins arbitraires ou concerté, et se considère qu’en fonction de la condition humaine. Faire usage de notions épistémologiques, ou usage de caractéristiques, de la condition humaine, et de les projeter à d’autres formes d’existences, me semble une pratique largement hasardeuse et spécieuse; c’est rendre objet, c’est dénaturer, c’est pervertir. « Humaniser » la Vie et la Nature est une autre forme de domination, ce n’est pas la respecter, ce n’est pas lui rendre service; c’est de l’anthropomorphisme ou de l’anthropocentrisme, c’est une forme de réductionnisme qui relève du biais.

Lorsque le lion décide de manger un humain, se pose-t-il la question, ma proie est-elle sensible, altruiste, souffre-t-elle? Avoir de la compassion ou de l’altruisme pour son futur repas n’a pas de sens dans la Nature. On fait un choix alimentaire, point. D’autre part, si l’on accepte le fait que par exemple, tous les mammifères sont sensibles, alors pourquoi ne deviennent-ils tous pas végétariens.

Faire usage de notions typiquement humaines de compassion ou de l’altruisme pour justifier le végétarisme, c’est comme se placer derrière un télescope alors qu’un microscope est nécessaire. C’est comme faire usage d’oeillères pour regarder sur 180 degrés. C’est une distorsion de la pensée humaine qui se représente des états mentaux, qui certes peut être semblable, mais ne signifie pas nécessairement la même chose. Voir un Tibre dépressif parce qu’il a perdu sa mère ne signifie pas qu’il ressent les choses comme les humains, et si c’était le cas, alors ne se poserait-il pas des questions sur la moralité et l’éthique. Si la nature a permis aux humains de se nourrir de viande, alors il en est ainsi. C’est l’incurie humaine et le fait de manger trop de viande qui sont le vrai problème et le mode de vie qui dégrade la biodiversité.

D’ailleurs, je dirais que la compassion totale, comme celle devant un lion qui a décidé de faire de vous son repas, n’est pas vraiment pratique. C’est bien là une preuve que la compassion (et l’altruisme) ne s’exerce pas dans un état de nature, et que c’est surtout un attribut, une caractéristique, humaine. Au même titre, que dire de la compassion totale devant le tueur en série, le pédophile! Êtes-vous capable de vous mettre à la place d’un violeur récidiviste? Or, vivre toute la compassion de l’univers ne m’empêcherait pas de limiter sévèrement, à tout le moins, ses déplacements. Il est certain que lorsque l’on descend de temps en temps de son « Village des Pruniers », du haut de la montagne, pour venir enseigner aux mondains qui cherche le bonheur, c’est bien facile. La compassion, pis l’altruisme, c’est merveilleux, surtout lorsque l’on vit sous une pluie de bombe chimique et que l’on explose sur des mines. Je vais même allez aider le gars qui s’est cassé une jambe alors qu’il me mitraillait; vous voyez, j’ai de la compassion, de l’altruisme, je suis ZEN en plus! (permettes-moi cette digression sarcastique)

En tout et pour tout, on ne voit pas M. Ricard se filmer au Moyen-Orient, en Syrie, au Liban, ou dans la zone occupée, prêcher l’altruisme et les bienfaits de la compassion. Je suis sûr que c’est comme recevoir un témoin de Jéhovah qui se présente le dimanche matin pour s’amender devant son dieu et prêcher ses convictions et croyances.

L’altruisme, et la compassion n’ont de sens que dans le contexte humain et peuvent s’exercer difficilement dans un état de nature.

Ainsi, pour moi, toute vie mérite respect, et manger une plante, un mammifère, un fongus, une algue, un fish ou oiseau, c’est le même acte, qui a la même valeur éthique et morale, il doit s’inscrire dans le respect de la Vie et la Nature, et le respect de l’ordre des choses.

— —

L’imagination n’est pas une source de duperie et d’illusion, mais une capacité à « sentir » ce que vous ne savez pas, à intuitionner ce que vous ne pouvez pas comprendre, à être davantage de ce que vous pouvez connaître — William Irwin Thompson

voilà quelques décennies, les animaux étaient largement considérés comme des machines stimulus-réponse, dépourvues de vie intérieure. Heureusement, les temps ont changé. La cognition animale est maintenant à la mode, et suivie de près de l’étude de la neurobiologie comparative.

Au mois de juillet, un consortium de neuroscientifiques bien connus a publié « La Déclaration de Cambridge sur la conscience non humains chez les animaux » (The Cambridge Declaration on Consciousness in Non-Human Animals), à titre de reconnaissance publique formelle que vous êtes susceptible de trouver au nom de la science, oui, qu’il semble que les animaux possèdent en effet une conscience, ou du moins ils possèdent les substrats neurobiologiques nécessaires pour « générer » la conscience. Même si cela semble relever du bon sens commun, la déclaration est importante, car elle ouvre la voie à des études plus approfondies, et, on l’espère, un plus grand respect pour les impressionnantes capacités mentales et cognitives du monde non-humain.

Mais à d’autres égards, quand il s’agit de notre relation aux animaux, nous continuons à être freinées par un tabou intellectuel encore plus profond, et c’est le tabou d’imaginer que nous pouvons nous rapporter aux animaux en premier lieu. Nous ne pouvons tout simplement ne jamais « savoir » (qui relève de la connaissance) ce que c’est que d’être un autre animal (expérience). Faire l’expérience de l’existence d’un autre être vivant est tout simple inaccessible à l’être humain, et à ce titre, l’expérience intérieure est largement subjective et irréductible.

Cependant, on peut admettre que les humains partages des « éléments » avec tous les êtres vivants, puisque d’une part, nous sommes tous descendus d’un ancêtre commun, il y a donc toujours une mesure de l’expérience partagée conservée dans le corps et l’esprit au cours des générations, et d’autre part, l’être unicellulaire au mammifère en passant par toutes les formes de vie, notre capacité à se rapporter à l’expérience d’un autre animal d’une autre espèce se déplace en proportion de l’espèce en question. Donc l’essence que nous partageons avec une bactérie est beaucoup plus étroite que celle que nous pouvons partager avec une baleine, qui à son tour est peut-être plus étroite que celle que nous partageons avec le chimpanzé. En un sens, nous ne pouvons jamais connaître toute l’expérience d’une autre personne — d’autant plus si elles sont élevées des cultures différentes —, mais il y a des points de profond chevauchement qui surtout peut être étendu. L’imagination nous permet-elle de pressentir l’existence d’un autre être vivant d’une autre espèce?

Le sentiment pour un organisme, voilà comment la célèbre généticienne Barbara McClintock a décrit ses propres intuitions sur la vie. L’empathie comme une capacité ne doit se limiter au niveau du genre humain.

Notons donc que selon Gregory Berns (http://bit.ly/1d1uQzo), professeur en neuro-économie à l’Emory University (située à Atlanta), et auteur d’un livre sur le « décodage » du cerveau canin, les chiens seraient de vraies personnes, qui pensent et qui éprouvent des sentiments. Ses conclusions: les chiens pensent… en tout cas, comme peut le faire un enfant. Et cela permettra peut-être de revoir la manière dont nous traitons les chiens, mais aussi beaucoup d’autres animaux. L’existence des usines à chiots, des courses de chiens ou les chiens de laboratoires pourraient être sérieusement remis en question sur des bases empiriques.

Ainsi, le cerveau des chiens, à bien des égards, ressemble et fonctionne comme le cerveau des humains. Nous partageons bon nombre des mêmes structures de base (appelée « homologie »), y compris une région du cerveau qui est associée à des émotions positives. Dans l’ensemble, les chiens et les humains montrent des similitudes frappantes dans l’activité d’une région du cerveau importante appelée le noyau caudé. Les chiens, au regard des analyses au scanner, montrent des signes suggérant qu’ils peuvent éprouver des émotions positives telles que l’amour et l’attachement… et pourraient avoir un niveau de conscience semblable à un enfant. Ainsi, en réponse aux signaux de la main indiquant la nourriture, les odeurs ainsi que des humains familiers, l’activité du caudate nucleus des chiens ont augmenté.

Pour lui, la capacité à ressentir des émotions, comme de l’amour ou de l’attachement, signifierait que les chiens ont un niveau de sensibilité comparable à celui d’un enfant humain. Et cette capacité nous oblige à repenser la façon dont nous traitons les chiens. Et dans les tests préliminaires, cette région du cerveau s’active au retour du « propriétaire » qui était momentanément sorti de vue. Les neuroscientifiques appellent cela une homologie fonctionnelle, et cela pourrait être une indication de la présence d’émotions canines.

La déclaration conclut que « les animaux non-humains ont les substrats neuroanatomiques, neurochimiques et neurophysiologiques pour l’état de conscience avec la capacité de manifester des comportements intentionnels. Par conséquent, le poids de la preuve indique que les êtres humains ne sont pas uniques à posséder les substrats neurologiques qui produisent la conscience . Les animaux non-humains, y compris tous les mammifères et les oiseaux, et de nombreuses autres créatures, y compris les pieuvres, possèdent également ces substrats neurologiques.

____________________

SOURCES

RÉFÉRENCES

Berns GS, Brooks AM, Spivak M (2012) Functional MRI in Awake Unrestrained Dogs. PLoS ONE 7(5): e38027. doi:10.1371/journal.pone.0038027

Bekoff, Marc (2012). “Animals are conscious and should be treated as such”, 26 September 2012, New Scientist, issue 2883, http://bit.ly/1iW6CdI.

Bekoff, M. (n.d.). After 2,500 Studies, It’s Time to Declare Animal Sentience Proven (Op-Ed). LiveScience.com. Retrieved January 9, 2014, from http://www.livescience.com/39481-time-to-declare-animal-sentience.html

Du nourissement de la population mondiale

Le désastre de l’industrie de l’agriculture : destruction de la biodiversité !

Comme suite aux commentaires insistants et moraliste d’un groupe végétariste (on parle presque endoctrinement), voici donc une synthèse de mon argumentaire, et qui s’oppose et détruit (faire disparaître – ce qui est établi, organisé, élaboré ; faire disparaître – une chose – en la décomposant comme du composte de façon à ce qu’elle ne puisse plus être reconstituée) cet argumentaire moralistique du végétarisme :

Biodiversity and Agriculture | The Center for Health and the Global Environment
http://chge.med.harvard.edu/topic/biodiversity-and-agriculture

1 – What is Biodiversity
http://bit.ly/19cDqcl

2 – What is Agricultural biodiversity
http://en.wikipedia.org/wiki/Agricultural_biodiversity

3 – Assessing the impacts of agricultural intensification on biodiversity
http://bit.ly/15XytA4

4 – L’agriculture, première cause de déclin de la biodiversité
http://bit.ly/16vEVBZ

5 – How Industrial Agriculture Differs from a Natural Ecology
http://bit.ly/19fANGR

6 – The impact of industrial agriculture in rainforests
http://bit.ly/QCGYcx

7 – Synthesis :: Agricultural biodiversity & sustainable agriculture
http://bit.ly/1bW4ixQ

8 – Les fruits et légumes ainsi que les racines et tubercules ont le taux de gaspillage le plus élevé de la planète ! – http://bit.ly/irLkzq

9- Subsistence farming (self-sufficiency farming in which the farmers focus on growing enough food to feed themselves and their families) is responsible for 48% of deforestation; commercial agriculture (large-scale production of crops for sale, and includes livestock production and livestock grazing) is responsible for 32% of deforestation; logging is responsible for 14% of deforestation and fuel wood removals make up 5% of deforestation – http://bit.ly/17oJF9b

La biodiversité est essentielle au développement de la vie et de la nature. Les pratiques actuelles de l’industrie de l’agriculture détruit la biodiversité, fait souffrir et tue une multitude d’êtres vivants de milliers d’espèces. Il est actuellement impossible pour tous les herbivores de se nourrir uniquement de végétation provenant de l’industrie de l’agriculture sans effectué NÉGATIVEMENT la biodiversité de la planète. On ne peut pas prétendre sauvé les animaux alors qu’indirectement on les tuent. Un changement paradigmatique est nécessaire afin d’introduire une réel agriculture qui respecte la biodiversité. Il existe trop peu de ferme qui respecte la biodiversité pour nourrir tout les végétariens, et encore moins, une populations de millions de personnes, voire même la population mondiale.

Ainsi, placer une haute valeur morale sur le respect de la vie et de la nature (et donc de la biodiversité, et du “bétail”) relève d’une approche globale, et non pas réductrice comme celle de l’acte morale de sauver les animaux “sentient” en étant herbivore (“bétail”). C’est ça le respect de la Vie et de la Nature (et donc de la biodiversité). On devient végétarien parce que c’est bon pour la santé, et non pas pour sauver les animaux (que le “bétail” exclusivement), car les méfaits de l’industrie de l’agriculture ont un effet destructeur sur toute la biodiversité de toute la Planète.

De plus, de l’échafaudage moralistique, le groupe est irrespectueux de la Vie et de la Nature (et donc de la biodiversité) puisque votre approche n’est pas holistique et globale et vous ne respectez pas l’ordre des choses, à savoir, de ne pas porté un jugement morale sur la beauté (jugement de valeur) infini de la Nature et de la Vie ;

La biodiversité est essentielle au développement de la vie et de la nature. Les pratiques actuelles de l’industrie de l’agriculture détruit la biodiversité d’une multitude de manières, et donc fait souffrir une multitude d’êtres vivants. Devenir herbivore ne s’adresse au problème que partiellement. Il faut changer notre mode de vie et adopter une agriculture respectueuse de la Vie et de la Nature. Il y a si peu de ferme respectant la biodiversité, que l’on ne peut pas, selon moi, prétendre qu’être herbivore garanti la pérennité de la biodiversité de la Terre, voire même des mammifères, voire même du “bétail”.

Il faut toutefois reconnaitre qu’actuellement devenir herbivore, peut réduire la demande en bétail, et dont réduire la souffrance et la tragédie des être vivants de l’industrie agro-alimentaire. Cependant, l’acte morale du végétarisme est largement “mitiguer” par la destruction de la biodiversité et des écosystèmes par les industries de l’agriculture, et ce, même s’il y a un détournement de la destinée de la production du “bétail” vers les humains (nombre croissant de personnes adhérant au végétarisme). C’est pourquoi l’Organisation des Nation Unies pour l’alimentation et l’agriculture fait la promotion de l’entomophagie, terme désignant la consommation d’insectes par les êtres humains, comme élément de sécurité alimentaire et les quelque 1400 espèces comestibles seraient la garantie de repas variés et serait une incroyable source de protéines

L’augmentation de la population mondiale et le souci de préservation de la planète nous forceraient en effet à changer nos habitudes alimentaires et notamment à remplacer la viande, qui deviendrait un produit de luxe. Les études montrent que les insectes, en plus de représenter une valeur nutritionnelle et un apport en protéines équivalent à celui de la viande, seraient beaucoup moins onéreux à produire et pollueraient que les animaux d’élevages (“bétail”) [http://bit.ly/Nl7i80].

De la civilisation et du végétarisme

L’Année internationale de l’agriculture familiale 2014 (AIAF)

Le végétarisme, voir même le véganisme, n’est possible que par le niveau actuel de développement de la civilisation, et donc de l’économie. Ainsi, la disponibilité des fruits et légumes sont largement tributaire des systèmes de transports à l’échelle planétaire s’inscrivant dans une économie de marché assez bien structuré. Or, sans ces moyens de transport, d’ailleurs largement polluant, il y aurait donc une moins grande variété et disponibilité des fruits et légumes, ce qui aurait pour effet de commander un approvisionnement dit “locale” ou “régionale”, et donc, le développement de l’agriculture.

Notons que l’autonomie alimentaire préconisé par le PQ me semble s’inscrire dans cette réalité de développement de l’agriculture par la mise en marchés de produits de fruits et légumes typiquement québécois.

Ainsi considérons que sans ce niveau de développement actuel de la civilisation, et dans un état de nature, il n’est pas toujours possible pour l’être humain d’avoir le choix de son “panier d’alimentation” ; tous sur la planète ne bénéficie par d’un supermarché ayant un vaste choix d’aliments. Beaucoup doivent donc s’astreindre à ce qui est disponible dans l’environnement immédiat, ce qui n’offre souvent que peut de variété et de possibilité. On se rappellera des difficultés des chasseur-ceuilleurs.

Ainsi, la question essentiellement, est celle de savoir par quel condition une civilisation peut-elle devenir principalement végétarienne. On doit donc déterminer les modalités nécessaires pour parvenir à un tel état de fait. On doit se demander s’il est possible pour un groupe humain, quelque soit l’endroit qu’il occupe sur la planète, de se nourrir exclusivement de fruits et légumes, et d’obtenir une alimentation saine et varié.

Or, l’avènement de l’agriculture, et donc de stocks alimentaires, s’avère un point déterminant ou l’on quitte l’état de nature, sans toutefois garantir une diversité de l’alimentation (agriculture de subsistance). Ce n’est que par les échanges commerciaux entre régions, civilisations, empires, et l’agriculture de production, qu’il y a diversité alimentaire ; par exemple, on ne peut faire pousser des bananes au Québec. La transition d’une économie vivrière (c’est-à-dire fondée sur la chasse, la pêche et la cueillette), à une économie agricole et d’élevage, où l’Homme intervient dans les cycles naturels de la biomasse (par exemple la reproduction et la sélection des espèces), est communément appelé la révolution néolithique. Aujourd’hui, l’organisation des marchés, la démographie, les techniques, le savoir-faire et l’application de hautes technologies sont à la disposition de l’agriculteur pour obtenir des niveaux de production jamais atteints dans l’histoire de l’Homme. Un des défis majeurs de l’agriculture moderne est aujourd’hui de concilier performance, protection de l’environnement et pérennité. On comprendra qu’il y a eu plusieurs révolutions successives de l’agriculture.

La question est celle de savoir comment pourra-t-on établir une civilisation planétaire ayant une agriculture qui pourrais nourrir 6 milliards d’individus et offrir une alimentation diversifié [et disponible à tous] ?

L’agriculture familiale englobe toutes les activités agricoles reposant sur la famille, en connexion avec de nombreux aspects du développement rural. L’agriculture familiale permet d’organiser la production agricole, forestière, halieutique, pastorale ou aquacole qui, sous la gestion d’une famille, repose essentiellement sur de la main-d’œuvre familiale, aussi bien les hommes que les femmes.

Dans les pays développés comme dans les pays en développement, l’agriculture familiale est la principale forme d’agriculture dans le secteur de la production alimentaire.

Au niveau national, plusieurs facteurs clés peuvent contribuer avec succès à son développement, entre autres: les conditions agro-écologiques et les caractéristiques territoriales; les politiques environnementales; l’accès au marché; l’accès à la terre et aux ressources naturelles; l’accès à la technologie, aux services de vulgarisation agricole et au crédit; les conditions démographiques, économiques et socio-culturelles; la disponibilité d’un enseignement spécialisé.

L’agriculture familiale joue un rôle important au niveau socio-économique, environnemental et culturel.

L’agriculture familiale et la petite agriculture sont liées de façon indissociable à la sécurité alimentaire mondiale.

L’agriculture familiale préserve les produits alimentaires traditionnels, tout en contribuant à une alimentation saine et équilibrée, à la conservation de la biodiversité agricole mondiale et à l’utilisation durable des ressources naturelles.

L’agriculture familiale peut être un moyen de stimuler les économies locales, surtout si elle est combinée avec des politiques spécifiques axées sur la protection sociale et le bien-être des communautés.

____________________

Des psychologues ont trouvé qu’une mauvaise nuit de sommeil aggrave les conflits relationnels

Un « bon sommeil » se définit par l’absence de somnolence pendant la période d’éveil. Qu’il soit de mauvaise qualité ou en quantité insuffisante, cela entraîne des effets à court et à long terme (dette chronique de sommeil). Les conséquences d’un manque de sommeil ou d’un sommeil de mauvaise qualité peuvent être sérieuses. Un sommeil déficient entraînerais des risques accrus, d’hypertension artérielle, d’accidents vasculaires cérébraux, de maladies du coeur, de diabète, d’obésité et de dépression. Aussi, le manque de sommeil serait la cause cachée de la majorité des « erreurs humaines » qui provoquent des accidents, selon des chercheurs de l’Université McGill. Chez les enfants, la privation de sommeil est associée à l’impulsivité, l’hyperactivité et l’inattention.

On sait d’ailleurs déjà que les problèmes relationnels peuvent nous tenir éveillés toute la nuit. Cependant, une nouvelle recherche de l’University of California à Berkeley (UC Berkeley) suggère que les nuits blanches peuvent également aggraver les conflits et la relation entre amoureux.

Les psychologues Amie Gordon et Serena Chen de UC Berkeley ont constaté que les gens sont beaucoup plus susceptibles de s’en prendre à leurs partenaires romantiques lors de tensions relationnelles, et ce, après une mauvaise nuit de sommeil.

« Les couples plus conflictuels sont moins heureux et en moins bonne santé », a déclaré Mme. Gordon, une étudiante au doctorat en psychologie et principal auteur de l’étude publiée en ligne dans la revue Social Psychological and Personality Science. « Notre recherche permet d’éclairer un facteur qui pousse les couples à s’engager dans des conflits inutiles et nuisibles en montrant que les couples font l’expérience de conflits plus fréquents et plus graves après des nuits blanches », a-t-elle ajouté.

Alors que de précédentes études indiquent qu’un sommeil pauvre aurait un impact négatif sur les relations amoureuses, ces nouveaux résultats jettent plus de lumière sur la manière dont le mauvais sommeil compromet l’habileté des couples à éviter et à gérer leur(s) conflit(s), selon les chercheurs.

« Pour la première fois, à notre connaissance, nous pouvons percevoir le processus de la manière dont la nature, le degré et la résolution des conflits sont négativement influencés par un mauvais sommeil », a déclaré Chen, professeur de psychologie à l’UC Berkeley.

Les chercheurs ont recueilli des données sur les habitudes de sommeil de plus de 100 couples qui avaient été ensemble, en moyenne, près de deux ans. Ils ont évalué les participants pour la dépression, l’anxiété et d’autres facteurs de stress afin de se concentrer uniquement sur le lien entre la qualité du sommeil des couples et les conflits relationnels.

Dans une expérience, 78 jeunes adultes en relations amoureuses ont fourni des rapports quotidiens sur une période de deux semaines sur la qualité de leur sommeil et leur stress relationnels. Dans l’ensemble, les participants ont rapporté plus de discorde avec leurs partenaires lors des jours qui suivent une nuit de mauvais sommeil.

« Même parmi les relativement bons dormeurs, une mauvaise nuit de sommeil était associée à davantage de conflits avec leur partenaire amoureux, le lendemain » a dit Chen.

Dans une deuxième expérience, 71 couples se sont présentés au laboratoire, et ont évalué la manière dont ils avaient dormi la nuit précédente, puis, tout en étant filmés, ont discuté avec leurs partenaires une source de conflit dans leur relation. Pour chaque couple, chaque partenaire a ensuite évalué ses propres réactions émotionnelles ainsi que celui de son ou sa partenaire au cours de la conversation conflictuelle, et enfin évaluer s’ils ont résolu le désaccord.

Les participants qui avaient mal dormi, et leurs partenaires, ont déclaré se sentir plus « négatif » envers l’autre tendre moitié, et ce, au cours de la discussion lors des conflits, selon les observations et de leurs rapports. Leurs compétences de résolution de conflits et la capacité d’évaluer avec précision les émotions de leurs partenaires ont également souffert après une mauvaise nuit de sommeil.

— –

SOURCE

Anwar, Yasmin (2013). “Sleepless nights can turn lovers into fighters”, Media Relations, July 8 2013, [http://bit.ly/157Y1KF].

Gordon, A. M., & Chen, S. (2013). “The Role of Sleep in Interpersonal Conflict Do Sleepless Nights Mean Worse Fights?”. Social Psychological and Personality Science.

Comment le rejet peut nuire à notre bien-être, ainsi qu’à notre santé psychologique et émotionnelle

La douleur, qu’elle soit causée par une blessure physique ou le rejet social, est inévitable au cours d’une vie, et le rejet semble parfois vraiment douloureux physiquement. Or, bien des rejets vécus peuvent générer des dégâts à notre bien-être psychologique ainsi qu’à notre santé psychologique et émotionnelle, qui va bien au-delà de la simple douleur émotionnelle. Commençons donc par examiner pourquoi le rejet fait si mal.

Le Ethan Kross Ph.D. et ses collègues à l’Université du Michigan ont scanné les cerveaux des participants dont les partenaires romantiques avaient récemment rompu avec eux. Les régions du cerveau associées à la douleur physique se sont activées alors que les participants visualisaient des photographies de leurs anciennes flammes (Proceedings of the National Academy of Sciences, 2011). Les effets du rejet se grefferaient sur les voies de la douleur physique dans le cerveau. Des études IRMf montrent que ce sont les mêmes régions du cerveau qui s’activent quand nous éprouvons du rejet et quand nous éprouvons de la douleur physique. C’est pourquoi le rejet fait tellement mal (neurologiquement parlant). En fait, notre cerveau réagit de manière similaire au rejet et à la douleur physique [a]. Ainsi, une certaine accumulation de preuves suggère qu’il y aurait un chevauchement de la douleur physique et de la douleur sociale, empruntant les mêmes circuits neuronaux et les processus sous-jacents [b]. Or, certaines études contredisent ce résultat [c].

L’acétaminophène (Tylenol) réduiriait la douleur émotionnelle que suscite le rejet. Pour tester l’hypothèse que le rejet « imite » la douleur physique, des scientifiques ont donné à quelques personnes de l’acétaminophène avant de leur demander de rappeler une expérience douloureuse de rejet. Les participants qui ont reçu Tylenol ont signalé des douleurs émotionnelles beaucoup moins vives que les sujets ayant reçu un placebo. Les psychologues supposent qu’il y aurait une raison spécifique pour le lien étroit entre le rejet et la douleur physique. L’acétaminophène réduit les réactions comportementales et neuronales associées à la douleur du rejet social, ce qui démontre un chevauchement important entre la douleur physique et sociale [d]. De plus, observer le rejet/l’exclusion active les régions associées à la mentalisation, et les personnes très empathiques ont activé deux régions, celui à la mentalisation, et celui associé à la douleur [e]. Le lien entre la douleur physique et sociale peut paraître surprenant, mais il serait logique biologique. En effet, au lieu de créer un tout nouveau système pour répondre aux événements socialement douloureux, l’évolution a simplement opté pour l’usage système préexistant de la douleur physique. Compte tenu du chevauchement partagé, il s’ensuit que si vous engourdissez à un type de douleur, cela devrait également engourdir la douleur d’un autre type.

Le rejet aurait servi une fonction vitale dans l’évolution humaine. En effet, à l’époque des chasseurs-cueilleurs, l’ostracisme tribal (exil; bannissement du groupe) pouvait s’avérer une véritable sentence de mort, car il y avait très peu de chance de survivre très longtemps seul sans l’aide du groupe. Les psychologues évolutionnistes supposent que le cerveau aurait développé un système d’alerte précoce pour nous informer d’une situation à risque d’ostracisme. Parce qu’il était si important d’attirer notre attention — ceux qui ont vécu le rejet de manière plus douloureuse (parce que le rejet « imite » la douleur physique dans leur cerveau) ont bénéficié d’un avantage évolutif — ils étaient plus susceptibles de corriger leur comportement et, par conséquent, plus susceptibles de ne pas être évincer de la tribu.

Les liens sociaux apportent d’immenses bénéfices pour le bien-être physique, psychologique et mental. Lorsque ces connexions (les liens sociaux) s’effondrent sous l’effet du rejet social, les gens éprouvent une détresse importante et la douleur émotionnelle. Certaines réponses au rejet peuvent être exacerbées ou affaiblies selon la manière dont les gens se représentent mentalement leurs liens avec les autres (leurs liens sociaux). Les gens qui recherchent les possibilités de rapprochement et qui craignent que leurs ouvertures soient rejetées par autrui peuvent avoir des réponses neuronales « accru » au rejet social, alors que les personnes qui ont des inquiétudes au sujet de la proximité avec les autres peuvent désactiver le système d’attachement, ce qui entraîne l’inhibition de réponses neuronales au rejet social, entrainant une réponse faible au rejet. Ainsi, certains résultats suggèrent que le style d’attachement serait impliqué dans la réaction au rejet [f].

Nous pouvons revivre et refaire l’expérience de la douleur sociale plus vivement que de la douleur physique; en d’autres termes, le seul souvenir de la douleur physique ne suscitera pas de douleur physique. Toutefois, tentez de revivre un rejet social qui a été douloureux, et vous serez inondés d’un bon nombre des mêmes sentiments que vous aviez à l’époque (et votre cerveau réagira avec autant d’intensité qu’il l’a fait à l’époque). Notre cerveau « privilégierait » les expériences de rejet parce que nous sommes des animaux sociaux et grégaires et qui aiment vivre en « tribus ».

Or, semble-t-il, nous aurions tous un fondamental besoin d’appartenir à un groupe (une « tribu »). Lorsque nous sommes rejetés, ce besoin « primal » est déstabilisé et la déconnexion du lien social que nous ressentons s’ajoute à notre douleur émotionnelle. Renouer avec ceux que nous aimons ou nous avons aimés, tendre la main aux membres de groupes auxquels nous sentons une forte affinité et qui nous apprécie et qui nous accepte pour ce que nous sommes soulagerait la douleur émotionnelle du rejet.

En 2001, le « Surgeon General of the U.S » a publié un rapport qui a déclaré que le rejet était un plus grand risque de violence chez les adolescents que les médicaments, la pauvreté ou l’appartenance à un gang. De nombreuses études ont démontré que même les rejets les plus bénins conduisent les gens s’en prendre à des spectateurs « innocentes ». Cependant, une grande partie de l’agressivité (et des agressions) comme suite au vécu du rejet est également tournée vers l’intérieur de la personne rejeté.

Le rejet nous catapulte dans une mission pour rechercher et détruire notre estime de soi. S’autoblâmer (autoculpabilisation) et attaquer son estime de soi ne fait qu’aggraver la douleur émotionnelle que nous ressentons et rend la récupération émotionnelle encore plus difficile. Les personnes ayant une faible estime de soi ont réagi plus négativement aux signes de rejet interpersonnel comparativement à ceux qui ont une forte estime de soi. Toutefois, des recherches antérieures ont montré que les différences individuelles dans le contrôle attentionnel peuvent atténuer les réactions négatives au rejet social parmi les personnes vulnérables et à faible estime de soi [g]. Or, certaines études contredisent le fait que le rejet affaiblit l’estime de soi [h].

Or, se rappeler une récente expérience de rejet et revivre l’expérience est suffisant pour que les gens obtiennent des résultats significativement plus faibles sur les tests ultérieurs de QI, tests de mémoire à court terme, et des tests de prise de décision [i,j,k,l]. En effet, lorsque nous sommes sous le choc d’un douloureux rejet, la réflexion ne s’avère clairement pas aussi simple que ça.

On le voit, en plus de la douleur psychologique et émotionnelle, on émet également l’hypothèse que la douleur suscitée par le rejet emprunte non seulement les voies de la douleur psychologique, mais également celle de la douleur physique. Le rejet social se produit essentiellement lorsqu’une personne est délibérément exclue d’une relation sociale ou de l’interaction sociale pour des raisons sociales plutôt que pratiques. Ce thème comprend à la fois le rejet interpersonnel (ou le rejet par les pairs) et le rejet sentimental. En outre, le rejet social peut se manifester lors de harcèlement, d’intimidation, de la marginalisation, de la stigmatisation, de l’étiquetage, d’être porté sur une liste noire, d’activités physiques et morales blessantes et/ou ridicules ou passives, en ignorant une personne ou en lui infligeant un type de « bizutage » silencieux. L’expérience face au rejet peut conduire à un nombre de conséquences psychologiques telles que la solitude, une faible estime de soi, une agressivité et une dépression. Cela peut également entraîner un sentiment d’insécurité et une haute sensibilité morale à de futurs rejets. Le rejet social augmente la colère, l’anxiété, la dépression, la jalousie et la tristesse. Il réduit les performances des tâches intellectuelles difficiles, et peut également contribuer à l’agression et au mauvais contrôle des impulsions (Current Directions in Psychological Science, 2011). Le rejet social incite souvent l’individu à tenter d’être conforme aux attentes (réalistes ou irréalistes) d’un groupe qui l’a précédemment rejeté dans l’objectif d’être accepté par celui-ci. Le rejet social rendrait une personne plus susceptible à la persuasion et aux suggestions et moins encline à s’affirmer et à exprimer ses limites.

De toute évidence, il y a de bonnes raisons de mieux comprendre les effets de l’exclusion. Les humains ont un besoin fondamental d’appartenance, tout comme nous avons besoin de nourriture et d’eau, nous avons aussi des besoins de relations positives et durables. Ce besoin est profondément enraciné dans notre histoire évolutive et a toutes sortes de conséquences sur les processus psychologiques modernes.

Aussi intelligents que les êtres humains soient, nous nous appuyons sur les groupes sociaux pour assurer notre survie individuelle. Nous avons donc évolué à vivre au sein de sociétés « coopératives », et pour la plupart de l’histoire humaine, nous dépendions de ces groupes pour notre vie. Comme la faim ou la soif, notre besoin d’acceptation est apparu comme un mécanisme de survie. « Un être humain solitaire n’aurait pas pu survivre pendant les six millions d’années d’évolution humaine alors que nous vivions dans la savane africaine ». Le rejet social favorise la culpabilisation et une faible estime de soi. Le rejet social rend vulnérable. Enfin, les personnes qui se sentent systématiquement exclues ont moins une bonne qualité de sommeil, et leurs systèmes immunitaires ne fonctionnent pas aussi bien que ceux ayant des liens sociaux forts.

Même de brefs épisodes de rejet, en apparence anodins, peuvent « piquer ». Dans une étude récente, Williams, Eric Wesselmann, PhD et ses collègues, du Purdue University, ont constaté que lorsque des participants croisère un inconnu qui semblait regarder « à travers eux » plutôt que de rencontrer leurs regards, ces derniers ont rapporté un lien social inférieur qu’avec les gens qui ont rencontré leur regard au passage de l’inconnu (Psychological Science, 2012). Heureusement, la plupart des gens se rétablissent presque immédiatement de ces brefs épisodes de rejet. Si un étranger ne parvient pas à vous regarder dans les yeux, vous n’êtes pas susceptible de vous y attarder très longtemps. Cependant, d’autres rejets communs — ne pas être invité à une fête, ou un refus d’une pour un deuxième rendez-vous amoureux — peuvent causer des émotions négatives persistantes.

Cela peut prendre un certain temps pour guérir d’une mauvaise rupture ou lorsque l’on a été congédié, mais la plupart des gens finissent par surmonter la douleur et les sentiments blessés du rejet. Lorsque les personnes sont chroniquement rejetées ou exclues, les conséquences peuvent être bien plus graves.

Il y a plusieurs manières de traiter les blessures psychologiques infliger par le rejet. Il est possible de traiter le rejet de la douleur émotionnelle suscitée et ainsi éviter les retombées cognitives, émotionnelles et psychologiques, relationnels qui se produisent dans son sillage. Pour le faire efficacement, nous devons aborder chacune de nos blessures psychologiques (c.-à-d. : apaiser la douleur émotionnelle, réduire la colère et l’agressivité, protéger l’estime de soi, et stabiliser le besoin d’appartenance.

____________________

SOURCES

Winch, Guy (2013). “Ten Surprising Facts About Rejection”. Psychology Today, July 3 2013, [http://bit.ly/10zJKXA].

Weir, Kirsten (2012). “The pain of social rejection”. Monitor on Psycholog. American Psychological Association , April 2012, Vol 43, No. 4.

RÉFÉRENCES

[a] Eisenberger, N. I., Lieberman, M. D., & Williams, K. D. (2003). Does rejection hurt? An fMRI study of social exclusion. Science, 302(5643), 290-292.

[b] Eisenberger, N. I., & Lieberman, M. D. (2004). Why rejection hurts: a common neural alarm system for physical and social pain. Trends in cognitive sciences, 8(7), 294-300.

[c] Cacioppo, S., Frum, C., Asp, E., Weiss, R. M., Lewis, J. W., & Cacioppo, J. T. (2013). A Quantitative Meta-Analysis of Functional Imaging Studies of Social Rejection. Scientific Reports, 3.

[d] DeWall, C. N., MacDonald, G., Webster, G. D., Masten, C. L., Baumeister, R. F., Powell, C., … & Eisenberger, N. I. (2010). Acetaminophen reduces social pain behavioral and neural evidence. Psychological science, 21(7), 931-937.

[e] Masten, C. L., Morelli, S. A., & Eisenberger, N. I. (2011). An fMRI investigation of empathy for ‘social pain’and subsequent prosocial behavior. Neuroimage, 55(1), 381-388.

[f] DeWall, C. N., Masten, C. L., Powell, C., Combs, D., Schurtz, D. R., & Eisenberger, N. I. (2012). Do neural responses to rejection depend on attachment style? An fMRI study. Social cognitive and affective neuroscience, 7(2), 184-192.

[g] Gyurak, A., Hooker, C. I., Miyakawa, A., Verosky, S., Luerssen, A., & Ayduk, Ö. N. (2012). Individual differences in neural responses to social rejection: the joint effect of self-esteem and attentional control. Social cognitive and affective neuroscience, 7(3), 322-331.

[h] Blackhart, G. C., Nelson, B. C., Knowles, M. L., & Baumeister, R. F. (2009). Rejection elicits emotional reactions but neither causes immediate distress nor lowers self-esteem: A meta-analytic review of 192 studies on social exclusion. Personality and Social Psychology Review, 13(4), 269-309.

[i] Stillman, T. F., & Baumeister, R. F. (2013). Social Rejection Reduces Intelligent Thought and Self-Regulation. The Oxford Handbook of Social Exclusion, 132.

[j] Baumeister, R. F., Twenge, J. M., & Nuss, C. K. (2002). Effects of social exclusion on cognitive processes: anticipated aloneness reduces intelligent thought. Journal of personality and social psychology, 83(4), 817.

[k] Baumeister, R.F., Twenge, J.M., & Nuss, C. (2002). Effects of social exclusion on cognitive processes: Anticipated aloneness reduces intelligent thought. Journal of Personality and Social Psychology, 83, 817-827.

[l] Twenge, J. M., Catanese, K. R., & Baumeister, R. F. (2002). Social exclusion causes self-defeating behavior. Journal of Personality and Social Psychology, 83, 606-615.

L’usage des antidépresseurs toujours en hausse dans les pays riches

Selon l’OCDE, le taux d’augmentation des prescriptions ne correspond pas à l’augmentation globale des diagnostics, entrainant ainsi des inquiétudes chez les professionnels de la santé quant à l’utilisation excessive ou la sur-utilisation de médicaments.

L’usage d’antidépresseurs a ainsi bondi à travers le pays riche au cours de la dernière décennie, selon l’Organisation for Economic Co-operation and Development (OCDE), soulevant des inquiétudes chez les médecins selon laquelle il y aurait une sur-prescription de « pilules ».

Les chiffres montrent que dans certains pays les médecins sont en train d’écrire des ordonnances pour plus d’un adulte sur 10, avec l’Islande, l’Australie, le Canada et les autres pays nordiques européens en tête.

D’autres données, provenant des États-Unis celles-là, montrent que plus de 10 % des adultes américains utilisent le médicament contre la dépression. En Chine, le marché des antidépresseurs a augmenté d’environ 20 % pour chacune des trois dernières années, mais à partir d’une base plus faible.

Toutefois, le taux global de dépression n’a pas augmenté dans la même mesure, même si plus de gens sont diagnostiqués dans certains pays.

Dans son rapport « Health at a glace » (http://bit.ly/19KOcmN ; Panorama de la sante 2013 – http://bit.ly/LCogoJ), l’OCDE a déclaré que la hausse des niveaux de consommation pourrait s’expliquer par l’utilisation des antidépresseurs pour les cas légers de dépression. Toujours selon l’OCDE, la crise financière pourrait avoir été un facteur contribuant à la plus récente augmentation de l’usage, notamment pour l’Espagne et le Portugal, par exemple,ou les prescriptions d’antidépresseurs ont fait un bond de plus de 20 % au cours des cinq dernières années.

La plupart des psychiatres s’accordent à dire que les antidépresseurs fonctionnent mieux pour les personnes atteintes d’une maladie grave, mais ne sont pas censés être comme premier recours pour les personnes souffrant de dépression légère. Nous savons également que les antidépresseurs fonctionnent pour dépression modérée à sévère. La consultation et les thérapies par la parole, comme la thérapie cognitivo-comportementale (TCC), sont reconnus comme tout aussi efficace sur le long terme. Mais les psychothérapies sont une « denrée » rare dans de nombreux pays. Ainsi, on pourrait supposer que l’explosion de l’usage d’antidépresseurs que l’on constate actuellement dans la plupart des pays reflète le fait que beaucoup de personnes souffrant de dépression modérée à sévère reçoivent un traitement — et que ce serait une bonne chose.

Cependant, le point négatif, c’est que beaucoup de personnes reçoivent des antidépresseurs alors qu’ils ne devraient pas en obtenir. Les médecins et les fournisseurs de soins de santé doivent être en mesure de reconnaître correctement la dépression afin que ceux qui ont réellement besoin d’antidépresseurs en reçoivent et que les cas bénins ne devraient pas se voir attribuer une prescription. Or, la plupart des experts s’entendent pour dire que les antidépresseurs sont sur-prescrits pour certaines personnes, mais sous-utilisés pour d’autres.

Les antidépresseurs sont largement sur-prescrits pour se débarrasser du chagrin et de la peine. Ces médicaments n’ont pas été conçus pour cet usage. Le chagrin et la peine font partie de la condition humaine. Mais la vraie dépression clinique, elle, répond aux antidépresseurs. Et ne pas prescrire dans ces cas relève à condamner inutilement l’individu à vivre la maladie beaucoup plus longtemps. Certains cliniciens croient que l’augmentation des prescriptions d’antidépresseur est le résultat d’une meilleure reconnaissance de la dépression, et ce, dans de nombreux pays. Or, il est toutefois beaucoup plus probable que cela relève d’un résultat de la commercialisation efficace de l’industrie pharmaceutique.

La flambée de l’utilisation des antidépresseurs relève de la pression croissante à la médicalisation du malheur (du chagrin et de la peine), qui se justifierait par le manque de ressources et de temps ainsi qu’à la faible disponibilité d’autres traitements thérapeutique entrainant ainsi les médecins à faire un sur-usage de prescriptions. Nous médicalisons les situations les plus courantes : conflit, séparation, vicissitudes de l’existence. Ils seraient prescrits trop facilement. Si vous prenez un antidépresseur et que cela ne fonctionne pas, vous ne pensez pas que c’est parce que vous pourriez ne pas être déprimé, mais que vous devez prendre un plus fort.

Dans une étude de la WHO en 2011 (Bromet, 2011), à l’échelle plantaire, les femmes étaient beaucoup plus susceptibles d’avoir des périodes de dépression que les hommes. De plus, aux États-Unis et en Europe occidentale, le taux de dépression est plus élevé chez les personnes plus jeunes.

— –

La croissance des dépenses pharmaceutiques s’est ralentie dans de nombreux pays de l’OCDE ces dernières années. Pourtant, le Canada se hisse au troisième rang des pays où l’on consomme le plus d’antidépresseurs, selon les plus récentes statistiques de l’OCDE. Depuis le début du millénaire, parmi les 21 pays recensés par l’Organisation de coopération et de développement économiques (OCDE), seules l’Islande et l’Australie devancent le Canada au chapitre de la consommation de médicaments contre la dépression. On note également que la consommation d’antidépresseurs augmente tandis que le nombre de personnes atteintes de dépression reste stable.

L’augmentation de l’utilisation des antidépresseurs peut aussi être partiellement expliquée par le sentiment d’insécurité provoqué de la crise économique (Gili et al., 2012). La crise financière est considérée comme un facteur évident d’augmentation de la consommation d’antidépresseurs. Pourtant, par exemple en France – qui pointe au 13e rang mondial, loin derrière l’Islande, l’Australie et le Canada -, la crise économique persistante n’a toutefois pas d’impact sur l’accroissement de la consommation d’antidépresseurs.

Or, la consommation moyenne d’antidépresseurs dans les 23 pays membres de l’OCDE est ainsi de 56 cachets par… jour pour 1 000 habitants. Avec 86 “pilules du bonheur” –  l’Islande (106) et l’Australie (89) -, le Canada se hisse donc au troisième rang des consommateurs d’antidépresseurs. Mais l’un des bonds les plus importants a été enregistré en… Allemagne (+ 46 % entre 2007 et 2011), un pays pourtant montré en exemple pour sa bonne santé économique.

Toujours selon le rapport,  l’explosion du nombre de travailleurs pauvres, la proportion toujours plus importante de salariés cumulant plusieurs emplois pour boucler leurs fins de mois et la pression accrue sur les lieux de travail expliquent en partie cette “anormalie”. L’OCDE explique aussi la hausse de la consommation de psychotropes relève entre autre de l’accroissement de l’intensité et de la durée des traitements parmi les facteurs qui peuvent expliquer la hausse générale de la consommation d’antidépresseurs (or pourtant, une étude de l’ISQ constate que les québécois se conforme peu à leur traitement médicamenteux). En Angleterre, par exemple, la hausse de la consommation est liée à un allongement du traitement médicamenteux (Moore et al., 2009). La hausse de consommation peut aussi s’expliquer par l’extension des indications de certains antidépresseurs à des formes plus légères de dépression, à l’anxiété généralisée ou à la phobie sociale (Hollingworth et al., 2010 ; Mercier et al., 2011) ; Ces extensions ont fait l’objet de réserves quant à leur pertinence. On cite également à titre de cause possible, une plus grande prise de conscience du phénomène de la dépression, une évolution de l’acceptabilité sociale et la volonté d’obtenir un traitement lors des épisodes de dépression, jouent un rôle dans la hausse de la consommation.

Semble-t-il, les médecins n’hésitent plus en outre à prescrire des médicaments pour des patients souffrant de symptômes légers. Ces derniers, en nombre croissant, se rendent également chez les généralistes pour demander de l’aide quand leur moral retombe un peu, ce qui n’était pas forcément vrai il y a quelques années de cela [et serait également lié par l’extension des indications des médicaments].

____________________

SOURCES

Boseley, S., Editor, H., Chalabi, M., & Rice-Oxley, M. (2013, November 20). “Antidepressant use on the rise in rich countries, OECD finds“, the Guardian. Retrieved November 25, 2013, from http://www.theguardian.com/society/2013/nov/20/antidepressant-use-rise-world-oecd

Rice-Oxley, M., & Fishwick, C. (2013, November 21). “Medicalisation of misery to blame for soaring use of antidepressants, say GPs“, the Guardian. Retrieved November 25, 2013, from http://www.theguardian.com/society/2013/nov/21/prescribing-culture-blame-rise-antidepressants

LePoint.fr (2013). “Les Français ne sont pas si accros que cela aux antidépresseurs“, 22 novembre 2013, http://bit.ly/LPqbHo

OCDE (2013), “Panorama de la santé 2013 : Les indicateurs de l’OCDE“, Éditions OCDE, http://dx.doi.org/10.1787/health_glance-2013-fr

Bromet, Evelyn, et al. “Cross-national epidemiology of DSM-IV major depressive episode.” BMC medicine 9.1 (2011): 90.