Le risque iatrogène est souvent sous-évalué et entraîne des couts indus au système de santé et des problèmes de santé indésirables chez les patients

Le terme « iatrogène » est relatif à un effet indésirable provoqué par un médecin ou un traitement médical. Ainsi, l’hospitalisation due à une maladie ou un dérangement iatrogène font-ils l’objet de sanctions envers le médecin prescripteur?

La « iatrogénèse » relève de l’ensemble des conséquences néfastes sur l’état de santé individuel ou collectif de tout acte ou mesure pratiquée ou prescrite par un professionnel de santé habilité et qui vise à préserver, améliorer ou rétablir la santé.

La notion est donc très générale, qualifiant un trouble ou un effet non souhaitable consécutif : à l’intervention d’un médecin ou autre professionnel de la santé qu’il y ait ou non erreur de traitement; ou à l’utilisation d’un médicament, qu’elle corresponde ou non à son indication habituelle.

Il y a donc surmultiplication de conséquences néfastes à partir d’une seule entrevue chez un professionnel de la santé visant originellement à résoudre une problématique de santé. Il y a également surmultiplication d’entrevues médicales comme suite aux conséquences néfastes et indésirables d’une médication. Cela entraîne une surcharge de système de santé et de couts afférents aux risques « iatrogène » inutiles qui pourraient être évités.

Rappelons qu’une maladie, un état, un effet secondaire, etc. sont iatrogènes lorsqu’ils sont occasionnés par un traitement médical. En grec, le mot signifie littéralement « provoquer par le médecin » (iatros : médecin; génès : qui est engendré), ou par d’autres professionnels de la santé, par exemple par un pharmacien, ou un dentiste.

Lorsque le patient est ignoré, cela engendre une crainte ou une anxiété et une perte de confiance aux professionnels de la santé. Il peut donc également ignorer les ordonnances.

La iatrogénèse (auparavant nommée iatrogénie) médicamenteuse s’avère particulièrement courante dans le domaine de la maladie mentale et de la santé mentale. Tout médicament a des effets bénéfiques, mais aussi des effets indésirables. Ils peuvent provenir du médicament lui-même, de son association avec un autre médicament, de son incompatibilité avec le malade ou d’une erreur de prise.

La réduction du risque iatrogène doit être définie comme une priorité dans la réduction des coûts du système de santé. Elle peut même entraîner le décès ou l’hospitalisation du patient. Les personnes vulnérables et les personnes agées seraient plus a risque d’une iatrogénie médicamenteuse.

Au niveau du particulier, il faut respecter l’ordonnance à la lettre (horaires de prise, dosage, durée du traitement) et informer tous les médecins consultés des médicaments que l’on prend. Mais cette approche est souvent insuffisante, car par exemple le médecin à l’origine de la prescription n’est pas toujours informé des autres médicaments pris par le patient, ni des nombreuses interactions entre les médicaments. Le pharmacien qui connaît son patient et ses habitudes en matière de médicaments, ou qui constate que des médicaments sur une ou plusieurs ordonnances sont incompatibles entre eux, peut jouer un rôle considérable pour éviter de telles interactions néfastes entre médicaments.

Or, une approche systémique s’avère nécessaire. En effet, il est nécessaire d’appréhender la question sous l’angle systémique, car on imputerait, à l’hôpital, plus de 80 % des causes profondes des événements indésirables à l’organisation hospitalière. Dans tous les cas, tous les professionnels de la santé qui prescrivent des médicaments se doivent d’être au courant de l’historique des ordonnances, puisque la prescription est un acte en lui même, qui entraîne des couts.

La iatrogénèse reste en grande partie évitable et la maîtrise du risque s’inscrit à la fois dans le domaine de la qualité des soins et dans celui de la sécurité des soins de santé.

De la manipulation médiatique des émotions

J’entends certains communicateurs dire ce qu’ils veulent, quand ils le veulent, comment ils le veulent. Ils présentent parfois les choses sous formes de questionnements évasifs, de jeux de mots, de calembours, de figure de style, d’allusions, d’insinuations, d’évocation, de sous-entendu, d’arrière-pensée, d’ironies, et donc de dérisions, d’humour, de moqueries, plaisenteries, persiflage, railleries, sarcasme, ricanements, de taquineries, de risées, etc..

Or, ces communicateur se plaignent lorsque l’on profite des médias sociaux pour leur répondre, pour leur faire remarquer leurs fautes, erreurs, travers, dérives, et autres phénomènes.

Or, les médias d’informations sont trop souvent les caisses de résonance des mêmes évènements, dont l’importance se mesure artificiellement à l’aune du rendement de l’auditoire, des lecteurs, etc. L’actualité se colle sur ce dont “tout le monde parle”, et surf sur l’épicentre du séisme informatif, puis la machine médiatique s’emballe, tous parle de la même chose, déraisonne, et s’embourbe dans la répétition. Le même évènement donne lieu à deux surenchères médiatiques successive.

Et lorsque l’animateur, le journaliste, le chroniqueur, etc., se fourvoie, il se font par la suite d’une extrême discrétion, à défaut bien sûr de faire leur mea culpa.

Or, qu’est-ce qui pousse l’appareil médiatique à l’auto-critique. Or, est-ce que les médias s’imposent une autorégulation déontologique en continu. Et, puisque la couverture médiatique d’un “grand” événement devient matière à information, à enquête, à commentaire critique, et cela sans délai, en temps réel, on s’intéroge alors sur les dérives, les insuffisances, les conformismes ou les ratages. C’est encore plus vrai lorsqu’il y a une préparation, un travail préalable.

D’ailleurs, on parle de quatrième pouvoir ou du quatrième pilier de la  démocratie. Mais qu’en est-il vraiment? Or,  La question [de la crédibilité] des médias se pose dans la population. Il s’agit de porter un regard critique et panoramique sur leur fonctionnement et leur financement, sur leur manière d’informer sur l’information.

Or, même s’il existe des rubriques et des émissions se placant sous l’égide de la critique des médias, les médias en question vont s’en servir pour critiquer les pratiques de la concurrence. Ce n’est pas leur compétence ou leur professionnalisme qui est nécessairement en cause, mais plutôt l’étendue limitée de leur champ de “pratique”.

— –

source : j’ai perdu les sources comme suite à une erreur de manipulation. Vous pouvez m’aider en m’envoyant les sources pertinents ; Merci

Aujourd’hui, certains types de critique existe, mais c’est un produit médiatique comme un autre, une critique de surface. Il y a également la question de la propriété privée des médias. Et les médias de propriété publique, n’est-elle pas également soumis aux même exigence de rentabilité? Et, est-ce que les médias dit indépendant sont un gage d’autonomie?

A l’heure ou tout est soumis à la rentabilité, à la marchandisation, ou tout deviens un produit, qu’elle rôle possède l’information, et la nouvelle.

Or, si les les élites journalistiques [et médiatiques] se disent ouvertes à la critique, les investigations plus poussées, de fond, dérangent. En effet, ceux qui s’attèlent à mettre en lumière certains problèmes doivent s’attendre à une levée de boucliers, voire même des représailles, et peut-être une exclusion de la couverture médiatique.

Encore une fois, ce n’est pas nécessairement la compétence des journalistes qui était remise en cause, mais bien la difficulté d’exercice de leur profession. Ainsi, je lisait un blogue de la droite qui pourfendait les journaliste de paresseux, et un maire d’une ville importante du Québec qui qualifiait les journaliste d’incompétent, d’inculte, et de cruche. Est-donc une vengeance, ou un réel constat.

On a des exemple, ou certains personne médiatique on fait la critique de leur entreprise, et il ont rapidement été remercier. Or, y existe-t-il des intouchable dans notre société ? Ainsi, l’expression publique de la critique médiatique, l’opinion, ne [doit] en aucun cas porter atteinte aux intérêts de l’entreprise médiatique dans laquelle ils travaillent. Pour faire simple, les journalistes, chroniqueurs, ou “opinioneurs” peuvent dire ce qu’ils souhaitent, tant que cela ne déplaît pas à leur direction.

Or, le désir de l’auto-censure est grande, pour ne pas perdre une carrière en devenir ou bien établit. Ainsi, rare sont les journalistes, chroniqueurs ou autres qui s’épanche sur la place publique sur les dérives de leurs métiers. Il ne peuvent pas crier au loup, ou tirer la sonnette d’alarme, de peur de perdre leurs crédibilité. Les employés médiatique syndiqués ne sont pas vraiment libre, malgrés un statut sensé les protéger. La peur de perdre son emploi deviens le gage d’une auto-censure. Ainsi le corporatisme règne à l’ère de la marchandisation.

Il n’est donc pas aisé, dans un pays qui consacre la liberté d’expression, de s’attaquer aux travers du journalisme. Et peut-il y avoir des connivences avec le politiques, ou les acteurs sociaux, une influence des patron sur le contenu éditoriale, ou l’absence du journalisme des idées?

Autant de question et de constats qui amènent à se poser de nombreuses questions.

— –

Le constat me semble très clair. Il m’apparait évident que certains médias, dit d’information, dans certaines circonstances, utilisent les gens [et leur triste sort] comme des objets, voir même comme des pions.

Ainsi, on en apprend beaucoup en la manière dont on traite les gens dont on n’est pas obligé de bien traiter.

L’information, l’actualité, par exemple, s’avère de plus en plus mise en scène. À la télévision, à la radio, ou a l’écrit, les sujets sont choisis en fonction de leur sensationnalisme et à l’aune du retour sur investissement, c’est à dire, l’auditoire, le lectorat, l’auditeur, le public, et maintenant, le nombre de ‘likes’ ou de ‘followers’. Plus l’histoire émoustille les passions, plus elle a sa place dans le menu d’un ouvrage ou d’une production médiatique. Le but, jouer sur les émotions. En général, ce sont ces sujets qui priment sur tout, sur l’information. Or, la nouvelle, est-elle source d’information ou de divertissement? Le contenu apporte-t-il quelque chose de nouveau? Provoque-t-il le changement social, politique, culturel?

“The information must be bankable”.

Mais il y a une autre forme de manipulation. Celui d’eliciter la colère, l’indignation, le révolte,…, autant d’émotions pour susciter des réactions, pour tirer de l’information “gratuitement”, de provoquer un intérêt, ou pour amener une personne ou un groupe de personnes, à se justifier, à s’exprimer, à commenter…

Aussi, on prétend a abordé des sujets sociologiques, politiques, psychologique, voir même de santé publique, de sécurité publique, de politique publique, sous des prétextes “altruistique”, ou afin de conseiller, mais qui en fin de compte, n’ont que très peu d’impact sur la réalité sociale, politique, publique, etc.

On parle, parle, parle, on jase, jase, jase, mais en fin de compte, l’influence est minime. On se targue alors de faire montre de la diversité des opinions, alors que souvent, ils ne font qu’être la courroie de transmission de leurs amis, parfois même sous forme de pseudo-documentaires, voir même de publi-reportage, mais qui en fin compte, façonne les perceptions de réalité sociale.

Mais attention, je ne parle pas nécessairement de ces émissions ou plate-forme d’opinion, mais bien d’émissions qui prétendent informer.

La question n’est pas tellement l’éthique individuelle, mais bien la structure dans laquelle s’inscrivent les journalistes, les chroniqueurs, les animateurs… Face à un système médiatique qui transforme toute information en “information spectacle”, et ce, pour faire vendre de la presse ou pour attirer plus de téléspectateurs ou des auditeurs, on en viens à questionner l’utilité de la fonction médiatique.

Or, on en viens à devenir des experts en élicitation émotionnelle au détriment de l’information qui informe, qui instruit, qui construit, qui élève. Or, certains disent fournir un ‘contexte’, celui-là même à l’abri de l’esprit critique, mais ce “contexte” n’est que l’écho d’amis. Ils choisissent ce qu’ils veulent, comme ils le veulent, et comment ils le veulent.

Or, on sais  que ces gens ont une peur bleu de se faire poursuivre et ainsi évitent [, ou sélectionne,] sciemment certaines sujets ou mettent des gans blanc sur les sujets qui mérite l’attention du publique. D’ailleurs, ils protègent leurs amis, et

Or, ce n’est pas la nécessité qui guide leurs actions, mais bien les impératifs économique de leurs entreprises ou de leurs fonctions. Ils protègent donc leurs sources de financements.

Le secret de la créativité, de l’intelligence et de la pensée scientifique

La recherche montre que la créativité et l’intelligence sont liées aux connexions physiques au sein de notre cerveau. Voici comment relier les points.

Il y a une différence essentielle entre la connaissance et l’expérience et cela serait le mieux décrit ainsi :

knowledge.connection

L’image élaborer par le dessinateur Hugh MacLeod réussi de manière brillante à exprimer un concept qui ne s’avère pas souvent facile à saisir.

L’image établit clairement son point — que la connaissance seule n’est utile que si nous pouvons en faire des liens avec ce que nous savons. Que vous utilisiez ou non les termes « connaissances » et « expérience » pour expliquer la différence, le concept lui-même est solide. [Or, selon moi, il existe une troisième dimension, celle de l’intuition; une connaissance immédiate de la vérité sans l’aide du raisonnement ou une faculté qui permet de prévoir, de deviner. Ainsi a priori, il n’y a pas de connexion préétablie].

Beaucoup de grands écrivains, dartistes et de scientifiques ont discuté de l’importance de la collecte d’idées et de morceaux de connaissances (ici assimilé à des « points »)qui pullulent dans le monde qui nous entoure pour établir des liens entre ces « points » afin d’alimenter la pensée créatrice ainsi que les nouvelles idées.

Il s’agit d’un sujet d’inspiration vraiment amusant à lire, et donc voici quelques citations et conseils depenseurs créatifs concernant l’importance d’effectuer des connexions dans votre cerveau.

Mais avant de commencer, toutefois, analysons une recherche qui montre que l’intelligence est étroitement liée aux connexions physiques dans notre cerveau.

Intelligence et connexions: pourquoi votre cerveau a besoin de bien communiquer avec elle-même

Une recherche du « California Institute of Technology[2] » a montré que l’intelligence est quelque chose qui se retrouve dans tout le cerveau, plutôt que dans une région spécifique : les chercheurs ont découvert qu’au lieu de résider au sein d’une structure unique, l’intelligence générale est déterminée par un réseau de régions sur les deux côtés du cerveau.

L’un des chercheurs de cette recherche a expliqué que l’étude a montré que le cerveau travaille tel un système distribué. Ainsi, plusieurs régions du cerveau, et les liens entre eux (connexions)s’avèrent ce qui était le plus important pour l’intelligence générale.

L’étude soutient également une théorie existante concernant l’intelligence dictant que l’intelligence générale est fondée sur la capacité du cerveau à se rassembler et intégrer différents types de traitement, tels que la mémoire de travail.

À l’Université de Washington[3], une étude de recherche a constaté que la connectivité avec une zone particulière du cortex préfrontal est en corrélation avec l’intelligence générale d’une personne.

Cette étude a montré que l’intelligence est en partie appuyée sur certaines zones du cerveau à fonctionnement de haut niveau, et en partie sur leur capacité de communication avec d’autres zones dans le cerveau.

En dehors de la connectivité physique au sein du cerveau, la capacité à faire des liens entre les idées et les connaissances que nous détenons dans nos mémoires (car on pense qu’il existe plusieurs types de mémoire rependus dans plusieurs zones du cerveau) peut ainsi nous aider à penser de manière plus créative et à produire un travail de meilleure qualité.

Les connexions sont le carburant de la créativité : rien n’est vraiment original!

Steve Jobs est une personne toute désigner chaque fois qu’il est question de faire référence à la créativité ou à l’innovation, et il n’est donc pas surprenant de remarquer qu’il a déjà parlé de l’établissement de connexions. Cette grande citation est tirée d’une entrevue dans la revue Wired en 1996 : la créativité relève seulementde la connexion entre des éléments. Lorsque vous demandez aux gens créatifs comment ils ont réalisé une chose, ils se sentent un peu coupables, car ils ne l‘ont pas vraiment fait, ils ont seulement vu quelque chose.

Steve Jobsavait ensuite expliqué que l’expérience (comme nous l’avons vu dans l’illustration ci-haut) s’avère le secret pour être en mesure de faire des liens aussi facilement : c‘est parce qu’ils ont été en mesure de connecter les expériences qu’ils ont vécues et de synthétiser de nouvelles choses. Et la raison principale pour laquelle ils ont été en mesure de le faire, c’est qu’ils ont eu plus d’expériences, ou bien parce qu’ils ont effectué plus de réflexion sur leurs expériences, que les autres.

Maria Popova est sans doute l’un des meilleurs exemples (et promoteurs) de ce que nous appelons « créativité combinatoire » (combinatorial creativity)[4]. C’est-à-dire, la production des connexions entre les choses pour créer de nouvelles idées :… afin de vraiment pouvoir créer et de pouvoir contribuer au monde, nous devons être en mesure de « connecter » une multitude de points de connaissance, et d’effectuer une « pollinisation croisée » (cross-pollinate) d’idées d’une multitude de disciplines et de sujets, et de combiner et recombiner ces morceaux et ainsi construire de nouveaux châteaux (superstructure qui sied au-dessus d’un ensemble de choses. Selon Popova, être capable de faire lecture d’un large éventail de sujets s’avère souvent l’un des éléments les plus importants. Elle met beaucoup d’emphase sur la manière dont nos ego affectent notre volonté de construire sur ce que les autres ont élaboré avant nous :… c’est quelque chose que nous comprenons tous à un niveau intuitivement profond, mais que notre ego créatif (creative ego) ne veux plus ou moins pas vraiment à accepter : et c’est l’idée que la créativité s’avère combinatoire, et que rien n’est tout à fait original, et que tout repose sur ce qui est venu avant nous…

Popova fait usage d’une analogie avec les blocs Lego où elle compare les points de connaissances que nous détenons à des blocs de construction Lego : plus nous détenons ces blocs de construction (connaissances), plus diversifié leurs formes et leurs couleurs, plus intéressants de nos châteaux deviendra.

L’auteur Austin Kleon est quelqu’un qui vient immédiatement à l’esprit chaque fois qu’il est question de connectivité et de l’art de remixer. Kleon est l’auteur de l’ouvrage « Steal Like An Artist », un livre sur l’utilisation du travail des autres pour inspirer et informer ses propres travaux. Il débute son livre ainsi : chaque artiste se fait poser la question : « Mais où prenez-vous vos idées? ». L’artiste honnête répond, « Je les vole ».

Kleon s’avère une source d’inspiration importante, car il est tellement honnête au sujet de la manière dont le travail d’autrui est devenu une partie intégrante à son propre travail. Il est également désireux à mettre en exergue cette phrase de Maria Popova que « rien n’est vraiment original » : Chaques idées nouvelles n’est seulement qu’un « composite ou mélange » ou un remix d’une ou plusieurs autres idées précédentes.

Si vous êtes à la recherche de l’acquisition des conseils sur la création de plus de connexions entre les connaissances que vous détenez et entretenez (et ainsi recueillir encore plus de connaissances), une lecture du livre de Kleon est un excellent moyen pour débuter. Il propose certaines suggestions tel que :

  • transportez un cahier de notes ou un ordinateur portable (notebook) partout ou vous allez ;

  • lisez beaucoup ;

  • entretenez un fichier de travail (scratch file) ;

Comment la pensée scientifique relève de la capacité à produire des connexions

Lorsqu’il s’agit du domaine de la science, les connexions entre les points de connaissance semblent être tout aussi importantes. Dans l’art de l’investigation scientifique (The Art of Scientific Investigation), le professeur à l’Université de Cambridge W. I. B. Beveridge a écrit que les scientifiques qui réussissent « ont souvent été des personnes entretenant divers sujets d’intérêts », ce qui a généralement conduit à leur originalité : l’originalité consiste souvent à savoir relier des idées dont la connexion n’avait pas été soupçonnée auparavant.

Cet auteur a également suggéré que les scientifiques devraient élargir le champ de leur lecture, et ce, en dehors de leur domaine, afin d’ajouter à leurs connaissances (afin qu’ils aient plus de points de connaissances lorsque vient plus tard le temps de les connecter) : La plupart des scientifiques estiment que c’est un sévère handicap que d’enquêter sur un problème dans l’ignorance de ce qui est déjà connu sur le sujet d’enquête.

L’écrivain de science Dorian Sagan est en accord sur le fait que la science porte essentiellement sur la capacité à produire des connexions: la nature n’obéit désormais plus aux divisions « territoriales » de disciplines scientifiques académiques ou les continents apparaissent comme des espaces à être coloré afin de refléter les divisions nationales de leurs habitants humains. Pour l’auteur, les grands moments « satori », « d’épiphanies », « Eureka » ou « aha! » scientifiques s’avèrent essentiellement caractérisés par l’aptitude à savoir connecter les points de connaissances.

Ajouter à vos connaissances – le pouvoir de nouvel expériences

Commencez donc à faire plus de connexions entre les points de connaissance et faites preuve de créativité. Après tout, plus vous détenez de connaissances, plus vous serez en mesure de faire de connexions. Commencez par faire plus de lecture, élargissez vos domaines et sujets de lectures, et explorez de nouvelles possibilités pour la collecte de connaissances (par exemple, tentez de nouvelles expériences, allez à des rencontres ou entreprenez un nouveau passe-temps).

Comme le chercheur Dr Duezel l’explique si bien lorsqu’il s’agit de vivre de nouvelles expériences : « Seules les choses complètement nouvelles provoquent une forte activité dans la région mésencéphale du cerveau (midbrain area) ».

Donc, essayez quelque chose de nouveau et forcez-vous à une douce surcharge de votre cerveau pouvant ainsi apporter une spectaculaire amélioration de l’activité cervicale.

Gardez une trace de tout — en particulier dans la douche

Comme le suggère Austin Kleon, prendre un ordinateur portable (ou votre téléphone intelligent), ou un cahier de notes, partout avec vous allez et prenez des notes lorsque quelque chose vous viens à l’esprit. Ne vous attendez pas à ce que votre cerveau se souvienne de tout — donnez-lui un coup de main en notant les concepts ou idées importants que vous rencontrerez dans vos réflexions. Alors que vous faites cela, vous vous souviendrez de notes précédentes qui s’y rapportent (hey, vous faites déjà des connexions!) — et prenez également bien note de ces liens entre les points de connaissances.

Vous pouvez le faire même lorsque vous êtes sous la douche avec quelque chose comme « Acqua Notes ». La douche est un endroit particulièrement privilégié ou il a été prouvé qu’elle nous rend plus créatifs.

Révisez vos notes journalières, journalièrement — la méthode de Benjamin Franklin

La révision de vos notes peut souvent aider à vous permettre de plus facilement vous en rappeler lorsque vous en avez besoin. Lisez ce que vous avez pris en notes auparavant, et vous constaterez peut-être que depuis, vous avez ajouté plus de connaissances à votre répertoire, et que vous pouvez maintenant mieux vous connecter à vos anciennes notes!

En fait, cette habitude c’était l’un des secrets les mieux gardés de Benjamin Franklin. Chaque matin et chaque soir, il révisait sa journée en répondant à une simple question : « qu’est-je fais de bon aujourd’hui? ».

— –

sources

  1. http://www.fastcompany.com/3031994/the-future-of-work/the-secret-to-creativity-intelligence-and-scientific-thinking

références

  1. http://www.sciencedaily.com/releases/2010/02/100222161843.htm

  2. https://news.wustl.edu/news/Pages/24068.aspx

  3. http://en.wikipedia.org/wiki/Computational_creativity#Combinatorial_creativity

Une certaine distance face au conflit personnel peut favoriser un raisonnement sage et judicieux

Si l’on se trouve confronté à un dilemme (inter)personnel troublant, tel qu’un(e) conjoint(e) qui vous triche, vous pouvez réfléchir de manière plus judicieuse si vous le considérez comme le ferait un observateur extérieur, selon une étude.

Ces résultats sont les premiers à démontrer l’existence d’un nouveau type de biais cognitif que l’on entretient lorsqu’il s’agit du raisonnement sage et judicieux quant au dilemme concernant les relations interpersonnelles. Les chercheurs la nomment « biais du Paradox de Salomon », selon le célèbre roi qui était connu pour sa sagesse, mais qui échouait à prendre de « bonnes » décisions personnelles.

Les chercheurs de l’Université du Michigan ont demandé aux participants de l’étude, qui ont tous déclaré être dans une relation amoureuse monogame, de réfléchir sur un conflit relationnel. Ils ont été invités à vivement imaginer un scénario dans lequel leur partenaire ou le partenaire d’un ami avait été infidèle, et ont ensuite été invités à répondre à une série de questions sur ce scénario.

Les questions ont été conçues pour puiser dans les dimensions du raisonnement judicieux, comme la capacité à reconnaître les limites de ses propres connaissances, à la recherche d’un compromis, à prendre en compte les points de vue des autres, et à reconnaître les différentes manières dont le scénario pouvait se dérouler.

Les résultats des expériences indiquent que les participants qui ont été invités à raisonner sur le conflit relationnel d’un ami ont fourni des réponses plus judicieuses que ceux qui ont été invités à raisonner sur leur propre conflit relationnel.

Dans une seconde expérience, les scientifiques ont cherché à savoir si la distance personnelle (personal distance) peut faire une différence. La procédure est similaire à la première expérience, mais cette fois ils ont demandé explicitement aux participants de prendre soit une perspective à la première personne (« vous mettre dans cette situation ») ou une perspective à la troisième personne (« vous mettre dans les chaussures de votre ami ») lors du raisonnement sur le conflit.

Les résultats confirment ceux de la première expérience : les participants qui ont réfléchi à leur propre relation conflictuelle en fonction d’une perspective à la première personne ont montré un raisonnement sage moins judicieux que ceux qui ont réfléchi au conflit relationnel d’un ami.

Mais prendre le point de vue d’un étranger semblait éliminer cette distorsion : les participants qui ont pensé à leur propre relation de conflit à travers les yeux d’un ami étaient tout aussi sages que ceux qui pensaient au conflit d’un ami.

Fait intéressant; les résultats d’une troisième expérience où l’on a comparé, les données de jeunes adultes (20-40 ans) à celle d’adultes plus âgés (60-80 ans) ont indiqué que, contrairement à l’adage affirmant que la sagesse s’acquiert avec l’âge, les participants plus âgés étaient plus sages dans le raisonnement sur leur propre relation conflictuelle que leurs homologues plus jeunes.

Ensemble, ces résultats suggèrent que la distanciation face à un problème personnel en l’abordant comme un étranger peut être la clé de raisonnement sage et judicieux.

Ainsi, ces chercheurs sont les premiers à pouvoir démontrer qu’il existe un moyen simple d’éliminer ce biais dans le raisonnement en parlant de soi-même à la troisième personne et en utilisant notre nom lors de la réflexion sur un problème relationnel. Ainsi, lorsque nous employons cette stratégie, nous sommes plus susceptibles de réfléchir sagement et judicieusement sur une question, un problème ou un litige.

— –
source

La tablette fait son entrée à l’école … Une frénésie justifiée ?

Nous assistons actuellement à une frénésie mondiale autour de l’usage de la tablette à l’école. Selon le journal Le Monde, en matière d’équipement des écoles, les établissements américains ont déjà dépensé 5 milliards de dollars. La Grande-Bretagne, elle, a dépensé 194 millions de livres (226 millions d’euros) pour offrir 300 000 machines à ses élèves. De son côté, le District scolaire de Los Angeles, a signé un contrat de 30 millions de dollars avec Apple pour équiper 47 de ses écoles primaires d’iPad cet automne. Depuis cette rentrée scolaire, la Thaïlande a doté chaque élève d’un ordinateur à l’entrée du CP et un million d’enfants sont équipés d’une ardoise tactile qui est devenue l’instrument de base du cartable de l’écolier. Si 80 % des Français jugent l’utilisation des tablettes tactiles à l’école utile, selon le 7e baromètre trimestriel de l’économie numérique de la Chaire économique de l’université Paris-Dauphine, cette frénésie n’est-elle qu’un effet de mode ou bien la tablette doit-elle s’imposer à l’école pour devenir désormais un outil personnel d’apprentissage incontournable ? Apprend-on mieux avec une tablette ?

Des sciences cognitives à la salle de classe

Melhuish et Falloon (2010) identifient cinq affordances spécifiques ou des «avantages» liés à l’utilisation des tablettes : l’accessibilité, l’omniprésence, une pédagogie constructiviste en contexte, la connectivité, des expériences personnalisées. La tablette est un outil qui peut associer tous les médias. Pour Monique Linard, l’interactivité des multimédias favorise les médiations cognitives et offre un éventail très riche de fonctions techniques capables d’accompagner et de stimuler efficacement les nombreux aspects de l’interaction et de l’apprentissage humain, à condition de mieux comprendre cette interaction et de prendre en compte les conditions de sa réussite. De même, les professeurs Robert Brien, Jacqueline Bourdeau et Johanne Rocheleau insistent sur l’importance de l’interactivité lors de l’acquisition de nouvelles connaissances et de nouvelles compétences et soulignent l’utilisation des systèmes multimédias interactifs comme support à l’apprentissage. Mais qu’en est-il concrètement dans les classes ? Dans le cadre du projet académique du développement des usages pédagogiques du numérique 2012-2013, les 6 départements de l’académie Orléans-Tours se sont mobilisés autour des tablettes à l’école primaire et ont essayé de répondre à la question.

L’objectif a été de développer des projets d’usages de la tablette à l’école primaire, de suivre les pratiques des enseignants impliqués, d’évaluer les usages des tablettes au service des apprentissages. Les IEN-TICE qui pilotent les groupes départements TICE se sont tous mobilisés et ont travaillé en interaction étroite avec les IEN maternelle, les formateurs TICE, les conseillers pédagogiques et les équipes enseignantes volontaires. Un rapport académique rend compte du protocole d’observation, des situations d’apprentissage mises en place et soutenues par des tablettes. Il interroge les effets de l’usage des tablettes tactiles en contexte scolaire sur les élèves mais aussi sur les enseignants. Il nous donne de premiers résultats dans différents contextes.

Quelles plus-values pour les apprentissages ?

Avec cet outil nomade, nous avons des potentialités multimédia à portée de main. La tablette peut être à la fois une banque d’images, un appareil photo, un laboratoire de langue et c’est un outil qui aide l’enseignant à médiatiser son enseignement. Les observations nous montrent que l’élève peut s’enregistrer, s’écouter, se corriger. et les applications transversales comme « book creator » permettent toutes sortes de projets de classe comme le cahier de vie en maternelle, ou la création de parcours en histoire de l’art. Si la tablette est avant tout une porte ouverte vers la création, c’est aussi un outil « boîte à mémoire » qui permet aux élèves de revoir à souhait les réalisations faites en classe. La construction progressive des notions en situation en est facilitée. C’est aussi un outil tactile à haute valeur cognitive qui permet à l’élève de s’exercer et de se corriger. L’enseignant interagit avec l’effort positif et la motivation des élèves, leur fournissant du temps d’apprentissage vraiment efficace et présentant des situations didactiques et pédagogiques pertinentes et stimulantes. Une façon d’engager les élèves dans leurs apprentissages !

Un impact positif sur les apprentissages peut être noté dans de nombreux champs disciplinaires comme en lecture. Dehaene dans son ouvrage « des sciences cognitives à la salle de classe » nous précise qu’il existe de nombreux outils numériques pour faciliter l’apprentissage de la lecture et parfois beaucoup trop de temps de l’enseignement est alloué dans les écoles à la présentation de concepts qui pourraient être acquis au moyen d’un matériel didactique de qualité et adapté. Encore faut-il connaître les potentialités des outils, les rendre accessibles et mettre en avant leurs apports pour les apprentissages. Pour mieux aborder la « chimie » du code alphabétique, l’usage de la tablette en est un exemple. Maria Montessori serait certainement heureuse de pouvoir découvrir le « Qbook », livre numérique développé aux USA qui combine le format ebook avec l’interactivité d’un smartphone en offrant une approche kinesthésique de la lecture et permettant aux élèves de mieux appréhender le code alphabétique. Elle nous inventerait une pédagogie Montessori 2.0 ! Comme je l’ai abordé lors de mon intervention au salon du futur du livre, les livres et albums interactifs avec toutes leurs fonctionnalités peuvent faciliter la compréhension des textes littéraires dans certaines conditions.

Avec la tablette, il est possible de proposer de nouvelles ambitions intellectuelles pour les élèves en développant l’individualisation, et en renouvelant les modes d’organisation dépassant l’espace-temps de la classe qui facilitent les apprentissages “dans” et “hors les murs” de l’école. La réalité augmentée au travers d’une tablette tactile peut enrichir les documents imprimés d’éléments virtuels. Les enseignanst peuvent utiliser les QR Codes pour enrichir les supports de cours destinés aux élèves avec des documents multimedia. Les enfants peuvent les consulter grâce à une application spécifique installée sur les tablettes en classe. Une occasion d’apporter des aides pour les leçons à mémoriser ou pour rendre les sup¬ports de cours plus ludiques ! Il suffit d’insérer des QR Codes pour géné¬rer du contenu aug¬menté sur les tablettes.

Quels changements pour l’enseignant ? La tablette permet-elle d’abattre les murs de la classe

Les ressources numériques sont au cœur du métier de l’enseignant comme je l’ai souligné lors mon intervention aux journées nationales de l’innovation (6). L’usage de la tablette doit s’inscrire dans une réflexion plus large qui prend en compte le rôle majeur du maître et de sa place pour la médiatisation de son enseignement. Avec les tablettes, des environnements personnels d’apprentissage peuvent être développés pour que l’élève puisse travailler en autonomie, s’exercer .

Pour relever ce défi, différents chantiers en perspective se profilent à l’horizon ;

  • si les enseignants notent des avantages en terme de « flexibilité pédagogique » avec la tablette, on peut noter une augmentation de la charge de travail en amont pour le choix du contenu adapté dans un contexte donné. Un collecteur de ressources et d’applications partageables pourrait être envisagé au niveau d’une académie pour aider les enseignants à mettre en place une pédagogie efficace avec les tablettes.
  • l’enseignant a besoin de créer ou de trouver du contenu adapté pour développer une pédagogie inversée propice aux apprentissages qui lui permet de redéfinir son taux de présence auprès de ses élèves pour les guider et les accompagner.
  • les enseignants qui utilisent les tablettes sont amenés à réfléchir sur leurs pratiques mais comme le précise Laurillard en 2007, la construction et l’utilisation de différents environnements numériques nécessitent des compétences et la connaissance des affordances pédagogiques et techniques. La formation des enseignants autour des tablettes est cruciale.
  • il nous faut assurer la mobilisation de tous les acteurs autour de cette problématique des usages de la tablette et les corps d’inspection, dans leurs missions d’impulsion, d’accompagnement et d’expertise ont un rôle majeur à jouer.
  • les collectivités doivent être associées à la réflexion sur le problème de l’équipement des écoles.

Pour conclure : Panacée ou pas panacée ?

Au-delà des phases de prise en main et des considérations techniques qui sont à présent connues et qui sont chronophages, il s’agit bien désormais d’engager des pratiques pédagogiques innovantes s’appuyant sur le potentiel cognitif des tablettes tactiles. Comme le précise l’UNESCO dans son rapport (2013, p 9), « la technologie mobile n’est pas et ne sera jamais la panacée éducative. Mais elle est un outil puissant et encore trop souvent ignoré, un outil parmi d’autres pour l’éducation ». Les potentialités pédagogiques ne tiennent pas uniquement dans une tablette mais dans la façon dont on s’en sert. La place et le rôle du maître restent essentiels. L’accompagnement des équipes est nécessaire et les inspecteurs jouent un rôle important avec les équipes de formateurs. Les usages de ces outils numériques peuvent se construire collectivement par une communauté d’enseignants qui peuvent partager leurs observations, leurs réussites et comme disait Jean-Pierre Astolfi : « Il faut encourager et capitaliser toutes les tentatives, même modestes, pour accompagner un changement de paradigme didactique qui se cherche encore ». Avec les tablettes ne peut-on pas générer ces « révolutions minuscules » ou ces « petits moments magiques », qui bousculent les certitudes, qui « boostent » la réflexion des élèves, et qui permettent aussi une réflexion des enseignants sur les différentes façons d’apprendre ? Ces moments de manipulation via ces interfaces numériques à haute valeur cognitive ne sont-ils pas une façon de faire vivre concrètement dans l’action, l’expérience de ce qu’un savoir en construction produit comme surprise et inspiration ? Avec tous les apports du numérique, nous pouvons repenser ici à ce que Louis Legrand appelait une « pédagogie de l’étonnement » et Georges Snyders « la joie à l’école » !

— –

texte reproduit : Le Café Pédagogique, le lundi 04 novembre 2013, http://www.cafepedagogique.net/lexpresso/Pages/2013/11/04112013Article635191344747035425.aspx#.U6LEzLZx4ZI.twitter

La maltraitance lors de l’enfance s’avère associée à des anomalies de la substance grise cérébrales : l’abus pourrait donc conduire à des dommages permanents au cerveau

Une étude internationale a analysé l’association entre la maltraitance infantile et le volume de matière grise cérébrale qui s’avère responsable du traitement de l’information dans le cerveau. Les résultats ont révélé un important déficit dans diverses régions du cerveau qui se développe tardivement, et ce, comme suite à l’abus lors de l’enfance.

Selon l’Organisation mondiale de la Santé (OMS), la maltraitance des enfants est définie comme toutes les formes de mauvais traitements physiques et/ou affectifs, de sévices sexuels, d’abandon ou de négligence, ou d’exploitation commerciale ou autre, entraînant un préjudice réel ou potentiel pour la santé de l’enfant, sa survie, son développement ou sa dignité, et ce, dans le contexte d’une relation de responsabilité, de confiance ou de pouvoir.

Jusqu’à présent, les résultats d’études de neuro-imagerie structurelles qui ont été menées se sont avérés contradictoires. Une nouvelle étude, publiée dans l’American Journal of Psychiatry et menée par des experts du Collège Royale de Londres et le FIDMAG, Sisters Hospitallers Foundation for Research and Teaching, a fourni de nouvelles conclusions à cet effet.

La maltraitance infantile agit comme un sévère facteur de stress qui produit une cascade de changements physiologiques et neurobiologiques qui conduisent à supporter des modifications dans les structures du cerveau.

Afin de comprendre les anomalies les plus robustes du volume de la matière grise, l’équipe de recherche, qui inclue l’Université nationale de Singapour, a effectué une méta-analyse des études morphométrique fondée sur le voxel (EMV)[a] de la maltraitance des enfants.

L’EMV est une technique d’analyse de la neuro-imagerie qui permet l’étude des différences focales de l’anatomie du cerveau comparant la résonance magnétique cérébrale de deux groupes de personnes.

L’étude comporte douze groupes différents de données constitués d’un total de 331 personnes (56 enfants ou adolescents et 275 adultes) ayant des antécédents de maltraitance infantile, et plus de 362 personnes qui n’ont pas été exposés à la maltraitance (56 enfants ou adolescents et 306 adultes).

Afin d’examiner les régions cérébrales comportant plus ou moins de volumes de matière grise chez les personnes maltraitées, une méthode de neuro-imagerie méta-analytique en trois dimensions a été utilisée nommée « signed differential mapping » (SDM), développée expressément par Joaquim Radua, chercheur au FIDMAG.

Anomalies qui ne sont pas liés aux médicaments

Par rapport à des sujets témoins, les personnes exposées à la maltraitance infantile présentaient significativement de plus petits volumes de matière grise: orbitofrontal/gyrus temporal supérieur droit s’étendant à l’amygdale, l’insula, et para-hippocampique et gyrus temporal moyen et dans le gyrus frontal inférieur gauche et post-central.

Les déficits orbitofrontal-temporelle-limbique droit et les régions frontal inférieur demeurent lors d’une analyse d’un sous-groupe de participants non traités par la médication, ce qui indique que ces anomalies ne sont pas liées aux médicaments, mais à de mauvais traitements.

D’autre part, l’on a pas trouvé d’anomalies dans le gyrus post-centrale gauche que chez les personnes âgées maltraitées. Ces résultats montrent que les anomalies les plus constantes de la matière grise chez les personnes exposées à la maltraitance infantile se trouvent dans cortex préfrontal ventro-latérale et les régions limbiques-temporelle.

Ces régions se développent relativement tardivement, c’est à dire après la maltraitance et le dysfonctionnement pourrait expliquer le déficit cognitif et affectif des personnes ayant des antécédents d’abus lors de l’enfance.

Ces résultats montrent les graves conséquences environnementales adverses des sévices lors de l’enfance sur le développement du cerveau.

Les chercheurs espèrent que les résultats de cette étude aideront à réduire les risques environnementaux lors de l’enfance et à développer des traitements pour stabiliser ces altérations morphologiques.

— –

sources

  1. http://www.eurekalert.org/pub_releases/2014-06/f-sf-cma061814.php

  2. Lim, L., Radua, J., & Rubia, K. (2014). Gray Matter Abnormalities in Childhood Maltreatment: A Voxel-Wise Meta-Analysis. American Journal of Psychiatry, http://ajp.psychiatryonline.org/Article.aspx?ArticleID=1866348.

références

  1. http://fr.wikipedia.org/wiki/Voxel

  2. http://en.wikipedia.org/wiki/Brain_morphometry

  3. http://www.fidmag.com/fidmag/index.php

notes

  1. Brain morphometry is a subfield of both morphometry and the brain sciences, concerned with the measurement of brain structures and changes thereof during development, aging, learning, disease and evolution. Since autopsy-like dissection is generally impossible on living brains, brain morphometry starts with noninvasive neuroimaging data, typically obtained from magnetic resonance imaging (or MRI for short.

Le visage en colère appuie les menaces verbales, les faisant paraître plus crédible

Nous avons tous été témoins d’un furieux regard, qu’il s’agisse d’une personne en position d’autorité, d’un enseignant, d’un parent, d’un patron, ou d’une personne significative, voire même d’étrangers. Ces expressions de colère semblent renforcer l’efficacité de menaces sans agression réelle, selon une étude publiée dans Psychological Science, une revue de l’Association for Psychological Science.

Les résultats de la recherche montrent que les expressions de colère amènent plus de poids à la menace du négociateur à quitter la table de négociation si ses exigences ne sont pas répondues, conduisant ainsi l’autre partie en négociation à offrir plus d’argent que ce qu’ils auraient autrement.

Or, nos expressions faciales sont relativement plus difficiles à contrôler que nos mots. Parce qu’ils sont plus difficiles à contrôler, ces expressions servent de « signe extérieur » crédible des motivations d’une personne. De cette manière, les expressions faciales peuvent supporter le poids de nos mots.

Chaque partie impliquée dans une négociation vise à obtenir exactement ce qu’ils veulent, mais ils ont aussi un intérêt à faire en sorte que leurs demandes sont considérées comme crédibles pour que les négociations ne se désagrègent pas.

Les chercheurs ont émis l’hypothèse que les expressions de colère peuvent prêter à cette crédibilité, en aidant à sauvegarder les menaces de négociateurs, aidant ainsi à appuyer la menace de quitter la table des négociations si elles ne reçoivent pas ce qu’ils veulent. Mais, ils ont émis l’hypothèse, que les expressions de colère n’apportent aucune crédibilité supplémentaire aux demandes qui semblent déjà justes.

Dans une étude menée en ligne, 870 participants ont été informés qu’ils participeraient à un jeu de négociation dans laquelle certains participants, agissant comme « proposant », décideraient de la manière de diviser une somme de 1,00 $ avec un autre participant, le « répondant ». Chaque personne recevrait la somme spécifiée si le répondant acceptait la scission qui avait été offerte, mais ni l’un ni l’autre ne recevrait de l’argent si le répondant rejetait cette scission proposée.

Avant de produire leurs offres, on montrait à chaque proposant une « menace » qui soi-disant venait du répondant. En réalité, le répondant était « joué » par la même actrice, qui essentiellement était chargée de créer des expressions faciales spécifiques dans des clips vidéo. Un clip la monterait produire une expression faciale neutre, tandis qu’un autre la monterait produire une expression de colère.

Les clips étaient accompagnés d’une demande écrite, soit pour une scission égale à 50 % ou soit par une scission supérieure de 70 %, ce qui laissait seulement 30 % au proposant.

Après avoir vu [et perçu] la menace, les proposant sont invités à indiquer leur offre.

Les données ont révélé que l’expression du visage de répondant a eu un impact sur le montant offert par proposant, mais seulement quand le répondant exigeait une plus grande part.

Plus spécifiquement, les proposant ont offerts plus d’argent si le répondant avait montré une expression de colère par rapport à une expression neutre, mais seulement lorsque le répondant exigeait une scission 70%/30% lors de la demande.

L’expression du visage n’avait aucune influence sur les offres des proposant lorsque le répondant exigeait une part égale, sans doute parce que la demande avait d’amblé été considéré comme crédible.

Fait intéressant, les proposant ont offert de plus grandes quantités en réponse aux expressions faciales de colère par rapport aux expressions neutres, même lorsqu’on leur disait qu’ils appartenaient à un « répondant typique », plutôt que d’un partenaire spécifique.

Les chercheurs ont été surpris de la robustesse de l’effet, malgré le contexte expérimental, car l’expression de colère avait délibérément été posée plutôt que spontanément. Ainsi, les chercheurs avaient été surpris de constater que l’expression avait quand même eu un effet, même si elles avaient été délibérément et littéralement truquées.

Les résultats revêtent une grande pertinence pour toutes sortes de négociations. Ainsi, l’idée que les offres de négociation sont médiées en partie par les émotions et les motivations montre toute l’importance des émotions et leur expression lors de toute situation de négociation. Ceci incluant, non seulement les situations de répartition des ressources, mais également celles concernant l’achat d’une voiture ou d’une maison, et/ou lorsque l’on applique des mesures disciplinaires aux étudiantes ou aux enfants.

— –

sources

  1. http://www.eurekalert.org/pub_releases/2014-06/afps-afb060914.php

  2. Reed, L. I., DeScioli, P., & Pinker, S. A. (2014). The Commitment Function of Angry Facial Expressions. Psychological Science, 0956797614531027., http://pss.sagepub.com/content/early/2014/06/03/0956797614531027.abstract

L’ostracisme en milieu de travail serait plus pénible que le harcèlement!!!

Être ignorées, exclues, ou négliger au travail inflige plus de dégâts sur notre santé physique et mentale que le fait d’être harcelé, selon ce que montre une nouvelle étude.

Des chercheurs canadiens ont constaté que tandis que la plupart des gens considèrent l’ostracisme au travail plus bénin que le harcèlement, cette exclusion est en fait plus susceptible de stimuler l’insatisfaction au travail, les problèmes de santé, et les démissions. L’équipe de recherche à théoriser que l’ostracisme est une expérience plus commune au travail que le harcèlement,et on voulait alors voir comment les employés perçoivent ces conditions.

L’équipe a donc mené une enquête en ligne sur Internet de travailleurs américains à partir d’un éventail d’industries. On a présenté aux participants une série de comportements et on les a invités à évaluer chacun d’eux. Plus précisément, on leur a demandé si chacun des comportements leur semblait socialement inapproprié et psychologiquement préjudiciable. Ils ont également évalué la mesure avec laquelle chaque action serait officiellement punie dans leur lieu de travail.

Les participants ont systématiquement évalué des actions telles que : « l’action de ne pas tenir compte d’autrui » ou « l’action de ne pas prêter attention à autrui », l’action d’exclusion, l’action d’entretenir un point de vue défavorable sur autrui, et l’action d’empêchement (prohibited); plutôt que les actions telles que : l’action de dénigrer, l’action de taquiner, ou l’action de commérer.

On est moins susceptible d’être vu comme une mauvaise personne lorsque l’on ignore ou l’on exclut autrui que lorsque l’on insulte ouvertement, l’on crie, ou que l’on menace. En outre, on est moins susceptible d’être remarquée ou déclarée pour « l’ostracisation » d’autrui et on peut plus facilement faire valoir un manque d’intention (par exemple, être trop occupé pour répondre, en oubliant d’inclure une personne) ».

Ensuite, les chercheurs ont mené une autre enquête sur 1300 travailleurs à temps plein, en leur demandant d’évaluer dans quelle mesure ils avaient vécu certaines formes de traitement, allant de l’évitement à la menace de violence. Les participants ont également évalué leur sentiment d’appartenance, le bien-être personnel, et les attitudes au sein de leurs lieux de travail.

Comme ils ont prédit, l’ostracisme fut une expérience plus commune que l’était le harcèlement. Plus de 70% des répondants ont dit qu’ils avaient subi une forme d’exclusion dans les six mois précédents, alors que seulement 48% ont déclaré avoir été victime de harcèlement ou d’intimidation au cours de cette période. Qui plus est, l’ostracisme était plus susceptible d’éteindre le sentiment d’appartenance des personnes et de leur implication envers l’organisation et l’engagement par rapport au harcèlement.

Les chercheurs ont également pris une enquête sur l’emploi faite par une université canadienne qui comprenait les informations sur le sentiment d’isolement et le harcèlement au travail et ont comparé le taux de roulement trois ans après que l’enquête avait été menée. Ils ont constaté que, par rapport aux victimes de harcèlement, les personnes qui ont déclaré se sentir mis à l’écart étaient significativement plus susceptibles d’avoir souffert de problèmes de santé et d’avoir finalement quitté leur emploi.

Les chercheurs ne cherchent en aucune façon à minimiser les dommages psychologiques créés par le harcèlement au travail. Mais ils affirment que les gestionnaires devraient se concentrer sur la prévention de l’ostracisme dans la même mesure qu’ils se battent contre les formes les plus manifestes de mauvais traitements capturés par le harcèlement.

Non seulement, l’impact de l’ostracisme ne semble donc pas être unique, mais plus fort, que l’impact du harcèlement.

— –
sources

  1.  http://www.psychologicalscience.org/index.php/news/minds-business/workplace-ostracism-more-distressing-than-harassment.html

 

Inequality for all : Le cycle de la pauvreté s’avère psychologique, non pas seulement financier

La pauvreté demeure l’un des problèmes les plus pressants auxquels le monde entier doit faire face; les mécanismes par lesquels la pauvreté se pose et se perpétue, cependant, restent encore mal compris.

Plus de 1,5 milliard de personnes dans le monde vivent avec moins de 1 dollar par jour (parité de pouvoir d’achat en dollars, décembre 2013). Ce manque de moyens financiers a de lourdes conséquences : en Afrique, la personne moyenne meurt 21 ans plus tôt qu’en Europe, un tiers de la population est analphabète, et un enfant sur trois souffre d’un développement de croissance retardée. La pauvreté économique signifie vivre dans la misère, mourir précocement et élever des enfants qui font face à des perspectives similaires.

Lorsque l’on pense à ceux qui sont moins fortunés, l’on dit souvent que l’on devrait se placer dans leurs souliers.

Mais la recherche suggère que cela s’avérerait pourtant difficile, car être pauvre affectent non seulement les circonstances ainsi que l’environnement d’une personne, mais également, et plus fondamentalement, sa manière de penser et prendre des décisions. Dans un nouveau document de synthèse dans la revue Science, faisant partie d’un numéro spécial sur la « science de l’inégalité », deux chercheurs détaillent le cycle psychologique ainsi créé lorsque l’on vie dans la pauvreté rendant ainsi d’autant plus difficile de quitter cette situation qui s’avère ainsi pernicieuse.

Un nombre croissant d’études montrent aujourd’hui que la pauvreté rend les gens plus stressés. Ce stress — définie comme la réaction d’un organisme à des exigences environnementales dépassant sa capacité d’adaptation ou régulatoire — génère une « aversion au risque » chez ces personnes, ce qui les rend « myope » (perspective à court terme), dans le sens où ils sont plus susceptibles de prendre des décisions qui leur profitent sur le moment présent que sur le long terme (perspective à long terme). Cela peut donc favoriser une certaine limitation sur ce que vous êtes prêt à « investir » pour l’avenir, en termes de soins de santé, d’éducation, et ainsi de suite.

Ainsi donc, la pauvreté peut, en particulier, de réduire la volonté à prendre des risques et à renoncer au revenu courant en faveur des revenus futurs plus élevés. Cela peut se manifester par une faible volonté d’adopter de nouvelles technologies et à la faiblesse des investissements dans les résultats à long terme tels que l’éducation et la santé, qui peut ainsi diminuer les revenus futurs. Ainsi, la pauvreté peut favoriser des comportements qui rendent plus difficile à échapper à la pauvreté.

Deux mises en garde s’imposent d’emblée. Premièrement, la pauvreté se caractérise, non seulement par des revenus insuffisants, mais également par des institutions dysfonctionnelles, l’exposition à la violence et la criminalité, le manque d’accès aux soins de santé, et une foule d’autres obstacles et leurs inconvénients. Cette diversité complique un compte unique et simple de la relation entre la pauvreté et la psychologie. Cependant, une première étape utile peut être faite en mettant l’accent sur la pauvreté matérielle comme un puissant élément central et annonciateur des propriétés auxiliaires de la pauvreté, et il n’est pas question ici de suggérer que les pauvres sont à blâmer pour leur pauvreté. Bien au contraire, un environnement de pauvreté dans lequel on nait peut déclencher des processus qui renforcent la pauvreté. Sur ce point de vue, n’importe qui peut être pauvre si ce n’était pas par le fait de certaines coïncidences environnementales.

Les personnes vivant dans la pauvreté, en particulier dans les pays en développement, se sont montré, et ce répétitivement, à entretenir une aversion au risque et à être plus susceptibles d’actualiser les rendements à venir que les individus les plus riches ; les ménages plus aisés ou ceux dont les revenus annuels sont supérieurs affichent également des niveaux inférieurs à l’aversion au risque.

Haushofer et son collègue, Ernst Fehr de l’Université de Zurich, ont passé en revue une longue liste d’études qui révèlent comment cette relation entre le stress et la prise de décision affecte les pauvres. Pris ensemble, la relation crée une boucle de rétroaction qui perpétue le cycle de la pauvreté : psychologiquement, non pas seulement financièrement, les pauvres ont du mal à prendre des risques sur le long terme et ainsi investir dans leur avenir, et donc restent pauvres et plus stressés.

Pour Haushofer, ce qui est le plus surprenant, ce n’est pas la preuve en elle-même, mais combien la preuve contredit les perceptions du public au sujet de la pauvreté. Beaucoup de gens pensent et croient que les pauvres sont heureux de vivre une vie simple et sans tracas. C’est tout simplement faux, selon Haushofer. Les données ne supportent pas du tout ces affirmations. De même, les gens ont souvent le réflexe de blâmer les pauvres parce qu’ils prennent de mauvaises décisions, et ont ainsi peu d’empathie pour leurs difficultés psychologiques. En réalité, la situation de la pauvreté elle-même exerce « un énorme pouvoir » sur les décisions que ces personnes font.

Bien que les chercheurs n’ont peu ou pas de réponse, ils en appellent à ce que plus d’attention soit accordée à l’amélioration des niveaux de stress et du bien-être psychologique des pauvres en terme de stratégie visant à lutter contre la pauvreté elle-même. Si cette boucle de rétroaction entre la pauvreté, le stress et la prise de décision existe, alors la prochaine étape que nous établir est évidemment de le « casser ».

— –

sources

  1. Leber, Jessica (2014). “The Cycle Of Poverty Is Psychological, Not Just Financial”, http://www.fastcoexist.com/3030884/the-cycle-of-poverty-is-psychological-not-just-financial
  2. Haushofer, J., & Fehr, E. (2014). On the psychology of poverty. Science, 344(6186), 862-867, http://www.sciencemag.org/content/344/6186/862.full.

 

Comment produire une première bonne impression (selon la science)

Peut-on vraiment juger un livre à sa couverture? Lorsqu’il s’agit de faire jugements rapides sur autrui, il s’avère que nous pouvons être assez bons pour exactement faire cela.

Nous avons tous entendu de l’expression truisme (une évidente Vérité) : ainsi, « vous ne pouvez faire qu’une première impression ». Or c’est vrai — et ces impressions peuvent s’avérer encore plus puissantes que nous l’imaginions.

Nos cerveaux saisissent un grand nombre de signaux verbaux et non verbaux presque instantanément quand nous rencontrons quelqu’un (ou tout simplement lorsque nous regardons une photo d’eux) pour calculer de puissantes impressions qui sont souvent aussi précises que les impressions que nous formons sur des périodes de temps plus longues.

La recherche a montré que nous pouvons faire des premières impressions en quelques fractions de seconde, et non pas seulement lors de rencontre en personne. Nous pouvons également faire des premières impressions assez précises tout simplement sur la base du constat de photos sur Facebook, et les femmes peuvent dire si un homme sera un bon père tout simplement en le regardant.

Qu’il s’agisse d’un entretien d’embauche, un premier rendez-vous, ou tout simplement d’une introduction d’un ami d’ami, les premières impressions sont incroyablement puissantes et ils peuvent être presque impossibles à inverser. Mais cela ne s’avère pas totalement désespéré : savoir comment ces jugements rapides fonctionnent peut vous donner une meilleure idée sur le genre d’impression que vous réaliser.

Voici ce que vous devez savoir sur les premières impressions — et comment en réaliser de favorables.

Elles se produisent à une vitesse incroyable

Une étude de l’Université de Princeton en 2006[2] a révélé que cela prend seulement un dixième de seconde pour porter un jugement sur une personne en fonction de leur apparence faciale. Les jugements — sur les mesures d’attractivité, de sympathie, de fiabilité, de compétence, et d’agressivité — faites dans ce laps de temps ne sont pas significativement différents de ceux réalisés sans contraintes de temps. En fait, la confiance de certains jugements diminuait plus le temps d’exposition s’accroit.

Les chercheurs ont constaté que l’attractivité et la fiabilité sont les qualités que nous jugeons le plus vites.

Et elles sont très difficiles à changer

Une recherche[3] a trouvé que les premières impressions sont si puissantes qu’elles peuvent même l’emporter sur des faits indéniables et un savoir préalablement acquis. Une récente étude a montré que lorsque l’on instruit une personne de l’orientation sexuelle d’une autre personne, les participants ont quand même identifié cette dernière comme étant homosexuels ou hétérosexuels sur la base de leurs premières impressions et en fonction de ce dont il avait l’air, et ce, indépendamment du fait que ce jugement contredit l’information préalablement fournie. Alors que la production de rapides premières impressions relèvent d’une réponse cognitive naturelle, ce genre de jugements instantanés peut, bien sûr, conduire à des stéréotypes.

Nous jugeons ainsi les livres par leurs couvertures, et nous ne pouvons pas en faire autrement[3]. Toutefois, avec un certain effort, nous pouvons la surmonter, dans une certaine mesure, mais nous sommes ainsi continuellement confrontés à la tâche de nous corriger.

Un certain nombre de facteurs jouent lors de la formation de nos premières impressions

Quand il s’agit d’entretiens d’embauche ou d’importantes introductions, la manière de vous habiller et la fermeté de votre poignée de main pourraient faire une grande différence dans la première impression que vous faites. Une étude publiée en 2009 dans la revue Personality et Social Psychology Bulletin à constater qu’à la fois le style vestimentaire et la posture[4] ont joué un rôle important dans la perception initiale, tandis qu’une autre étude a montré que la force de poignée de main a également affecté les premières impressions. Les chercheurs ont ainsi constaté qu’une poignée de main faible peut donner l’impression de la passivité — alors, assurez-vous que vous avez une prise ferme.

Le ton et la teneur de votre voix jouent également un rôle important dans la détermination du type de première impression que vous faites sur autrui. Une étude écossaise a constaté que les participants se sont largement accordées, sur la base de l’écoute de la voix d’un sujet, sur un certain nombre de jugements concernant la personnalité, y compris la fiabilité, l’agressivité, et la chaleur.

Les psychologues ont ainsi confirmé qu’effectivement les gens effectuent des jugements instantanés lorsqu’ils entendent la voix d’une personne. Et ces jugements sont portés sur de très minces preuves.

Pour faire une bonne première impression, faite-le en personne

Une série études[3] de l’Université de la Colombie-Britannique ont montré que les premières impressions sont formées différemment en personne comparativement lorsqu’ils sont faits en ligne (via internet) ou par vidéo. La recherche sur plus de 1000 participants a trouvé que les impressions en personne et par vidéo étaient tout aussi précises pour juger de diverses mesures de la personnalité comme l’extraversion et l’amabilité. Cependant, la formation des impressions dites passives basées sur des vidéos a ont été très largement plus négative que les impressions faites sur la base de la rencontre en personne. Une autre étude[3] a révélé que les premières impressions faites sur la base de photos Facebook sont tout aussi précises que les impressions en personne, mais ils ont tendance à être beaucoup plus négatifs.

Si vous voulez faire une bonne impression, il est essentiel que cela se fasse en personne. Plus les impressions s’avèrent passives, plus elles sont sensiblement plus négatives [3].

Il y a un trait que nous valorisons particulièrement lorsqu’il s’agit de premières impressions

Nous apprécions la fiabilité par rapport à la confiance lors de la formation des impressions, créant ainsi des impressions plus positives sur ceux que nous jugeons dignes de confiance. Et ce jugement représente une grande partie de l’impression que nous formons.

Amy Cuddy, socio-psychologue, a expliqué à Wired[6] qu’il y a beaucoup de choses que nous pouvons faire afin d’établir un sentiment de confiance dès le départ : l’une d’entre elles consiste à laisser l’autre personne parler le premier ou lui laisser toute la place en premier. Vous pouvez simplement le faire en lui posant une ou plusieurs questions. Je pense que les gens font l’erreur, en particulier dans les milieux d’affaires, de penser que tout est question de négociation. Ils se disent : « Je ferais mieux d’abord d’occuper toute la place pour que je puisse être “en charge” ou “le boss” de ce qui se passe ». Le problème, c’est que vous ne rendez pas autrui chaleureux envers vous. La « chaleur » relève vraiment à amener l’autre personne à se sentir comprise. Ils veulent savoir que vous les comprenez. Et le faire s’avère incroyablement désarmant.

— –
sources

  1.     How To Make The Perfect First Impression (According To Science)
  2.     http://www.huffingtonpost.com/2014/05/30/the-science-and-art-of-fi_n_5399004.html?ncid=txtlnkusaolp00000592
  3.     http://psych.princeton.edu/psychology/research/todorov/pdf/Willis&Todorov-PsychScience.pdf
  4.     http://www.sciencedaily.com/releases/2014/02/140214111207.htm
  5.     http://www.apa.org/gradpsych/2012/11/first-impressions.aspx
  6.     http://news.sciencemag.org/brain-behavior/2014/03/secret-making-good-first-impression
  7.     http://www.wired.com/2012/11/amy-cuddy-first-impressions

[DRAFT] De la plutocracie ; de la démocratie en péril et du capitalisme

LE ROLE DE L’ÉTAT : AVENIR DE LA PROTECTION SOCIALE EN CONTEXTE DE MONDIALISATION

Does the needs of the many outways the need of the few, or the one?

Condensation de la richesse et Guerre de l’emploi

Ainsi donc, peut-on laisser une entité groupale « clique de riches » dicter les politiques publiques et sociales du Québec alors que ceux-ci sont contre l’intervention de l’état me semble contradictoire et capricieux? Cette clique serait-il le témoignage de la concentration de la richesse (ou condensation de richesse), processus par lequel, dans certaines conditions, la richesse nouvellement créé a tendance à se concentrer entre les mains de personnes ou des entités déjà-riches. Ceux qui détiennent la richesse ont les moyens d’investir dans de nouvelle source de richesse ou autrement utiliser l’accumulation de la riche se comme levier, étant ainsi bénéficiaire de la nouvelle richesse.

Outre les super-riches, principalement deux groupes font la manchette : les opérateurs financiers (officier corporatifs) et les dirigeants d’entreprise[*]. En plus de leurs salaires directs, ils obtiennent toutes sortes d’avantages indirects : des primes, des actions, des options d’achat d’actions, des retraites en or. Il agit d’un phénomène de société qui touche non seulement des financiers et des dirigeants d’entreprise, mais aussi près d’un million et demi de cadres supérieurs, de professionnels, d’athlètes et d’artistes. Notons toutefois que la tranche de 1 % des Québécois les plus riches est trois fois et demie moins riche que son pendant américain. 80% des familles québécoises sont encore plus pauvres que 80% des familles américaines[*].

Or, la condensation des richesse est plus grande dans les pays anglo-saxon comme les États-Unis, la Grande-Bretagne, que dans les pays européens comme la France, au Japon et même au Québec. Ainsi, 20 % des Canadiens détiennent 75 % des actifs du pays; les familles du quintile supérieur détenaient 75 % de la richesse totale des ménages en 2005, contre 73 % en 1999 et 69 % en 1984.[*]! Depuis deux décennies, seules les familles de la tranche supérieure de 10 % ont augmenté leur part de la richesse totale.

Notons également que sous le principe de la condensation de la richesse, les riches québecois risque fort de se faire absorber par les plus riches qu’eux. Et dans le contexte de la mondialisation, certe cela signifie que l’on puisse accéder à de nouveaux marchés, mais le Québec deviens-lui même accessible. S’il y a condensation de la richesse au Québec, il en sera de même sur l’échiquier mondiale.

(CO)construction d’une société

Notons que le cout de la vie est typiquement le même pour tous. Dans une économie de marché libre, les facteurs contribuant au cout de la vie s’ajustera de sorte que les plus pauvres de la société sont forcé de dépenser tout leurs revenus sur les besoins de base (nourriture, habitation, santé), alors que les riches auront un revenu exédant sufissant pour épargner et investir (voir: meritocracy). Le processus par lequel les officiers corporatifs sont payé avec des salaires, primes et bonus élevés (voir: oligarchy), la compensation totale pouvant allez jusqu’à 30000 fois le salaire le plus bas d’un employé de l’entité. Il y a donc une décconection sustentielle entre a) la performance des officiers et les compensations, et b) les compensations des officiers par rapport à ceux des travailleurs, et que les officiers sont compensé à des niveaux disproportionné parce qu’il font déjà partie d’une élite et que cela constitue une métode d’auto-perpétuation visant à maintenir une classe d’élites (voir:neofeudalism). Si l’économie de plusieurs pays sont organiser selon l’intérêt de surper-riches, ou relève de la ploutocratie – du grec ploutos : richesse ; kratos : pouvoir; consiste en un système de gouvernement où l’argent constitue la base principale du pouvoir -, il y a de forte probabilité qu’une condensation de la richesse s’ensuivra par le choix de politiques gorvernementales au détriments de la classe moyenne et inférieure. D’un point de vue social, cette concentration du pouvoir dans les mains d’une classe sociale (clique de riches) s’accompagne de fortes inégalités et d’une faible mobilité sociale.

Devons nous donc abandonner la responsabilité de la (co)construction de la société aux riches (réseaux bancaires, multinationales, officiers corporatifs, et super-riches), comme le suggère “la Droite”, dont le seul but, généralement, est d’engrenger le plus de richesses possibles à court terme?

The Top 15 Canadian companies based on profits[*]:
2010 Rank Company Ticker 5-Year Return (%) Sector Profit in ($mil)
1 Royal Bank of Canada RY 94.8 commercial banks 3,858
2 Bank of Nova Scotia BNS 58.1 commercial banks 3,547
3 The Toronto-Dominion Bank TD 78.6 commercial banks 3,120
4 Research In Motion Ltd. RIMM 127.1 communications equipment 2,731
5 EnCana Corp. ECA 50.3 oil, gas & consumable fuels 2,124
6 Canadian National Railway Co. CNI 76.2 road & rail 1,854
7 Teck Resources Ltd. TCK 116.1 metals & mining 1,831
8 Bank of Montreal BMO 39.1 commercial banks 1,787
9 BCE Inc. BCE 26.2 diversified telecommunication 1,738
10 Great-West Lifeco Inc. N/A 30.7 insurance 1,699
11 Canadian Natural Resources Ltd. CNQ 131.7 oil, gas & consumable fuels 1,580
12 Imperial Oil Ltd. IMO 34.9 oil, gas & consumable fuels 1,579
13 Enbridge Inc. ENB 86.8 oil, gas & consumable fuels 1,562
14 Rogers Communications Inc. RCI 123.8 wireless telecommunication serv. 1,478
15 Power Financial Corp. N/A 25.8 insurance 1,439

 

17 Québécois (ou famille québécoises) d’origine ou d’adoption dans le classement des 100 plus riches Canadiens[*]:
Rang QC Rang CAN Nom Fortune (M$) Variation (09-10)
1 6 Famille Saputo 4340 23,50%
2 7 Paul Desmarais Sr 4270 -0,02%
3 13 David Azrieli 3070 4,70%
4 24 Famille Bombardier 2350 11,70%
5 27 Stephen Jarislowsky 1980 6,90%
6 29 Marcel Adams 1850 4,40%
7 39 Guy Laliberté 1560 3,40%
8 40 Jean Coutu 1530 33,50%
9 42 Robert Miller 1490 5,90%
10 53 Famille Kruger 1220 10,90%
11 59 Larry Rossy 1060 5,10%
12 66 Charles Sirois 960 5,40%
13 85 Aldo Bensadoun 730 14,70%
14 86 Alain Bouchard 720 41,30%
15 89 Famille de Gaspé-B. 680 4,20%
16 93 Serge Godin 660 33,70%
17 99 Frères Péladeau 610 -9,10%

On a montré que l’écart entre les riche et les pauvres est une tendance croissante. Ainsi, au Canada, En 1998, les 100 plus riches gagnaient 105 fois plus que le Canadien moyen; aujourd’hui, c’est 189 fois[*]. Entre-temps, les revenus des Canadiens moyens ont fait du sur-place au cours des dernières années. Le revenu moyen des 100 Canadiens les plus riches s’est élevé à 8,38 millions de dollars, comparativement à 44 366 $ pour la moyenne des Canadiens, selon une étude.

Le modèle québecois!

La droite peint-elle volontairement un portrait pessimiste du Québec[*]? Selon moi, ce paysage pessimiste du Québec dépeint par la Droite s’avère relativement juste. Cependant, volontairement populistes, la stratégie ne vise pas à miner « l’estime de soi » des Québécois mais bien à capitaliser, en se présentant comme une alternative, à l’échec, ou du moins, aux lacunes et dérives, du modèle social québécois, modèle dont ont remonte la naissance aux suites de la Révolution tranquille. Clairement, la Gauche, porteur et défenseur du modèle québécois, fragmenté, est en crise et n’a pas réussi à se moderniser et s’est empêtré dans un discours identitaire et nationaliste incompatible aux réalités complexes des sociétés d’aujourd’hui. La Droite, elle, sort de l’ombre, constatant que son ennemi git, agonisant, et profite de l’occasion pour se mettre de l’avant.

Le libertarianisme s’oppose donc au modèle social québécois s’il en est un, et l’État, digne représentant de la social-démocratie, des politiques publiques et sociales, du modèle québécois, est devenu une machine subordonnée à l’économie. De fait, l’interventionnisme — doctrine selon laquelle l’État doit intervenir dans les affaires économiques — est confondu avec la nécessité d’avoir des institutions sociales et publiques, sous l’égide du gouvernement.

Ainsi, essentiellement d’ordre économique, les solutions de la Droite portent généralement sur les coûts (déficits) entraînés par les politiques publiques et sociales et les dérives systémiques. J’estime donc que la Droite, au lieu de proposer une réforme du système actuel comme devrait le faire la Gauche, utilise comme prétexte ces lacunes et dérives pour mettre de l’avant une droite salvatrice. Rien ne fait figure de (co)construction d’une société.

Quant à l’équité intergénérationnelle, ce discours semble essentiellement destiné à plaire aux jeunes qui comprendront bien assez rapidement qu’ils auront à vivre plus pauvres baby-boomers, à travailler plus que les baby-boomers, à payer pour le fiasco du modèle social des baby-boomers, et enfin à payer la retraite des baby-boomers. Et ainsi donc se pose la Droite comme’alternative à une réforme du modèle québécois.

Le Droite mise donc sur la frustration et la colère des perdants (jeunes) ainsi et de ceux qui souffrent des lacunes et dérives du modèle social québécois pour mettre de l’avant leur options, essentiellement de nature économique, sans tenir compte de la (co)construction d’une société.

« […] la génération qui est aujourd’hui dans la vingtaine s’avère encore plus attachée que ses aînés au modèle social-démocrate qui prévaut ici » (1). Les Québécois seraient-ils plus « solidaires » que « lucides »? Cependant, face à l’illusion tranquille, force est de se demander si cette fameuse génération ne vit pas dans vision politique et sociale mystifiée et idéale, très éloignée de la réalité, une erreur de perception provoquée par une apparence trompeuse, ou une interprétation fausse ou parcellaire de la réalité. Est-il question de remettre en cause le fameux « modèle québécois »? En effet, la complexification des sociétés, des économies, des communautés humaines, des relations humaines, nous amène donc dans une ère qui demande, et exige même, un changement paradigmatique. L’évolution du « modèle québécois » s’inscrit-elle dans l’exercice de la gestion de la complexité?

La citoyenneté est autrement plus exigeante sur le plan de l’exercice des responsabilités individuelles et collectives, et alors que le cynisme envahissant accentue le sentiment d’éloignement et d’impuissance, voire d’indifférence, que ressentent de nombreux citoyens à l’égard de la chose publique, le scepticisme gagne ces citoyens, floués par des mercenaires de la politique.

Rappelons que l’expression « modèle québécois » renvoie au mode particulier de gestion économique et sociale qui s’est développé au Québec depuis 1960.

Ainsi, les conceptions théoriques dominantes qui ont eu cours à cette époque et qui nous ont permis de produire un ensemble de changement dans la société québécoise sont périmées. Ces changements n’ont pas été « une fin en soi », comme bien des gens l’on crut, mais constituait bien le début d’un cheminement qui exigeait un « État de veille », et leur vigilance critique aurait été indispensable pour s’assurer, justement, que l’oeuvre ne soit pas dénaturée par l’économie de marché et la surconsommation. Pour moi, la social-démocratie n’a pas permis d’éviter les effets pervers de l’hyperconsommation sur l’évolution du tissu social. Elle n’a pas permis de maintenir cette démarche liée à l’élaboration et à la mise en oeuvre du contrat social et il s’agit donc alors de recibler nos analyses de la nation, non pas en fonction d’illusoires contrats sociaux et moraux, mais bien de manière à saisir pourquoi ses paramètres sont contestés. Ainsi donc, le monde a changé et il nous faut nous adapter aux nouvelles réalités.

Cette absence de vigilance critique, d’esprit critique, à mené à ce que l’on appelle le statu quo et la pensée unique, réfractaire aux changements : « […] la moindre évolution dans le fonctionnement de l’État, le moindre projet audacieux, le moindre appel à la responsabilité, la moindre modification dans nos confortables habitudes de vie sont accueillis par une levée de boucliers, une fin de non-recevoir, au mieux par l’indifférence. »

La gestion économique québécoise se distingue par un mode particulier de concertation qui s’y est développé à partir du milieu des années 1970 entre l’État, le monde patronal et les syndicats. Les syndicats participent donc directement aux décisions et stratégies corporatives. Ainsi, les syndicats sont particulièrement pointés du doigt : « À l’heure actuelle, le discours social québécois est dominé par des groupes de pression de toutes sortes, dont les grands syndicats, qui ont monopolisé le label “progressiste” pour mieux s’opposer aux changements qu’impose la nouvelle donne. »

Toutefois, pour plusieurs, les politiques sociales constituent une caractéristique de la gestion des affaires publiques québécoises et doivent de ce fait être comprises dans la définition du modèle québécois. La Révolution tranquille a certes été un tournant en ce qui a trait aux politiques sociales. La situation s’étant renversée radicalement en 1960 : un rattrapage accéléré s’est effectué et le Québec s’est souvent trouvé à l’avant-garde en matière de politique sociale et de redistribution des revenus.

Intervention de l’État

L’innévitable question du rôle de l’état dans la (co)construction d’une société dans un contexte de Mondialisation doit être aborder de front. Or, de par la perte d’influence des politiciens sur l’Économie, leur rôle sera désormais dévolu aux aspects sociaux***. Le façonnement de politiques publiques et sociales, processus complexe et multiforme qui implique l’interaction d’une multitudes d’individus et d’entités groupales, collaborant ou se concurrencant, pour influencer les décideurs politiques, s’enracine dans la société civile pour alimenter le gouvernemant. Ces individus et ces groupes utilisent une variété de stratégies, tactiques et d’outils pour faire avancer leurs objectifs, notamment en défendant leurs positions publiquement, en tentant d’éduquer des partisans et les opposants, en la mobilisation des alliés sur une question particulière. Il en est de même en matière de politiques sociales.

Les politiques publiques et sociales sont des stratégies conduites par les institutions et administrations publiques qui appartiennent au gouvernement avec un ensemble de moyens (humains, financiers et matériels) pour agir sur une situation structurelle ou conjoncturelle déterminée (infrastructure, santé, famille, logement, emploi, formation professionnelle, recherche, fonction publique, crise, déficit), afin d’atteindre un ensemble d’objectifs préalablement fixés (égalité, justice, santé publique, bien-être social, résorption de la crise, du déficit budgétaire).

On ne peut considéré l’État (gouvernement) sans la société civile, ni la société civile sans l’intervention de l’état dans le domaine publique. Or, la régulation économique, peut-elle être produite que par le gouvernement? L’État est-il devenu une machine déconnecté du tissu social, d’une communauté de communautés, et destiné exclusivement aux aspect économiques. Entre le “Capitalisme d’État” et la “Plutocracy“, trouverons nous un juste milieu?

Darwinisme social

Darwinisme économique

L’objectif fondamentale du grégarisme humain relève de la survie et de l’adaptation. L’aboutissement de cette socialisation donne naissance à la civilisation. De la civilisation émerge l’État. Or, les conditions humaines sont devenue telle qu’il émerge un phénomène d’individualisation. Avant, on dépendait des autres pour vivre et s’adapter, aujourd’hui, nous somme des travailleurs en compétitions pour accéder au marché de l’emploi. On reviens ainsi à la case départ, une sorte de contradiction émerge donc: on vie ensemble, individuellement. C’est donc une transformation des interactions humaines. On se pose donc la question : pourquoi vivre ensemble? Pour travailler ou pour la (co)construction d’une société.

DU CRÉDIT ET RICHESSE COLLECTIVE

On semble négliger de faire la distinction entre l’enrichissement individuel et l’enrichissement collectif. L’enrichissement individuel lié à une augmentation du nombre d’individus riches ne garantit pas nécessairement de meilleurs politiques publiques, politiques sociales, ou un meilleur environnement socioéconomique, et l’enrichissement collectif.

L’argument essentiellement fondé sur le fait que plus il y a de riches, plus la société deviendra riche, ne me semble pas nécessairement juste et fondée, de par le phénomène de la condensation de la richesse, qui représente une force allant à contre sens. Or, bien que je sois convaincu que tous les riches sont des personnes extraordinaires et qu’ils soient altruistes, pourtant il semble qu’au Québec, se sont bien les politiques publiques et sociales qui ont favorisé un environnement socio-économique favorable « à la distribution de la richesse » sous formes, entre autres, de programmes sociaux. Mais l’État ne se limite pas seulement à la production de politiques publiques et sociales.

Or c’est par le billet, entre autres, des impôts et taxes, que la richesse collective s’abreuve et par des politiques déterminés collectivement. Plus de personnes riches ne signifient pas aller à l’encontre de la concentration de la richesse.

De plus, c’est également par les salaires que la richesse se fait sentir. Or, je n’ai jamais vu une entreprise consentir des salaires plus élevés en guise de politique sociale (les politiques sociales ne peuvent pas être soumises aux lois du marché, de la profitabilité). Certes, à titre d’exemple, on parle de conciliation travail/famille, mais c’est surtout pour s’assurer que travailleurs vaques, et non pas en guise de politiques sociales ; ce n’est donc pas pour optimiser le développement de la progéniture. Ainsi donc, semble-t-il, ce ne sont pas les pauvres qui profitent des garderies, mais les personnes de la classe moyenne. Des garderies sont en partie dédiées aux entreprises, et non pas aux citoyens, ce qui constituerait un détournement de leurs destinations fondamentales.

Et c’est sans compter sur la guerre de l’emploi (angl.: Jobs War) qui s’amorce ou les pays se feront concurrance sur l’échiquier mondiale pour capturer les emplois pour leur population. Les pays qui remporteront cette bataille auront des emplois de qualité pour leur population[*]. Notons que ce sont les emplois bien rémunérés et nécessitant peu de qualification qui sont les plus délocalisés, et . Ceux qui ont perdu leurs emmplois à cause de cette délocalisation se sont souvent trouvé un nouvel emploi plus précaire et moins bien rémunéré. Simultannément, se sont les emplois ayant une composante technologique ou nécessitant des études supérieures qui ont connu une plus forte croissance salariale. Le Centre sur la productivité et la prospérité de Hautes Études Comerciales (HEC) de l’Université de Montréal publie une étude montrant que les Québecois sont moins riches car moins éduqués[*].

Or, j’ose prétendre que plus il y a de riches, moins nous le serons collectivement. Ainsi, une hausse inattendue des bénéfices par les banques étrangères à capitaux en Nouvelle-Zélande a contribué à un déficit du compte courant beaucoup peu important que prévu de 4,6 milliards de dollars dans les trois mois terminés[*]. On sait tous comment les banques continuent à faire des profits alors que l’Europe contemple un destin funeste, que des millions de personnes à travers le monde se sont appauvris, que certains pays doivent entreprendre des mesures d’austérité draconienne sans précédent. Cas intéressant, L’Islande n’a pas suivi l’orthodoxie qui guide les politiques en Europe et à l’international, ont reconnu l’importances des politiques sociales et on a laissé les banques faire faillite!!! Et il semble qu’elle s’en porte que mieux, à l’instar de l’europe[*]. L’Islande a rapidement lancé des réformes politiques, sociales, judiciaires et mis sur pied une commission parlementaire qui, dans son rapport “Vérité”, a expliqué pourquoi le système a échoué (et qui a abouti à la mise en examen du Premier ministre pendant la crise, Geir Haarde, poursuivi pour l’effondrement du système financier). Alors que le Fonds monétaire international considère que contrôler la monnaie est la pire des choses, l’Islande a choisi de la dévaluer, ce qui a été très bénéfique pour ses exportations. A contrario de la plupart des États, qui permettent aux banques de privatiser les profits et de socialiser les pertes, et qui les renflouent aux frais du contribuables tout en s’excusant de ce que leur peuple ait soi-disant vécu au dessus de ses moyens!

Or, on crie avec véhémence que les politiques sociales sont financées à crédit via la dette, mais la richesse individuelle et collective également. De plus, la richesse étant fondée sur une perspective de croissance de la consommation (hyper-consommation), qui elle-même est fondé sur le crédit ; mais peut-on croître à l’infini? Sans croissance, il n’y a pas de richesses. C’est pourquoi le crédit remplace souvent la richesse de cette croissance économique anémique ou fluctuante. Or, je crains que ce simple mécanisme soit devenu rétrograde et ne fonctionne désormais, ni peu ni prou, car nous entrons dans un Nouveau Monde, une nouvelle ère, celle de la globalisation, ou bien des choses changeront ou ont déjà changer!

De l’invention de technique financière complexe (subprimes, titrisation, etc.), ce sont ces techniques qui enrichissaient les riches qui ont entraîné la crise débuter à l’été 2007 à cause des « subprimes », ces prêts hypothécaires consentis à la classe moyenne américaine. Mais comme les prix de l’immobilier ont baissé, les banques ont paniqué, et certaines banques qui avaient eu trop recours à ce type de prêt (subprimes) se sont retrouvées dans une situation financière critique. Les banques ont repris leurs maisons, et corollairement perturbé le marché immobilier. Pour tenter de limiter les risques de ces crédits d’un nouveau genre (subprimes), les banquiers ont eu recours à la titrisation. Ils ont transformé ces emprunts en titre sur les marchés boursiers. Or, à partir du moment où celui qui doit rembourser l’emprunt pour l’achat de sa maison ne peut plus payer, le titre n’a plus aucune valeur. Ce sont ces montages financiers complexes qui expliquent la chute de la bourse, car toutes les banques se sont aperçues qu’elles possédaient des titres de subprime qui ne valaient plus rien. La panique gagne alors les marchés, car plus personne ne se sent à l’abri. À partir de là, les banques vont se méfier les unes des autres et ne plus vouloir se prêter de l’argent entre elles. Cette crise de confiance des marchés interbancaires va entraîner la faillite de certaines banques, malgré l’injection de milliards de dollars de la Réserve fédérale américaine. Entre la chute de l’immobilier, la crise des subprimes, les soubresauts de la bourse qui ont fait chuter les cours, les pertes d’actifs se sont montées à plusieurs dizaines de milliards de dollars pour certaines banques.

Dès lors, la crise financière qui était d’abord une crise bancaire va se transformer en krach boursier. Les banques ont durci les conditions de crédit pour les particuliers (les prêts immobiliers sont plus difficiles à obtenir) et pour les entreprises (les investissements vont se ralentir). Le capitalisme financier connaît donc l’une des plus graves crises depuis le krach boursier de 1929. La crise immobilière américaine s’est transformée en crise financière et bancaire, elle-même entraînant une crise financière mondiale avec des risques de décroissances, de croissance anémique, de récession, de stagflation, et de sévères mesures d’austérité. Or, le remède relève de la réglementation, cette même réglementation que rejettent les riches, appliquer par une gouvernance mondiale, s’avère un chemin de croix. Pourtant, le pilier d’une économie repose sur un système bancaire fiable. On veut faire de l’argent comme ont veulent, quand on veut et comment on veut, et renie l’interventionnisme étatique. Mais en fin de compte, ce sont les états qui ont « sauver » les banques et donc préservé le système économique, et ce, à coup de centaines de milliards. Ceux qui ont fait leur profit gardent leur profit et continuent à en faire[*], mais ceux qui ont emprunté (richesse fondée sur le crédit) perdent tout et s’appauvrissent! Pourtant, malgré le marasme économique planétaire, les marques de luxe semblent bien portantes, car l’industrie du luxe vit présentement une période d’optimisme, car elle est ressortie grandie de la récession. « La même chose s’est produite avec les maisons les plus chères aux États-Unis, soutient Jean-François Ouellet, professeur de marketing à HEC Montréal. Historiquement, tout le monde souffrait quand l’économie vaçillait. Désormais, avec un libéralisme économique accru, les plus riches sont à l’abri des soubresauts. On parle de 0,01% de la population qui peut continuer à consommer et s’enrichir, faisant exception à la règle »[*].

Notons que l’une des principale cause de sous capitalisation des régimes de retraites serait la crise financière, accultant ainsi tout autres phénomènes. On observe également une tendance lié à une augmentation des régimes cotisation déterminé[*]. Assistons-nous donc au destin funeste d’une utopies comme celle d’une retraite avec un revenu décent et suffisant. L’illusion de “liberté 55”, qui a fait rêver et vaquer des milliers de travailleurs, est maintenant devenue un cauchemard car les québecois n’ont pas, en moyenne, l’épargne nécessaire pour passer à l’acte dans le confort[*]. Aussi, 800 retraités ont vue une diminution des prestations de retraite de l’ordre de 40%. En effet, la firme torontoise, Brookfield Asset Management, a sabré dans la caisse de retraite des employés après avoir pris le contrôle de Papiers Fraser, en janvier 2009, au terme d’une restructuration financière en vertu de Loi sur les arrangements avec les créanciers des compagnies[*].

De plus, les phénomènes du vieillissements des populations amène a un boulversement des régimes des retraites. Il semble que le nombre de retraité doublera dans les prochaines années, alors la population de travailleurs, elle, diminura. Moins de cotisants pour plus de retraité ; du coups une arithmétique déficitaire.

Innovation, Créativité et Productivité

Semble-t-il que l’efficacité de la R&D au Québec et au Canada était inférieure à celle de la moyenne des pays membres de l’OCDE. Or, il ressort que la province se classe relativement bien au niveau des dépenses en R&D lorsqu’elle est comparée à la plupart des pays membres de l’OCDE[*].

DU CRÉDIT ET DE RICHESSE INDIVIDUELLE

Quelques indignés, ici et là, osent remettre en question l’ordre économique et financière établit. Cependant, la plupart de ceux concernés sont trop occupés à travailler! Je suis convaincu que les gens riches sont des gens extraordinaires et altruistes, toutefois, ce qui est amusant, c’est que lorsqu’un employé fait une erreur, elle est sanctionnée, mais lorsque l’autorité fait une erreur, alors « l’erreur est humaine » et il n’y a rien de plus humain qu’une personne en autorité. Ainsi, qui sanctionne les banques pour leurs dérives; personne!

Le risque est donc pour qui? Pour ceux qui vivent la richesse à crédit, ou ceux qui sont riches du capital acquis? Et puisque la richesse, autant collective, qu’individuelle, est fondé, au moins en partie, sur le crédit, n’est-ce pas la une preuve que les salaires sont insuffisant pour soutenir le niveau de richesse individuelle, voire même collective?

Selon Statistique Canada, pour chaque dollar de revenu gagné, les canadiens avaient une dette de près de 1,50$. L’endettement moyen a grimpé de 266% entre 1984 et 2005. Seuls les ménages les moins fortunés vivent ce problème de surendettement. Plus ils sont endettés, plus la classe moyenne s’effritent. Il a été démontré que les plus fortunés le sont de plus en plus, et ce sont eux qui contribuent le plus à la hausse de la consommation. Toutefois, pour la classe moyenne et pauvre, la progression des revenu après inflation, a été soit stable ou à la baisse depuis 15 ans. En 1980, le niveau d’épargne était de 20%, et il est de 5% aujourd’hui. Encore là, ce sont les personnes à hauts revenus qui épargnent le plus. Le niveau de liquidité des entreprises est passé de 13% en 1990 à 32% du PIB canadien. Hélas, ces excédents de liquidités ne contribuent pas à l’augmentation des salaires de la classe moyenne[*]. Notons que les entreprises sont en meilleur “condition économique” que les états et individus, car beaucoup moins endettées.

Alors qu’on tente de nous engorger, à la face même d’un amateurisme gouvernementale, au détriment des principes de précautions les plus élémentaires, la nécessité de développer la filière des gaz de schisme, et que l’on a entendu, à Noël 2011, à l’émission « Tout le monde en parle », un plaidoyer condescendant, moralisateur et insultant pour toute personne ayant une conscience écologique ou environnementale, ou toute personne qui à comme principe fondamental le respect de la Nature, donc de vivre en équilibre avec elle, ou toute personne qui à une intelligence. Pourquoi catégoriser toute critique sous l’égide de la jalousie des riches? Peut-être que tout simplement, l’accroissement du nombre de riches n’est pas nécessairement la solution la plus pragmatique, novatrice, etc. pour développer une société.

Être travailleur autonome/travailleur indépendant n’est pas une garanti d’accès à la richesse. En effet, considéré comme une activités atypique et précaire, et présenté comme un eldorado, à l’image de “Liberté 55”, rien n’indique pourtant que les entrepreneurs de notre société soient apte a concurencé sur l’échiquier de la mondialisation. Pour preuve, nous n’en produisont pas assez et il semble que les québecois dédaigneraient même cette activités économiques. On considère l’augmentation du mombre de ce type de travailleurs par le fait que les entreprises tentes de se départir des charges sociales et donc d’abdiquer de leurs responsabilités sociales. Notons que la majeure partie des entreprises au Québec sont des PME et micro entrperises (dont les travailleurs indépendants/travailleurs autonomes).

Privatiser les profits et socialiser les pertes, c’est vouloir le beurre et l’argent du beurre en même temps. La pauvreté, c’est donc également entretenu par les conditions économiques; on a pour preuveles effets de la crise financière, surtout en Europe et dans d’autres pays. L’économie et la Finance doivent se subordonner à l’État, et non pas le contraire. L’économie et la Finance doit servir la société et non pas l’intérêt d’une clique de riches. Or, une entreprise ne peut faire des affaires que s’il y a un État qui favorise une stabilité sociale; et cela à un prix! L’entreprise s’enracine dans les forces vives d’une société, son capital humain, son capital social, son capital intellectuel, son capital économique, etc. Elles ne peuvent exister sans la société. Cependant, l’économie et la Finance tente de nous convaincre du contraire, que l’État ne peut exister sans eux. Mais semble-t-il que l’on n’a pas réussi à produire la preuve qu’ils étaient aptes à remplacer l’État (et donc les citoyens) en ce qui a trait aux politiques sociales. Réguler l’économie ne signifie par nécessairement être contre l’économie.

Ainsi donc, la dernière crise financière, appel à une gouvernance mondiale de l’économie, ce super-état régulateur de l’économie mondialisé. Or, régulation signifie-t-il intervention?

Inégalité des revenu

Faut-il se rappeler de la tendance à savoir que les riches deviennent toujours plus riches, que les pauvres deviennent plus pauvres et en plus grande quantité, réduisant d’autant la portion de la tarte de la richesse, et garantissent la pauvreté – car pour qu’il y ait des riches, il faut y avoir des pauvres.

Les inégalités de revenu pointent la disparité existant entre les revenus des individus « riches » et ceux des individus « pauvres ». Or au Canada, la réalité serait que les riches et les pauvres s’enrichissent, mais à un rythme différent, selon une étude de l’Organisation de coopération et de développement économiques (OCDE). On y lit que les inégalités de revenus entre les riches et les pauvres ne cessent de croître dans le monde; le phénomène des inégalités grandissantes n’était pas isolé au Canada; bien que plus faibles qu’ici, les inégalités augmentaient aussi en Allemagne, au Danemark et en Suède. D’embler, il faut bien distinguer la pauvreté des inégalités, la mesure des inégalités évalue plutôt les écarts dans la distribution des revenus entre les individus. La pauvreté peut s’évaluer par diverses méthodes, la mesure du panier de consommation détermine le seuil de faible revenu en regard de la valeur d’un panier de biens et services précis. D’après cette mesure, un ménage sera considéré à faible revenu si son revenu disponible est sous la valeur du panier de consommation[*]. Ainsi, l’une des causes des inégalités grandissantes prend sa source dans la mondialisation et la concurrence accrue des pays émergents.

Même si le Québec est confronté aux mêmes courants mondiaux, la belle province s’est doté d’une Loi visant à lutter contre la pauvreté et l’exclusion sociale, dont l’objectif est d’amener progressivement le Québec au nombre des nations industrialisées comptant le moins de personnes pauvres, ce qui semble diminuer la pauvreté même si les écarts dans le revenu du marché (avant intervention de l’État, essentiellement des salaires) s’agrandissent tant au Québec qu’au Canada. L’évolution des revenus du marché montre un écart grandissant où en 1976, les 20 % des plus riches Canadiens gagnaient 8,8 fois plus que les 20 % des plus pauvres alors qu’en 2009, ils gagnaient 11,7 fois plus. Une mouvance similaire s’observe au Québec (8,2 fois en 1976 contre 11,3 fois en 2009). Aussi, pour mesurer les inégalités dans une société, les spécialistes se réfèrent souvent au coefficient de Gini. Au Québec, dans la catégorie « revenu disponible », il est passé de 0,363 en 1996 à 0,380 en 2008. (Zéro étant une répartition parfaite, 1 étant une inégalité totale). Au Canada, il est passé de 0,378 à 0,396[*]. Même si le Québec est de moins en moins pauvres par rapport au reste du Canada, ce dernier rattrape son voisin américain, logé au sommet des inégalités de revenu ; l’écart entre riches et pauvres s’accroît plus rapidement au Canada qu’aux États-Unis[*].

Ainsi, grâces au politiques sociales, les québecois sont moins riche, mais moins pauvre que les canadiens[*]. Une fois qu’ils ont payé leurs taxes et leurs impôts, les Canadiens sont plus riches que les Québécois, dont le fardeau fiscal est plus lourd. Ce qu’on constate, c’est que cet écart de revenus s’est accru chez les hommes les plus riches et est en voie de disparaître chez les femmes et chez les plus pauvres (au Canada).

Endettement Individuel

Depuis 2007, l’Association des comptables généraux accrédités du Canada surveille l’attitude collective à l’égard des dépenses et de l’endettement. Elle publie annuellement un rapport, et ont constaté, entre autre[*]: 1) Le rythme d’expansion de l’endettement s’est affaibli en 2010 et au premier trimestre de 2011, mais les niveaux d’endettement des ménages ont tout de même atteint un niveau record de 1,5 billion de dollars au premier trimestre de 2011 ; 2) Les familles monoparentales constituent la seule catégorie de ménages dont la dette augmente avec l’âge, et ces familles ont une dette supérieure de deux tiers à celle des couples sans enfant; 3) L’accroissement de la dette ne s’est pas accompagné d’une amélioration des revenus ou de la richesse : 40 % des répondants dont le revenu a diminué ont indiqué que leur dette avait augmenté, comparativement à 31 % dans le cas des répondants dont les revenus ont progressé. 4) La consommation plutôt que la constitution du patrimoine demeure la première cause de l’accroissement de l’endettement : 57 % des répondants endettés ont affirmé que les frais de subsistance courants sont la cause principale de cet accroissement. 5) Peu de répondants ont indiqué que leur revenu avait augmenté. Moins de la moitié (42 %) ont fait état d’une augmentation, laquelle était pour la plupart d’entre eux (86 %) très modeste;

Statistique Canada nous rappelait récemment que le taux d’endettement des ménages canadiens par rapport à leur niveau de revenu disponible a atteint la marque record de 152,98% au troisième trimestre de 2011, contre 150% au second trimestre[*]. Ainsi, les ménages canadiens sont de plus en plus endettés, en particulier ceux qui peuvent le moins se le permettre parce qu’ils approchent de la retraite ou qu’ils ont déjà des dettes[*].

L’endettement des ménages préoccupe la Société canadienne d’hypothèques et de logement (SCHL). Elle note que les ménages canadiens ont de plus en plus recours aux marges de crédit personnelles et qu’entre 2000 et 2010, le passif des ménages s’est accru plus rapidement que leur actif, leur valeur nette et leur revenu personnel disponible.

Aussi, l’endettement des ménages canadiens inquiète les régulateurs du Conseil de stabilité financière (FSB) à Zurich (le FSB est composé de banques centrales, ministères et régulateurs de 24 pays), canadiens qui pourraient se retrouver en difficulté en cas d’aggravation de la situation économique mondiale. Alors que les défauts de paiements sont à un niveau très bas (0,3%) au Canada, le FSB a estimé qu’«un choc macroéconomique négatif», comme une récession économique mondiale, pourrait affecter la capacité des ménages à honorer leurs crédits. Une telle situation pourrait avoir des conséquences négatives sur le marché de l’immobilier et, par effet domino, sur le système financier, à l’instar de la crise des «subprimes» américains qui a éclaté en 2007[*]. La zone euro se trouve dans une crise économique sans précédent depuis la Seconde Guerre mondiale, en raison du surendettement de ses États membres, notamment de la Grèce.

Aussi, jamais les ménages québécois n’auront été aussi endettés, plus que les américains[*]. Le 12e rapport de l’Institut Vanier, un organisme à but non lucratif, souligne que si le taux d’endettement a beaucoup grimpé ces dernières années, le taux d’épargne s’est pour sa part dégradé. Et c’est au Québec que la hausse de l’endettement est la plus marquée en 2011[*]. Cela dit, l’endettement des Québécois est nettement moins élevé que la moyenne nationale et les Québécois sont les moins susceptibles de se trouver en défaut de payer leur carte de crédit comparativement à l’ensemble du pays. On observe généralement un taux d’endettement plus bas au Québec que dans le reste du pays.

Productivité

Notons que plus des trois quarts de la population québécoise disposent d’un pouvoir d’achat inférieur au reste du Canada et les Québécois travaillent aussi moins que dans les autres provinces[*]. Ils sont moins nombreux à travailler, y passent moins d’heures et touchent moins d’argent à l’heure que la plupart des autres Canadiens. La formation insuffisante, les retraites prises plus tôt et le chômage seraient les principaux responsables de cette situation.

Conclusion

Ainsi donc, la “Droite” suggère de substituer l’État (entité collective) par une entité groupal, « les riches » (clique – entité groupale), en matière de politiques publiques et sociales. Petite question, pourquoi y existe-t-il des désert alimentaire à Montréal, et pourquoi il y a si peu de coopératives d’alimentation??? Le modèle des coopératives, est-ce donc une forme d’entrepreneurship???

Rêve-t-on d’une société où tous sont riches? Certes et bien sure. Ainsi donc, la notion de “riches” perd tout de son sens, puisque si tous seront riches, il n’y aura aucun pauvre. Doit-on laisser le développement d’une société aux riches? Est-ce donc ça la solution?

Est-ce donc la Droite qui est responsable de la déficience de la culture entrepreuneuriale au Québec. N’ont-ils pas une responsabilité sociale, de donner une chance à chacun, de développer ses intérêt et compétences entrepreuneuriale. Dire que plus il y aura de riches, plus la société sera riche, c’est donner un aspect altruistique à quelque chose qui n’en a pas.


sources & références

1) Shields, Alexandre (2007) « Les québecois plus solidaires que lucides », Le Devoir, 11 janvier 2007, page consultée le 18 février 2010.

2) Jocelyn Maclure et Alain-G. Gagnon, Repères en mutation, Québec Amérique.

De la pensée stratégique

La prise de conscience du public à la santé cognitive (cognitive health) est relativement récente par rapport à la santé physique. De plus en plus de preuves suggèrent que l’entrainement cognitif (cognitive training) semble assez prometteur quant aux possibilités de « l’augmentation » des performances cognitives du cerveau chez les populations normales et cliniques. Le ciblage des fonctions cognitives d’ordre supérieur, comme le raisonnement, en particulier, peut notamment favoriser certains changements cognitifs généralisés nécessaires faire face aux complexités de la vie quotidienne. Par exemple, des chercheurs de L’UCLA[6,7,8,9] ont constaté que les personnes âgées qui ont régulièrement fait usage d’un logiciel de remise en forme du cerveau sur un ordinateur ont démontré une amélioration significative des compétences mnésiques (ou de la mémoire) et du langage. D’autres chercheurs ont précédemment constaté qu’un entrainement pouvait améliorer la mémoire et augmenter l’activité du cerveau souffrant d’une légère déficience cognitive[10,11].

L’entrainement cognitif basé sur la stratégie (strategy-based cognitive training) a le potentiel d’améliorer la performance cognitive et effectivement avoir de réels avantages dans la vie courante selon un article de perspective axée sur les données (data-driven perspective article) par le Center for BrainHealth at The University of Texas at Dallas publiée dans la revue à accès ouvert Frontiers in Systems Neuroscience. La perspective fondée sur la recherche (research-based perspective) met en évidence des changements neuronaux, cognitifs, ainsi que dans la vie courante et ont été mesurés lors d’essais cliniques randomisés (randomized clinical trials) qui ont comparé le « gist-reasoning strategy-training » à l’entrainement de la mémoire chez les populations allant d’adolescents aux adultes plus âgées en bonne santé, aux personnes souffrant de lésions cérébrales, à ceux à risque de la maladie d’Alzheimer.

Notre cerveau est câblé pour être inspiré. L’une des principales différences de nos études[1,2,3,4] par rapport à d’autres recherches interventionnelles (interventional research) visant à améliorer les capacités cognitives, c’est que nous n’avons pas mis l’accent sur les fonctions cognitives spécifiques tels que la vitesse de traitement, la mémoire, ou l’apprentissage de nouvelles compétences isolées (isolated new skills). Au lieu de cela, le programme d’entrainement au « gist reasoning training program » encourage l’usage d’un ensemble commun de stratégies de réflexion multidimensionnelles pour synthétiser de l’information et l’élimination d’habitude toxiques qui nuisent à la l’efficacité des performances du cerveau.

L’entrainement à travers les études a été court, allant de 8 à 12 séances offertes sur un à deux mois en périodes de 45 à 60 minutes. Le protocole a porté sur trois stratégies cognitives — l’attention stratégique (strategic attention), le raisonnement intégré (integrated reasoning) et l’innovation. Ces stratégies sont de nature hiérarchique et peuvent être largement appliquées à la plupart des activités mentales journalières les plus complexes[5].

Au niveau de base, les participants de la recherche ont été encouragés à filtrer l’information concurrente qui n’est pas pertinente et à se concentrer uniquement sur des informations importantes. Aux niveaux plus avancés, les participants ont été invités, par exemple, à produire des interprétations, des thèmes ou des déclarations générales à partir d’informations dont ils avaient besoin ou dont ils désiraient lire. Chaque nouvelle stratégie est construite à partir des stratégies précédentes et les participants de la recherche ont été mis au défi d’intégrer toutes les étapes alors qu’ils abordaient les activités mentales, et ce, à la fois pendant les entrainements, et à l’extérieur des périodes d’entrainements.

On note ainsi certains bénéfices cognitifs qui ont été documentés dans les domaines d’entrainement tels que l’abstraction, le raisonnement et l’innovation. Et les bénéfices ont également débordé dans des domaines qui n’ont pas été entrainés, tels que la mémoire des faits, la planification et la résolution de problèmes. Ce qui est intéressant à propos de cette étude, c’est que lors les essais randomisés comparant le « gist-reasoning strategy-training » à l’entrainement de la mémoire, nous avons constaté que ce n’était pas d’apprendre de nouvelles informations qui engageait les réseaux cérébraux répandus et qui élevait les performances cognitives, mais plutôt le traitement plus profond de l’information et l’usage de ces informations de nouvelles manières qui « augmente » effectivement les performances du cerveau (essentiellement, se dépassé).

Le renforcement de la capacité intellectuelle n’est pas une science-fiction; ce qui semblait improbable est maintenant dans le domaine de la réalité.

Les changements physiques positifs au sein du cerveau et l’amélioration cognitive entre les populations en réponse à l’entraînement mental basé sur la stratégie (strategy-based mental training) démontrent le potentiel de la neuro-regénératif du cerveau.

La capacité à reconnaître, à synthétiser et à créer « l’essence » des idées complexes et des problèmes complexes à résoudres relèvent de compétences fondamentales pour la réussite scolaire, professionnelle et dans la vie courante. La capacité à améliorer la santé de la cognition et des réseaux neuronaux complexes, après une blessure ou un diagnostic d’une condition aura des implications majeures pour la prévention, le diagnostique et le traitement du déclin cognitif et de l’amélioration des performances cognitives chez les jeunes afin de les préparer à un avenir inconnu, et et chez les personnes plus âgées qui veulent rester mentalement robuste.

— –

sources

  1. Medical Xpress (2014, April 28) “Research shows strategic thinking strengthens intellectual capacity”, http://medicalxpress.com/news/2014-04-strategic-intellectual-capacity.html
  2. Center for BrainHealth. (2014, April 28). “Strategic thinking strengthens intellectual capacity. ScienceDaily“, Retrieved May 1, 2014 from http://www.sciencedaily.com/releases/2014/04/140428094259.htm
  3. Sandra B. Chapman, Raksha A. Mudar. “Enhancement of cognitive and neural functions through complex reasoning training: evidence from normal and clinical populations”, Frontiers in Systems Neuroscience, 2014;8, DOI:10.3389/fnsys.2014.00069
  4. (2014, April 28) “BrainHealth Research Shows Strategic Thinking Strengthens Intellectual Capacity”, The University of Texas at Dallas, Center for Brain Health.

références

  1. Chapman, S. B., Aslan, S., Spence, J. S., Hart, J. J., Bartz, E. K., Didehbani, N., … & Lu, H. (2013). Neural mechanisms of brain plasticity with complex cognitive training in healthy seniors. Cerebral Cortex, bht234, http://cercor.oxfordjournals.org/content/early/2013/08/21/cercor.bht234.full.pdf+html?sid=4dca13a4-3470-4076-bc51-dfdc121de7be.
  2. Champeau, R. (2013, June 25). “Memory improves for older adults using computerized brain-fitness program“, UCLA research alert – Academics & Faculty, UCLA Newsroom, http://newsroom.ucla.edu/releases/memory-improves-for-older-adults-246978
  3. Miller, K. J., Dye, R. V., Kim, J., Jennings, J. L., O’Toole, E., Wong, J., & Siddarth, P. (2013). Effect of a computerized brain exercise program on cognitive performance in older adults. The American journal of geriatric psychiatry: official journal of the American Association for Geriatric Psychiatry, 21(7), 655-663, http://europepmc.org/abstract/MED/23602310 (+ http://www.ajgponline.org/article/S1064-7481%2813%2900117-6/abstract).
  4. Karen J. Miller, Richelin V. Dye, Jeanne Kim, Julia L. Jennings, Elizabeth O’Toole, Julie Wong, Prabha Siddarth. Effect of a Computerized Brain Exercise Program on Cognitive Performance in Older Adults. The American Journal of Geriatric Psychiatry, 2013; 21 (7): 655 DOI: 10.1016/j.jagp.2013.01.077
  5. University of California – Los Angeles Health Sciences. (2013, June 25). Memory improves for older adults using computerized brain-fitness program. ScienceDaily. Retrieved May 1, 2014 from http://www.sciencedaily.com/releases/2013/06/130625172352.htm
  6. Benjamin M. Hampstead, Anthony Y. Stringer, Randall F. Stilla, Michelle Giddens, K. Sathian. Mnemonic strategy training partially restores hippocampal activity in patients with mild cognitive impairment. Hippocampus, 2012; DOI: 10.1002/hipo.22006
  7. Emory University. (2012, March 1). Training can improve memory and increase brain activity in mild cognitive impairment. ScienceDaily. Retrieved May 1, 2014 from http://www.sciencedaily.com/releases/2012/03/120301180950.htm

La dissidence n’est pas le cynisme!

TO BOLDLY GO WHERE NO MAN HAS GONE BEFORE
The Right Stuff

La dissidence, ce n’est pas l’anarchisme, ni la désaffectation sociétale du cynisme. Le lien social, la connexion sociale, persiste et demeure, malgré la marginalisation ou voir même l’exclusion sociale.

La dissidence, c’est la réponse au cynisme, et l’antidote ; c’est la participation citoyenne, la démocratie participative et la (co)construction d’une communauté de communautés.

La dissidence n’est pas fondée sur du subjectif ou de l’arbitraire, ni ne suit les gouts ou les humeurs du jour, mais est élaboré sur une réelle vision « rationnelle » de la (co)construction d’une communauté de communautés. La (co)construction est-elle un caprice, une lubie, une fabulation, un délire, voire même une utopie? Or, l’expérience humaine doit se fonder sur le risque calculé, et non pas la quête frénétique d’un mirage utopique.

Dans tous les cas, la (co)construction est une nécessité! Et aucun parti n’offre un tel projet qui s’approche un tant soit peu de ce genre de démarche, et aucun d’eux ne s’intéresse vraiment (ou réellement) au « nurturing » et au « co-parenting » du tissu social, si ce n’est par la perspective économique.

La disqualification du « non-vote » s’avère tout à fait naturelle venant de politiciens de carrière, toujours pressés à justifier leur existence [et surtout leurs contributions et leurs utilités].

Pour faire une simple allégorie, imaginons que le Québec est un nourrisson. Il a besoin de lait, mais on a de cesse de lui offrir de l’eau, du jus, du café, de l’alcool, et je ne sais quoi encore. Tout, sauf du lait. Si tous les partis ont quelque chose à offrir, rien ne dit que cela correspond bien aux besoins et intérêts supérieurs du Québec.

Alors qui suis-je pour affirmer que je sais ce qui est bon pour le Québec? S’il y a une thèse, je suis l’antithèse qui « pointe » à la synthèse. D’abord, j’ai confiance en mon jugement, même si bien des choses ne sont pas ce qu’elle semble être; the fog of lies, of illusions & of confusions. Ensuite, parce que l’individu qui n’est pas emporté par le courant frénétique sociétal, celui qui se tient à la marge, observe d’un point de vue différent. Je suis comme l’éclaireur (qui éclaire les autres, qui ont pour mission de partir en avant, afin d’observer les lieux et de rapporter les informations susceptibles d’aider à voir clairs ceux qui sont restés en arrière? Je suis comme celui qui éclaire l’intelligence et la conscience des lecteurs, l’ami des peuples, qui a pour mission de partir en reconnaissance pour observer le terrain et recueillir des informations qui seront utiles au reste du groupe. Je suis celui qui pointe, là où j’ai été, pour celui qui prend des décisions.

En fait d’héritage culturel québécois, il est là. Car l’éclaireur est un personnage central des romans populaires américains consacrés à la conquête de l’ouest. Il sera encore plus médiatisé dans les westerns. Le rôle d’éclaireur est particulièrement important dans les jeux de guerre ou il y a également eu des éclaireurs.

En fait, j’ai été largement été inspiré par l’éclaireur, le coureur des bois, et les héros et antihéros des westerns.

Non, mon cher monsieur, s’il y a une seule chose en qui j’ai foi, c’est bien en la (co)construction, qui peut être parfaitement décrite rationnellement, et qui s’inscrit dans des principes de la Vie et de la Nature, et qui peut certe, être mise en oeuvre, avec un leadership opportun et approprié.

Comment pourrais-je pointer là où personne ne regarde, si je suis totalement immergé dans le courant sociétal? L’apprenti psychosociologue et philosophe que je suis, ne peut à la fois, pointer, et guider.

Du cynisme!

Le ‪‎cynisme‬ ‪‎politique‬ en fait, c’est la désaffectation politique et sociale des parties, c’est la rupture de la confiance entre le citoyen et l’état prestataire de service (gouvernement, politique, éducation, santé, infrastructure, etc). Dans la pratique de la démocratie se désintéressera le citoyen, l’édifice tombera en ruines, on le désaffectera et quand il y aura péril pour la démocratie, on parlera de cynisme.

Le cynisme c’est le mépris des conventions sociales, de l’opinion publique, des idées reçues, généralement fondé sur le refus de l’hypocrisie et/ou sur le désabusement, souvent avec une intention de provocation. C’est le mépris des convenances, de l’opinion, de la morale.

En ce sens, le cynisme se trouvent souvent propagé par les ‘leader d’opinions’ ou les ‘entrepreneurs de morale’.

Or pour moi, les systèmes collusionnaires relève de la mise en oeuvre du cynisme. Le cynisme, ce sont les dérives du financement occulte des partis politiques. Le cynisme, c’est posséder des infrastructures désuètes qui risque de s’écrouler sur la populace locale à tout moment. Le cynisme, c’est avoir des écoles parsemées de moisissures. Le cynisme, c’est un taux alphabétisation fonctionnelle de 50% de la population, et des dérive en terme de littératie multiples. Le cynisme, c’est la violence et la maltraitance institutionnelle des ainées ou la violence psychologique et morale faite aux enfants. Le cynisme, ce sont les problèmes d’accès aux services de soins santé et les attentes interminables. Le cynisme, c’est l’absence d’imputabilité, de responsabilité, d’éthique et de morale. Le cynisme, c’est provocant, insolent, aux limites de l’impudence.

En ce sens, c”est la rupture du contrat social qui n’assure plus la confiance entre les parties ; c’est une rupture du lien social ; c’est de la dégradation du tissu social.

J’aime les expressions “d’insulte intellectuelle” ou “d’insulte à l’humanité” pour exprimer l’absurdité, la puérilité, des humains qui mettent en œuvre ou qui participent aux systèmes collusonnaires. C’est le mépris de l’intelligence, de la cohérence, de l’imputabilité, de la responsabilité, de l’éthique et de la morale, etc. C’est le réalisme relativisme à son meilleur. Or, ne pas avoir d’éthique, c’est se manquer de respect à soi-même et aux autres.

Près d’un adulte canadien sur trois rapporte avoir vécu de l’abus durant l’enfance

Une nouvelle étude qui donne à réfléchir constate que près d’un tiers des adultes au Canada a vécu de l’abus sous forme de maltraitance et de violence durant l’enfance au sein de leur foyer.

Ainsi, l’abus peut prendre plusieurs formes, notamment les sévices, les sévices sexuels, ou l’exposition à la violence conjugale (parents, beaux-parents, ou tuteurs).

En outre, tel que publié dans le Journal de l’Association médicale canadienne — JAMC (Canadian Medical Association Journal – CMAJ), les enquêteurs ont constaté que la maltraitance des enfants est liée à des troubles mentaux et des idées suicidaires (idéation) ou des tentatives de suicide.

Du point de vue de la santé publique, ces résultats mettent en évidence l’urgent besoin de faire de la prévention de la maltraitance des enfants une priorité au Canada.

Bien que le lien entre la maltraitance des enfants et la santé mentale soit déjà connu, on note cependant qu’au Canada, un déficit d’études et de recherches ressent, fournissant les informations les plus complètes sur la prévalence du phénomène de la maltraitance des enfants et du lien entre les différents types de violence et les troubles mentaux chez les adultes.

Ce présent recensement est la première étude représentative à l’échelle nationale de la maltraitance des enfants et des troubles mentaux au Canada. Les chercheurs ont examiné les données de 23 395 personnes, et ce, provenant de partout au Canada, qui ont participé à l’Enquête sur la santé dans les collectivités canadiennes : santé mentale, 2012 (2012 Canadian Community Health Survey: Mental Health)[a,b].

Les participants étaient âgés de 18 ans ou plus et étaient représentatifs de personnes vivant dans les 10 provinces. L’étude a exclu les résidents des trois territoires, les résidents des communautés autochtones, les membres à temps plein des Forces canadiennes et les personnes vivant au sein d’institutions.

Ainsi, selon l’étude, 32 % des adultes canadiens ont connu de la maltraitance, notamment la violence physique qui est la plus courante (26 %), suivie de la violence sexuelle (10 %), et l’exposition à la violence conjugale (8 %).

Les hommes étaient plus susceptibles d’avoir été victimes de violence physique (31 % contre 21 % chez les femmes) et d’avoir un taux d’abus plus élevé (34 % contre 30 %). Les sévices sexuels étaient plus fréquents chez les femmes (14 % contre 6 % des hommes), de même que pour l’exposition à la violence conjugale (9 % contre 7 %) que les enfants.

Les personnes entre 35 et 64 ans étaient plus susceptibles que ceux âgés de 18 à 34 ans de déclarer avoir été maltraitées dans l’enfance.

Tous les trois types de violence envers les enfants ont été associés à tous les types de troubles mentaux diagnostiqués par entrevue, les conditions mentales autodéclarées, les idées suicidaires [pensées de suicide], et les tentatives de suicide dans les modèles d’ajustement pour les variables sociodémographiques » écrivent les auteurs.

L’abus de drogues ou de dépendance, des pensées suicidaires et tentatives de suicide sont restées associées à tous les types de violence envers les enfants, malgré l’usage de modèles les plus adaptés (ou ajusté).

Le type le moins grave de violence physique (les gifles au visage, à la tête ou aux oreilles, les coups ou les fessées avec un objet de dur comme la strappe ou le bâton) a montré une forte association avec toutes les conditions mentales dans les modèles ajustés en fonction des variables sociodémographiques.

L’exposition à plus d’un type de violence augmente les chances d’avoir une condition mentale. Les provinces de l’ouest du Canada ont enregistré les taux de maltraitance des enfants les plus élevés, avec le Manitoba en premier (40 %), suivie de la Colombie-Britannique et de l’Alberta (36 %). Terre-Neuve et le Labrador ont enregistré les taux de violence les plus bas, soit à 21 %. Le Québec se situe autour de 32 % des enfants qui ont vécu une forme ou une autre de maltraitance de l’étude.

Tous les fournisseurs de soins de santé se doivent d’être conscients de la relation entre les types spécifiques de violence envers les enfants et certains troubles mentaux. Les cliniciens qui travaillent dans le domaine de la santé mentale doivent être suffisamment qualifiés pour évaluer les patients exposer à la violence et doivent comprendre les implications pour le traitement.

— –

Les associations entre la maltraitance des enfants et le déficit de l’attention, les idéations suicidaires et les tentatives de suicide ont montré de plus forts effets chez les femmes que les hommes.

— –

sources

  1. Nauert, R. (2014). Nearly 1 in 3 Canadian Adults Reports Abuse. Psych Central. Retrieved on April 23, 2014, from http://psychcentral.com/news/2014/04/23/nearly-1-in-3-canadian-adults-reports-abuse/68875.html

  2. Afifi, T. O., et coll. (2014, April 22)”Child abuse and mental disorders in Canada”, Early Access, CMAJ 2014. DOI:10.1503/cmaj.131792, http://www.cmaj.ca/content/early/2014/04/22/cmaj.131792.full.pdf (+ http://bit.ly/1icduEe).

références

  1. Canadian Community Health Survey: Mental Health, 2012 – http://www.statcan.gc.ca/daily-quotidien/130918/dq130918a-eng.htm

  2. Canadian Community Health Survey – Mental Health (CCHS), 2012 – http://www23.statcan.gc.ca/imdb/p2SV.pl?Function=getSurvey&SDDS=5015

  3. Leung, M. (2014, April 22), “One in three Canadian adults has experienced child abuse: study”, CTV News Canada, http://www.ctvnews.ca/health/one-in-three-canadian-adults-has-experienced-child-abuse-study-1.1786838

  4. Branswell, H. (2014, April 22). “1 In 3 Canadian Adults Have Suffered Child Abuse, New Study Suggests”, http://www.huffingtonpost.ca/2014/04/22/child-abuse-canada_n_5192339.html

Les gens plus intelligents font plus confiance

Tant le vocabulaire que la compréhension des questions ont été positivement corrélés à la confiance en général ou à la “confiance généralisée” (generalized trust). Ainsi, ceux qui ont obtenu les scores de vocabulaire les plus élevés étaient 34 % plus susceptibles de faire confiance à d’autres que ceux qui ont obtenu les scores les plus faibles, et une personne qui avait une bonne « compréhension perçue » (perceived understanding) des questions de l’enquête était 11 % plus susceptible de faire confiance aux autres que quelqu’un avec une compréhension perçue pauvre. La corrélation est restée forte, même lorsque les chercheurs ont effectué un contrôle en fonction de classe socio-économique.

Cette étude, aussi, a montré une corrélation entre la confiance, la santé et le bonheur auto-déclarée. Les personnes confiantes étaient 6 pour cent plus susceptibles de dire qu’ils étaient « très heureux », et 7 pour cent plus susceptibles de se déclarer en bonne ou en excellente santé.

La confiance généralisée réfère à la confiance qu’entretient une personne avec les autres membres de sa société; notamment, il peut être distingué de la confiance particularisée (particularized trust), qui correspond essentiellement à la confiance que l’on entretient avec la famille et les amis proches. Une vaste littérature empirique a établi que la confiance généralisée est un aspect important de la culture civique. La confiance généralisée a été liée à une variété d’aboutissements positifs chez l’individu, tel que l’entrepreneuriat, le bénévolat, la santé auto-évalué, et le bonheur. Cependant, deux récentes études ont montré qu’elle est fortement corrélée à l’intelligence, ce qui soulève la possibilité que les autres relations dans lesquelles la confiance généralisée a été impliquée s’avèrent être fausses.

L’étude reproduit l’association entre l’intelligence et la confiance généralisée au sein d’un grand échantillon représentatif à l’échelle nationale des adultes américains. Nous montrons aussi que, après l’ajustement en fonction de l’intelligence, la confiance généralisée continue d’être fortement associée, à la fois, à l’auto-évaluation de la santé et au bonheur. Dans le contexte de variation importante entre les pays, ces résultats renforcent l’idée que la confiance généralisée est une ressource sociale précieuse, non seulement pour l’individu, mais pour la société en général ainsi.

Certaines recherches ont montré, par exemple, que les pays, dont les citoyens, se font le plus confiance les uns les autres, ainsi qu’aux institutions publiques, sont plus efficaces et affichent des taux plus élevés de croissance économique. En outre, des recherches ont révélé que les personnes qui mettent une plus grande confiance en leurs concitoyens sont plus susceptibles de démarrer une entreprise, d’effectuer plus fréquemment un travail bénévole, d’être en meilleure santé physique et de prétendant être plus heureuses dans l’ensemble de leurs vies. Les études sur la confiance généralisée ont donc des implications plus profondes pour la politique publique, et s’avèrent d’un intérêt scientifique intrinsèque.

— –
Étude complète : http://bit.ly/1gFNw9K

Les circuits sociaux qui permettent de faire le suivi de la manière dont nous aimons les gens et les idées

Indépendamment du contexte social, nous savons généralement tous, et ce intuitivement, qui sont les personnes les plus populaires — qui est le plus aimé (liked) — même si nous ne pouvons pas toujours mettre le doigt sur la raison ou l’origine d’une telle habileté. Cette information s’avère souvent essentielle à la réussite professionnelle ou sociale alors que vous naviguez dans vos réseaux sociaux. Pourtant, jusqu’à présent, les scientifiques n’avaient pas compris la manière dont notre cerveau reconnait ces gens populaires. Dans de nouveaux travaux, les chercheurs montrent que nous faisons le suivi de la popularité des gens en grande partie via une région du cerveau impliquée dans l’anticipation de récompenses.

Être capable de suivre le statut des autres personnes de votre groupe s’avère extrêmement important en termes de survie sociale. Déterminer qui est populaire ou sympathique est très important en cas de besoin ou de détresse, lorsque l’on cherche a faire une alliance, ou lorsque l’on a besoin d’aide — qu’elle soit physique, émotionnelle ou politique —, etc. Alors que des sociologues, des psychologues et des anthropologues ont longtemps étudié ces dynamiques de groupe, les neuroscientifiques ont seulement commencé à gratter la surface sur ce que nous pensons concernant le statut social des personnes.

Ainsi, de nombreux espaces de travail réunissant la psychologie sociale, la sociologie, et la neuroscience cognitive pour mieux comprendre la manière, dont les processus cérébraux individuels, se « connectent » à l’appartenance au groupe. Les chercheurs étudient maintenant au niveau de neurones a peu prêt tout, de la popularité sociale à la manière dont les idées se propagent avec succès dans les groupes.

Une personne atteint un certains statut social au sein d’un groupe, soit par le pouvoir – le contrôle des ressources – ou de la popularité – soit par la manière dont ils sont bien appréciés. Les recherches antérieures sur le statut social s’est largement concentré sur le pouvoir, mais Ochsner (http://bit.ly/1qmx8fL) et ses collègues voulaient examiner plus spécifiquement la popularité, et ce, en capitalisant sur ​​les techniques d’analyse de réseau social déjà disponibles à partir de la sociologie.

Dès lors, les cherceurs possède une manière simple de définir pour un groupe donné qui est populaire, et qui ne l’est pas, ceux-ci peuvent alors demander comment il est possible que le cerveau puisse représenter ce que cela signifie pour une personne d’avoir ce genre de statut d’appréciation (capital d’appréciationliking-based status), ou de popularité, dans le contexte d’un groupe. Pour cette étude, Ochsner a recruté et invité des membres d’organisations étudiantes à entrer dans son laboratoire et à évaluer combien ils s’apprécie entre eux. Les chercheurs ont ensuite utilisé ces notes pour déterminer mathématiquement pour déterminer qui est le plus aimé et ce dans chaque réseau social.

Puis, quelques semaines plus tard, les chercheurs ont invité les mêmes personnes au laboratoire pour passer un scanneur IRMf, tout en montrant les visages des personnes. Les participants déterminaient alors si les visages étaient de personnes provenant de leur propre organisation ou non; des visages composites — pas de vraies personnes — ont été ajoutés à titre d’élément témoin. Les chercheurs ont alors regardé comment les zones du cerveau des participants ont réagi à la présentation des visages de ceux jugés populaires au sein du groupe — on mesure alors l’augmentation ou la diminution de l’activité de régions spécifique du cerveau relatif à la popularité.

Pour chaque réseau social, les chercheurs ont constaté la même tendance de l’activité cérébrale chez les personnes qui regardaient les visages de personnes populaires, et ont identifié deux systèmes critiques dans le cerveau : le système impliqué dans l’évaluation émotionnelle et la récompense (striatum ventral, amygdale, cortex préfrontal ventromédian), ainsi que le système impliqué dans la cognition sociale, le lieu de notre capacité à réfléchir sur les sentiments et les intentions d’autrui (temporo-jonction, précuneus, et dorsomédial cortex préfrontal). Les chercheurs ont alors constaté que l’activité dans ces deux réseaux s’élève en fonction de la popularité d’une autre personne, et cela s’avère compatible avec les deux manières dont nous suivons le statut d’autres personnes.

Le premier manière postule qu’au fil du temps nous apprenons qui est sympathique en éprouvant les effets de récompense lors de l’interaction avec autrui. Même si vous n’aimez pas personnellement quelqu’un, vous savez peut-être que cette personne est sympathique par le truchement sur la base de l’observation de ses interactions à d’autres membres du groupe. Cela expliquerait pourquoi les systèmes de récompense dans le cerveau réagissent à la vue des gens populaires — comme nous anticipions les avantages d’interagir avec eux. L’autre manière, c’est que nous devons être en mesure de réfléchir sur les états mentaux, les croyances et les pensées d’autrui — en particulier ceux qui ont un statut élevé — afin de former des coalitions, de demander de l’aide, ou autrement pour travailler au sein du groupe.

Les chercheurs ont constaté que même avec de brèves présentations de visages — les visages sont sur un écran pendant seulement une seconde — ces systèmes sont mis en ligne. En outre, le système d’évaluation émotionnelle contrôle la réponse du système de la cognition sociale : le système d’évaluation émotionnel détient effectivement la clé afin de déverrouiller la popularité des membres du groupe et informe ensuite les systèmes de la cognition sociale que c’est une personne avec laquelle je peux m’attendre à d’enrichissantes interactions, amenant la personne à réfléchir à propos des pensées, des intentions et des sentiments de l’individu populaires en question.

Les chercheurs ont également constaté que plus populaire est la personne dans un groupe, le plus fortement ces systèmes cérébraux réagissent à la vue d’une autre personne populaire. Ce résultat suggère que les gens populaires sont « extrêmement sensibles à la manière dont d’autres personnes sympathiques sont et qu’ils peuvent ensuite adapter leur comportement de manière appropriée ».

On souligne que les études ont contrôlé un certain nombre de facteurs, y compris l’attractivité, la fiabilité, et les préférences idiosyncrasiques des individus, de sorte que la mesure de la popularité s’avère vraie, en moyenne, pour les individus dans le groupe. En outre, ils ont d’abord situé et identifié les systèmes indépendants du cerveau , à l’aide des tâches visant à identifier l’apprentissage de la récompense et la cognition sociale.

Ce travail ne concerne pas uniquement la question de la science fondamentale sur la manière dont nous faisons le suivi de la popularité sociale avec/dans notre cerveau, mais également pourrait éventuellement éclairer la recherche sur l’autisme et d’autres troubles neuro-développement, qui nuisent à la capacité de ces personnes à juger le statut social. Nous pouvons également poser des questions sur la manière dont nous pourrions (ra)mener les gens de la périphérie vers le centre, de la partie « non-aimé » d’un groupe, à la partie aimée d’un groupe. Et, le travail aurait également certaines implications importantes dans le monde des affaires où l’efficacité d’une structure hiérarchique revient souvent à ceux qui sont le plus aimés.

Les mêmes régions du cerveau impliquées dans la manière dont nous voyons la popularité des autres déterminent également l’efficacité avec laquelle nous communiquons des messages à autrui. Emily Falk DU University of Pennsylvania et ses collègues (http://bit.ly/PNCaXv) ont constaté que l’activité au sein de la cognition sociale et des systèmes d’évaluation et de récompense émotionnelle PEUVENT réellement prédire la manière dont une personne peut effectivement vendre leurs idées aux autres et la manière dont les idées se répandent.

L’activité neuronale du cerveau d’un récipiendaire de l’idée initiale peut nous informer sur le niveau de succès d’une idée qui sera retransmise aux autres. L’activité du cerveau de cette personne initiale offre des suggestions sur la manière dont les autres, qui n’ont jamais pris connaissance du message original, sont susceptibles de réagir aux messages lorsqu’ils sont transmis de personne à personne, et qui est également susceptible d’être les meilleurs « vendeurs » d’idées.

Ainsi, un nombre croissant de travaux concernant, non seulement les systèmes neuronaux qui rendent une personne un bon « vendeur d’idée », mais également le rôle de la position d’une personne dans un réseau social lors de la transmission des idées.

Dans le plus récent travail de son laboratoire, avec l’auteur principal Matthew Brook O’Donnell, l’équipe d’abord utilisé Facebook pour cartographier l’état des personnes au sein de leurs réseaux sociaux. Ensuite, en utilisant l’imagerie IRMf, ils ont constaté que les personnes ayant plus de possibilités pour le « courtage » d’informations entre différents groupes de personnes ont montré une activité accrue dans les régions du cerveau qui soutiennent la réflexion sur les états mentaux d’autrui. Cette activité de cerveau pourrait leur permettre de mieux répondre aux signaux sociaux lorsqu’il est question de faire des recommandations aux autres.

Nous savons que les environnements sociaux affectent les gens dans toutes sortes de manières, cette étude s’intéresse à la manière, dont la position dans le réseau social affecte tous les types de processus de base du cerveau. Ce travail cherche à expliquer les variations observées de certaines recherches précédentes, notamment à savoir dans quelle mesure une personne peut être efficace en tant que « vendeur » idée.

Le travail offre un aperçu de ce qui rend les idées « persistante ». Par exemple, même si les résultats actuels relèvent de corrélations, il est déjà possible d’entrevoir que si les systèmes de cognition sociale s’avèrent plus critiques lors de la diffusion des idées, alors les gens devraient investir plus d’énergie dans la réflexion concernant ce que les autres pensent et ressentent afin d’obtenir les meilleurs résultats.

Les gens peuvent parfois décider ce qu’ils partagent en fonction de leurs propres préférences, mais, en fin de compte, nous sommes tous programmés pour être sociaux, et les circuits sociaux semblent prévoir quelles idées deviendront populaires. De même, les personnes qui présentent plus d’activité dans ces circuits ont finalement plus de succès à convaincre les autres à monter à bord avec leurs idées préférées.

L’explosion de nouveaux outils de communication, tels que les médias sociaux, combinés avec de nouveaux outils analytiques, a considérablement aidé les scientifiques à mieux comprendre comment les idées se propagent.

En fin de compte, ces chercheurs travaillent à pouvoir anticiper et prévoir quelle idée deviendra « virale » et quel genre de personnes et de messages favorise le mieux le plus la réalisation de l’effet virale d’une idée. Les chercheurs espèrent ainsi que ce genre d’information pourrait être utilisée pour créer des campagnes de santé publique plus efficaces qui tiennent compte des grands défis sociétaux tels que l’obésité et le tabagisme.

— —

Sources

Cognitive Neuroscience Society (2014). « The Social Circuits that Track How We Like People and Ideas »,  7 april 2014, http://bit.ly/1g2Fp3r (+ http://bit.ly/1g4RQfb ).

Cognitive Neuroscience Society. (2014, April 7). Social circuits that track how we like people, ideas. ScienceDaily, http://bit.ly/1qjKEkd.

Falk, E.B., Morelli, S.A., Welbourn, L., Dambacher, K. & Lieberman, M.D. (in press). Understanding the spread of ideas through the brains that spread them. Psychological Science (+ http://bit.ly/PNCaXv).

Falk et Ochsner ont présenter leur travail, avec Lisa F. Barrett et Dharshan Kumaran, au colloque The Neuroscience of Social Networks“, Lundi 7 Avril 2014, à la réunion annuelle du CNS annual meeting
à Boston
. Plus de 1500 scientifiques sont présents à la réunion à Boston, MA, d’Avril 5-8 2014, http://bit.ly/1kHH4yG.

The price had better to be right : Les femmes trouvent les annonces publicitaires à caractère sexuel peu attrayantes – Sauf le prix est juste

L’imagerie sexuelle est souvent utilisée dans les publicités — par exemple dans les magazines et à la télévision — sans doute pour aider à attirer les acheteurs à acheter un nouveau produit ou à tout simplement consommer un produit. Mais une recherche suggère que les femmes ont tendance à trouver les annonces publicitaires qui comportent des images sexuelles rebutantes, à moins que l’article soit annoncé à un prix assez élevé.

Les résultats révèlent que la prétendue attitude négative des femmes sur l’imagerie sexuelle peut être assouplie lorsque les images sont jumelées à un produit qui évoque une grande valeur.

Les femmes affichent généralement et spontanément des attitudes négatives à l’égard des images sexuelles. La théorie de l’économie sexuelle (Sexual economics theory) offre une raison : l’usage de l’imagerie sexuelle est apparat inamical à l’intérêt des femmes dans le sexe lorsqu’il est dépeint comme étant peu fréquent, spécial, et rare.

Vohs, et collègues, ont prédit que les attitudes négatives des femmes à l’égard de l’imagerie sexuelle pourraient s’adoucir si le sexe est représenté d’une manière qui est consistant avec les valeurs sexuelles considérées comme étant grandement valorisé et de grande valeur. L’imagerie sexuelle peut être moins rebutante pour les femmes, par exemple, si elle est associée avec des biens de consommation à prix élevé, ce qui peut transpirer l’exclusivité et une grande valeur.

Pour tester cette prédiction, Vohs et collègues ont inviter des participants masculins et féminins à leurs laboratoires pour évaluer des publicités de montres pour les femmes. Dans certaines annonces publicitaires, la montre a été présentée avec une image sexuellement explicite, tandis que dans d’autres, la montre a été photographiée avec une chaine de montagnes majestueuses. Ainsi, quelques-unes des annonces annonçaient la montre à 10 $ et dans d’autres, à 1250 $.

Afin de mesurer les réactions instinctives des participants face aux annonces publicitaires, les chercheurs ont à mémoriser un code à 10 chiffres avant de regarder les annonces, une distraction cognitive destinée à les empêcher de réfléchir trop profondément aux annonces qu’ils observent. Puis, après avoir récité le code, les participants ont été interrogés sur leurs attitudes et leurs réactions émotionnelles face aux publicités.

Globalement, les femmes qui ont vu l’imagerie sexuelle associée à une montre peu onéreuse dans les annonces l’évaluaient plus négativement, que les femmes qui ont vu l’imagerie sexuelle avec la montre onéreuse. Ces évaluations négatives semblent avoir été entrainées par les émotions négatives des femmes — sentiment de colère, de dégoûté, et de désagrément, de surprise — en réponse à l’annonce dont on a jumelé une imagerie sexuelle à une montre peu onéreuse.

Les hommes, en revanche, ont des réactions similaires aux annonces publicitaires basées sur le sexe, quel que soit le prix annoncé de la montre.

Les chercheurs notent que le prix a seulement produit une différence pour les femmes en ce qui concerne les annonces publicitaires qui comportent l’imagerie sexuelle. Les participantes n’ont montré aucune différence dans leurs évaluations pour les montres bon marché et onéreuses lorsqu’ils ont été jumelés avec la chaine de montagnes majestueuse.

Une deuxième étude a reproduit ces résultats et a exclu la possibilité que les évaluations des hommes ne différaient pas parce qu’ils jugeaient les montres des femmes non pertinentes : les hommes ont donné des notes similaires aux annonces sexuellement explicites qui ont inclus des montres pour hommes, indépendamment du prix des montres.

Alors que les résultats sont en direct ligne avec les prévisions générées par la théorie de l’économie sexuelle, les chercheurs néanmoins ont été surpris. Ceux-ci ont pu obtenir ces effets, même si les participants n’étaient pas réellement dans un mode « achat ». Juste une rapide exposition à une annonce publicitaire était suffisante pour le déclenchement la théorie de l’économie sexuelle ». Cela suggère que le processus se produit à un niveau intuitif profond.

Une étude de Bongiorno et coll. (2013) suggère que l’utilisation d’images sexualisées de femmes pourrait en fait produire un retour de flamme (backfire) d’une campagne publicitaire, et ce en particulier pour les causes éthiques telles que les organismes de bienfaisance et les organismes communautaires.

Les recherches du Dr Bongiorno sont liées à la déshumanisation sexuelle (sexual dehumanisation) des femmes pour la réduction de préoccupation quant au comportement éthique. Dr Bongiorno explique que la recherche s’adresse a un paradoxe non résolu : l’efficacité de la promotion publicitaire d’une cause éthique (ethical cause) en utilisant des moyens contraires à l’éthique. Les images sexualisées des femmes dans la publicité sont omniprésentes et cette recherche remet en cause l’opinion commune selon laquelle ils seront toujours des outils de persuasion efficaces. La recherche a utilisé des publicités d’une organisation communautaire (People for the Ethical Treatment of Animals — PETA) et impliquée des acteurs de différentes nations et démographie.

Les participants qui ont consulté des annonces contenant des images sexualisées de femmes ont indiqué qu’ils réduiraient leur soutien à l’organisation qui publie ce genre de publicité. Leurs réponses ont montré que c’était essentiellement parce que les images sexualisées déshumanisaient la représentation de la femme, les faisant paraitre comme des « animaux », sorte d’avilissement. Or, certaines recherches antérieures ont montré que la déshumanisation des femmes augmente la tolérance aux comportements contraires à l’éthique envers les femmes — en particulier les attitudes des hommes à l’égard du harcèlement sexuel et du viol.

Par conséquent, il semble peu probable qu’une stratégie publicitaire qui déshumanise les femmes soit efficace, car en fait, cette stratégie s’est effectivement retournée contre l’organisme.

Cette étude a ouvert la voie à de nouvelles pistes de recherches sur l’impact négatif des images sexualisées de femmes que pourraient avoir sur ce genre de campagnes de promotion publicitaire pour d’autres causes éthiques, telles que l’action de lutte contre la pauvreté.

La société fait face à de nombreux défis éthiques, non seulement en relation avec les animaux, mais également par rapport à la réduction des inégalités sociales et de la pauvreté, ainsi que pour la lutte contre le changement climatique, et afin de comprendre la manière de communiquer la plus efficace de ces causes est essentielle, voire capitale pour l’existence d’un organisme.

Dr Bongiorno espère que les organisations de promotion des causes éthiques bénéficieront de sa recherche et choisiront des stratégies de publicité qui ne déshumanisent pas les femmes. Les tactiques déshumanisantes et avilissantes ont non seulement des conséquences négatives pour les femmes, mais aussi pour les causes éthiques qui fait usage de ce genre de stratégie.

— –

Sources

Women Find Sexually Explicit Ads Unappealing — Unless the Price Is Right – Association for Psychological Science, http://bit.ly/18w82Ta (+ http://bit.ly/1kGPtCG).

Bongiorno, R., Bain, P. G., & Haslam, N. (2013). When Sex Doesn’t Sell: Using Sexualized Images of Women Reduces Support for Ethical Campaigns. PLoS ONE, 8(12), e83311. doi:10.1371/journal.pone.0083311, http://bit.ly/1oJBHVT.

Références

Vohs, K. D., Sengupta, J., & Dahl, D. W. (2014). The Price Had Better Be Right Women’s Reactions to Sexual Stimuli Vary With Market Factors. Psychological Science, 25(1), 278–283. doi:10.1177/0956797613502732é, http://bit.ly/18w82Ta, http://bit.ly/R0GPGp.

Bongiorno, R., Bain, P. G., & Haslam, N. (2013). When Sex Doesn’t Sell: Using Sexualized Images of Women Reduces Support for Ethical Campaigns. PloS one, 8(12), e83311.

[DRAFT] Une ardoise pas si vierge : Qu’est-ce que les enfants comprennent sur le monde social? Plus que vous ne le pensez!!!

La capacité à évaluer d’autres personnes est essentiel pour naviguer dans le monde social. Les humains doivent être en mesure d’évaluer les actions et les intentions des gens autour d’eux, et de prendre des décisions précises sur qui est ami et qui est ennemi (ou adversaire), et qui est un partenaire social approprié et qui ne l’est pas. En effet, tous les animaux sociaux bénéficient de cette capacité d’identifier les individus congénères qui peuvent aider, et distinguer ces personnes des autres qui peuvent leur nuire.

Les adultes humains évalue rapidement et automatiquement les personnes sur la base de caractéristiques physiques et comportementementales, mais les origines ontogénétique et le développement de cette capacité restent encore mal comprises.

La réussite de l’existence des adultes humains dans le monde social repose sur essentiellement sur la capacité d’évaluer autrui. Nous devons être en mesure de faire la distinction entre les personnes de confiance des personnes peu fiables, et d’identifier qui est susceptible d’être aidant, de qui ne l’est pas – ceux qui pourrait valoir la peine d’être approcher et ceux qu’il vaut mieux éviter. Ces jugements sont informés en partie, par les comportements d’autrui – nous avons tendance à juger positivement ceux dont les actions envers les autres ont un caractère sociable et serviable, et à juger négativement ceux dont les actions sont nuisibles ou antisocial en nature. En supposant [ou en attribuant] que les actions sociales d’autrui sont motivés par des traits de personnalité sous-jacents et durables qui continueront à influencer leur comportement de la personne au fil du temps, nous pouvons alors produire des jugements sur qui sera probablement un bon ou mauvais partenaire social (social partner).

Il est question de l’évaluation et du jugement social.

Les nouveau-nés ont une réputation à défendre : ils sont reconnus pour manger, dormir, et être que de véritables machines à souiller des couches. Souvent considérés, et déconsidérés, comme une « page blanche », les nouveau-nés auraient beaucoup à apprendre. Les gens ont ainsi acquis l’habitude de penser, et de croire que les capacités cognitives des nourrissons étaient sévèrement limitées. Or, les outils et les recherches les plus récentes ont vraiment peint un portrait de la réalité totalement différente.

Pourtant, eux aussi ont beaucoup à nous apprendre. Ainsi, alors même que les scientifiques explorent ce qui se passe dans leurs adorables minuscules têtes, les chercheurs ont remarqué que les bébés présentaient une surprenante richesse quant à la compréhension du monde sociale autour d’eux.

Pour la plus grande partie du 20e siècle, les manuels de psychologie du développement enseignaient qu’il fallait des années pour que les enfants saisissent les concepts « socio-moraux » (social-moral concept) tels que l’équité et l’altruisme. Ces études, cependant, rencontraient de sérieuses limitations : Ils relevaient principalement d’entretiens avec les enfants et ne pouvaient donc ainsi ne rien révéler sur les nourrissons, les poupons ou les tout-petits pré-verbaux avec un lexique limité.

Un tournant s’est produit lors des années 1980, lorsque Renée Baillargeon PhD, et directrice du Cognition Laboratory at the University of Illinois at Urbana-Champaign, et ses collègues, ont développé une méthode pour tester la compréhension des bébés au sujet des objets et des événements de leur environnement autour d’eux. La technique est fondée sur la constatation que les bébés regardent « mesurablement » plus longtemps lors d’événements qui défient leurs attentes.

Cette équipe, et plus tard d’autres ont depuis exploré ce que les nourrissons comprennent des états mentaux d’autrui, un concept connu sous le nom « théorie de l’esprit » (theory of mind). Plus récemment, ce travail a conduit à s’interroger sur le développement social et moral des  nourrissons et des jeunes enfants. Le paysage de la recherche est en constante évolution et la science commence à poser certaines questions qui n’ont pas été auparavant effectivement posées à sujet des jeunes bébés.

Étudier la moralité chez les nourrissons peut s’avérer particulier. La morale est difficile à définir, même chez les adultes. Pourtant, les chercheurs de ce domaine se sont porté sur quelques traits principaux, y compris la serviabilité, l’équité et la bonté. La recherche indique que ces « comportements prosociaux » (prosocial behaviors) peuvent être détectés chez les bébés âgés de quelques mois.

Dans une telle étude, Wynn (http://bit.ly/1fW114X) et ses collègues J. Kiley Hamlin, doctorat, et Paul Bloom, Ph.D., ont présentés aux enfants agés de 3 mois une marionnette avec des yeux gros comme des piastres françaises (Googly eyes or jiggly eyes) qui monte péniblement une colline. Dans un scénario, un triangle utile aide à pousser le cercle vers le haut. Dans un autre, un carré pas si gentil frappe le cercle l’entrainant ainsi vers le bas de la colline. Plus tard, un expérimentateur a montré les deux personnages aux bébés (le triangle ou le carré). Or, les enfants préfèrent regarder (gaze) les personnages qui aident plutôt que ceux qui nuisent. Cette préférence semble exister que dans un contexte social, puisque les bébés ne montrent aucune préférence lorsque les personnages poussent des objets inanimés haut ou en bas de la colline (Developmental Science, 2010). À l’âge de 5 mois, comme suite à une maitrise plus précise de leurs motricités, les bébés tentent activement d’atteindre le personnage gentil déconsidérant le personnage méchant — ce qui suggère que le regard prolongé (extended gaze) des enfants âgés de trois mois s’avère une indication quant à leur préférence. Les résultats suggèrent que les bébés peuvent distinguer entre les gentils et les méchants avant même de pouvoir se rouler sur eux-mêmes.

Au moment où ils atteignent 1 an d’âge, les bébés ont acquis les aptitudes physiques pour commencer à s’engager de leurs propres chefs dans des comportements utiles — et un certain nombre d’études ont montré qu’ils le font avidement, et avec un certain empressement. En fait, ils aident même sans qu’on le leur demande, et ce sans être louangé ou récompensé pour l’effort.

Dans une étude (Sommerville, A., Schmidt, M., 2011, Plos One), on observe que l’altruisme semble se développer de manière précoce chez les enfants et les chercheurs ont démontré que les nourrissons âgés de 15 mois semblent spontanément comprendre les notions de partage et d’équité. Les chercheurs ont testé 47 enfants qui ont regardé une vidéo sur le partage de la nourriture, puis en interaction avec le chercheurs, alors qu’ils étaient assis sur les genoux de leurs mamans, et les résultats montrent que les normes d’équité et d’altruisme sont plus rapidement acquisesent qu’on ene le pensaient ».

Warneken et Michael Tomasello, PhD, du Max Planck Institute for Evolutionary Anthropology, en Allemagne, ont donné à des jeunes de 2 ans l’occasion d’aider un adulte qui n’est pas familier à prendre des objets qui ont chuté tels que des marqueurs et des trombones. Les chercheurs ont constaté que les enfants ont contribué de façon égale et fréquente, peut importe si leurs parents ont souligné la problématique, s’ils ont encouragé à aider, s’ils ont donné la consigne de le faire ou s’il se tenaient tout simplement tranquillement à proximité. Le fait que le parent était dans la même salle (ou pièce) que le rejeton n’avait aucune importance. Ces résultats suggèrent donc que les tout-petits ont un désir intrinsèque d’être utiles (Infancy, 2013).

Mais les bébés semblent également capable de comprendre que tout le monde ne mérite d’être aidé. Valerie Kuhlmeier (http://bit.ly/1lFAKJz), Ph.D., chef du Infant Cognition Group at Queen’s University, en Ontario, et Kristen Dunfield (http://bit.ly/1ijQiyx), Ph.D., maintenant à l’Université Concordia, à Montréal, ont présenté deux scénarios aux enfants âgés de 21 mois. Dans l’une, un adulte taquine le bébé avec un jouet sans le partager. Dans l’autre, un deuxième adulte essaie de partager le jouet avec l’enfant, mais était incapable de le remettre à cause de part la manière dont le mobilier avait été disposé dans la chambre. Puis, lorsqu’un expérimentateur laisse tomber le jouet hors de la portée des adultes, les bébés sont plus susceptibles de prendre le jouet et de le remettre à la personne qui avait déjà essayé de le partager (Psychological Science, 2010).

Même à 21 mois, les bébés peuvent faire lecture de l’intention ; c’est la pensée qui compte. Or, le comportement prosocial est coûteux, et il peut être judicieux de s’engager dans ces comportements de manière sélective.

Tout parent qui a entendu le hurlement de l’enfant criant « Ce n’est pas juste! » sait que les enfants sont sensibles et susceptibles à l’iniquité, et l’inégalité. Or, les bébés comprennent la notion d’équité longtemps avant d’avoir des mots pour se plaindre à ce sujet.

Dans une étude de Baillargeon et ses coll., les bébés regardaient plus les biscuits qui avait été divisé inégalement entre deux marionnettes animées girafe, que les biscuits qui avaient été distribués de manière égale et équitable. En fait, les bébés semblaient s’attendre à une situation égalitaire et semblaient avoir été surpris que les marionnettes eussent été flouées. Cependant, cette attente ne concernait que les créatures animées. Lorsque l’expérimentateur avait divisé les biscuits entre des girafes en peluche inanimée, les bébés regardaient aussi longtemps les biscuits qui avaient été répartis de manière uniforme ou non (Psychological Science, 2012).

Dans un deuxième volet de cette étude, les bébés regardaient alors qu’un expérimentateur donne des autocollants à deux femmes. Dans certains cas, ces femmes avaient coopéré ensemble à ranger les jouets. Dans d’autres, seule l’une des deux femmes avait fait tout le travail de ranger les jouets, pendant que l’autre adulte jouait. Baillargeon et ses collègues ont constaté que les enfants de 21 mois avaient été surpris lorsque le fainéant obtenait un autocollant — mais seulement si l’expérimentateur pouvait constater qui avait travaillé et qui avaient, paraissé. Avant même leur deuxième anniversaire, les bébés semblent capables de comprendre que vous devez gagner votre juste part.

Le sens d’équité semble être si fort à l’âge de 3 ans que les enfants sont tout à fait prêts à renoncer à une récompense s’ils pensent qu’ils sont traités injustement. Ainsi, Peter R. Blake, EDD, et Katherine McAuliffe (http://bit.ly/1hx6c7y), PhD, ont conçu un appareil de distribution de bonbons ‘Skittles’ disposés dans des plats face de deux enfants. Lorsqu’il avaient le choix de fournir plus de bonbons à l’autre enfant, ou pas soit, les enfants agés de 4 ans optaient souvent de jeter tous les bonbons à la corbeille (PLoS ONE, 2013). Ainsi, ces enfants préfèrent ne rien obtenir si un autre enfant est en position d’en obtenir plus que lui.

Cependant, ce n’est pas parce que les enfants semblent comprennent l’équité, que cela signifie qu’ils la pratiquent. Dans une paire d’études, Blake et McAuliffe a montré que la plupart des enfants âgées de 4 à 7 ans rejetaient les situations dans lesquelles ils avaient reçu une plus faible part des bonbons ou d’autocollants, mais l’inégalité étaient accueilli s’ils étaient en position d’en obtenir la plus grande partie — même lorsque les enfants ont déclaré que partager était la bonne chose à faire. Les enfants semblent approuver l’égalité, mais ils ne les utilisent pas toujours», dit Warneken. Cette réflexion semble se déplacer autour de 7 ou 8 ans, les chercheurs ont constaté (Cognition, 2011; PLoS ONE, 2013). Ainsi, les enfants semblent approuver l’égalité, mais ils ne l’utilisent pas toujours. Cette réflexion semble se déplacer autour de 7 ou 8 ans (Cognition, 2011; PLoS ONE, 2013).

Avant cela, les enfants semblent effectivement préférer une situation injuste lorsqu’on leur donne la main haute. Wynn et ses collègues ont donné aux enfants âgés de 5 ans une chance de choisir une pile de jetons qu’ils pouvaient échanger contre un prix. Les chercheurs ont trouvé que les enfants ont préféré prendre sept jetons si un autre enfant n’en recevait pas, plutôt que huit jetons pour deux (Cognition, 2014).

Les jeunes enfants s’avèrent en fait extrêmement intéressées (self-interested) et tendent positivement vers une iniquité de base. Combinés aux conclusions sur les enfants, ceci souligne une distinction importante entre ce que les bébés et les enfants veulent que les autres fassent, et ce qu’ils veulent pour eux-mêmes.

D’autres recherches effectuer par Sommerville suggèrent que l’équité et la générosité sont entrelacées dès l’âge de 1 an. Dans une expérience similaire à l’étude de la girafe de Baillargeon, Sommerville a constaté que les enfants âgées de 15 mois qui avaient été le plus surpris par une contingence injuste étaient plus susceptibles de partager leur jouet favorisé (PLoS ONE, 2011).

Parce que d’autres recherches indiquent que la reconnaissance de l’équité émerge entre 9 mois et 12 mois d’âge, Sommerville affirme que les enfants âgées de 15 mois qui sont probablement moins sensibles à l’injustice ne sont pas seulement à la traîne par rapport à leurs pairs sur cette importante étape de développement. Nous pensons  que nous commençons à puiser dans une partie intéressante des différences individuelles qui persistent au fil du temps tout au long de la vie chez la personne.

Les différences individuelles mises de côté, certaines situations sociales peuvent inspirer une personne à agir de manière plus ou moins moralement. Warneken et ses collègues ont démontré cette idée dans une expérience destinée à tester l’équité dans l’action (fairness in action).

Des chercheurs ont truqué un système dans lequel deux enfants ont dû travailler ensemble pour tirer une corde afin de soulever une boîte avec des billes à l’intérieur. À partir d’environ 3 ans, les scientifiques ont constaté que les enfants avaient tendance à partager les billes s’ils avaient travaillé ensemble pour les récupérer. Si un enfant fini avec trois billes, alors que son partenaire n’en obtenait qu’un seul, ils avaient partagé pour que chacun en détienne deux. Toutefois, si les enfants avaient travaillé de manière indépendante chacun de leurs côtés afin d’obtenir les billes, il ne semblait pas préoccuper du fait que chacun pouvait se retrouver avec un nombre différent de billes au terme de l’exercice.

À cet égard, les enfants de trois ans ont un pas d’avance sur nos cousins les primates. Warneken et ses collègues ont produit exactement la même expérience avec des chimpanzés, et ils ont constaté que les singes étaient prêts à s’associer pour récupérer des récompenses alimentaires. Mais si l’un des chimpanzés se retrouvait avec plus de gâteries que son partenaire, ils les gardaient tous joyeusement (Nature, 2012). Un sens précoce de l’équité peut avoir évolué afin d’aider les humains à travailler ensemble pour survivre. Le travail collaboratif est le berceau de l’égalité.

Il apparaît également que les bébés sont capables de comprendre le concept du « nous » par rapport à celui d’« autrui », et ce, à un âge relativement précoce.

Dans un exemple, Wynn, Hamlin et ses collègues ont demandé à des enfants âgées de 9 mois et de 14 mois de choisir un aliment, soit un biscuit Graham ou des haricots verts. Ensuite les bébés regardaient une série de spectacles de marionnettes dans lequel une marionnette qui aime les craquelins alors que l’autre des haricots verts. Les enfants en deux groupes d’âge ont préféré les personnages qui étaient gentils que les marionnettes qui partageaient leurs goûts.

Cela s’accorde donc avec les résultats de recherche antérieurs et ne s’avère pas vraiment inattendu. Mais le constat suivant a surpris les chercheurs : les bébés ont aussi une nette préférence pour les personnages qui étaient méchants à la marionnette dissemblable (Psychological Science, 2013).

Wynn, hésitant à décrire ses conclusions dans le jargon psychologique des expressions « en groupes » (in-groups) et « hors-groupes» (out-group), car il est difficile de savoir si les bébés construisent les groupes sociaux autour de ces préférences alimentaires partagées. Cela semble être fondamentalement une préférence partagée : si vous valorisez les aspects du monde de la même manière que je le fais, donc je vous aime.

D’autres études suggèrent qu’alors que les bébés reconnaissent les groupes sociaux, ils ne s’attendent pas nécessairement à un traitement préjudiciable des gens à l’extérieur du groupe. Baillargeon a dirigé des études dans lesquelles les expérimentateurs s’identifient comme membres de groupes sociaux confectionnés par annonce, par exemple, « Je suis une lumi » ou «Je suis un tarfen ». Baillargeon a trouvé que des bébés de 16 mois sont surpris lorsqu’une personne ne parvient pas à aider un autre membre de son groupe. Cependant, les bébés participants aux études de Baillargeon ne semblent pas avoir des attentes quant à savoir si une personne doit aider un étranger. S’ils ne font pas partie de votre club, vous avez le choix de déterminer si vous vous impliquez ou non.

Alors que les les scientifiques continuent d’étudier le développement social et moral de nourrissons, une importante question demeure sans réponse : Est-ce que les principes sociaux-moral sont acquis (social-moral principles learned), ou les bébés sont nés avec ces systèmes déjà préétablit, déterminer biologiquement, par la genèse développementale de l’être humain (essentiellement, est-ce inné ou acquis)?

D’importants indices pourraient provenir d’études dites interculturelles qui pourraient ainsi aider à éclairer sur la manière et le moment lorsque les bébés de différentes cultures présentent des différences des comportements sociaux. Mais ces études n’ont tout simplement pas encore été produites.

On peut considérer qu’étudier les bébés est pur, en quelque sorte. Elle peut nous renseigner sur la manière dont nos processus sociaux et moraux se développent avant même qu’ils ne soient « embrouillés » par la culture ou la langue ou le raisonnement complexe.

Lorsque vous observez les bébés, c’est magique.

— –

Les humains possèdent un sens moral inné? Pour explorer cette question, des chercheurs (Hamlin, J.K., Wynn, K., & Bloom, P., 2007) ont présenté des preuves que les nourrissons jugent autrui en fonction de leurs actions sociales — ils préfèrent ceux qui aident les autres et évite ceux qui entravent autres. Certains (Scarf, D., Imuta, K., Columbo, M., & Hayne, H., 2012) soulèvent une autre interprétation du phénomène, en présentant certaines données qu’ils interprètent comme étant la préférence des enfants quant aux scénarios sociaux que les scientifiques ont présentés aux nourrissons qui peut être expliqués par une aversion pour un « événement en collision » (colliding event) et une attirance pour un « événement en rebondissement » (bouncing event). Scarf et coll. suggèrent, plus généralement, que les bébés ne possèdent, ni de boussole morale rudimentaire, ni aucune autre capacité sophistiquée, et que cela repose simplement sur la présence de certains mécanismes associatifs simples et généraux.

— –

Comment l’enseignement de la gratitude, à l’école, rend les enfants plus heureux!

Avec les compressions budgétaires et l’intensification des exigences de performance sur les enseignants, et autres membres du personnel de l’école, comment les écoles peuvent-elles renforcer les connexions entre les élèves et leurs enseignants, les écoles et les communautés?

Ainsi, à l’approche de l’Action de grâces, les enfants, à l’école, sont souvent amenés au contact de, et a pensé à, la notion de gratitude. Or, la gratitude relève du lien de reconnaissance envers quelqu’un dont on est l’obligé à l’occasion d’un bienfait reçu ou d’un service rendu. Il relève également du sentiment de reconnaissance et d’affection envers quelqu’un. La reconnaissance montre comment établir des relations positives et un sentiment d’attachement avec l’école pouvant ainsi aider à transformer les jeunes, les professeurs, l’école, et le système de l’éducation.

Ainsi, peut-être qu’à cette occasion, les enfants feront un papier en forme de dinde (turkey handprint) et écriront-ils un remerciement pour chaque plume, ou une quelconque activité du genre. Bien sûr, c’est un exercice relativement agréable pour la progéniture, mais le fait de faire preuve de gratitude peut-il vraiment faire une différence pour les enfants?

Froh et Bono (2012) constatent que certaines recherches antérieures montrent clairement que c’est le cas. La pratique de la gratitude augmente les émotions positives et améliore l’optimisme des élèves, et diminue ainsi leurs émotions négatives et certains symptômes physiques, et les fait se sentir plus connecté et plus satisfait de l’école et de la vie en général. Or, la plupart de ces études ont été réalisées avec des étudiants de la classe moyenne supérieure qui fréquentent le lycée (primaire) ou le collège.

Les résultats permettent de soulever une question: est-ce que ces résultats demeurent vrais pour d’autres types d’étudiants, en particulier les enfants plus jeunes et les enfants en situations à haut risque? Deux nouvelles études montrent que la gratitude est associée à de réels effets positifs, et ce, dans la vie de ce types d’enfants — et suffisamment pour suggérer qu’elle devrait être une priorité pour les étudiants, et ce, tout au long de l’année.

Jeffrey Froh est un pionnier de la recherche de la gratitude chez les jeunes enfants. Froh et ses collègues ont donc testé un nouveau type de programme (ou curriculum) de gratitude pour les enfants du primaire (âgés de 8 à 11), le plus jeune étudié jusqu’à présent. Premièrement, les enfants ont appris les trois types d’évaluation qui nous font sentir reconnaissants : que quelqu’un a intentionnellement fait quelque chose de bénéfique pour nous; que de fournir un bénéfice comporte un cout pour eux; que le bénéfice à de la valeur pour nous.

Après une semaine de leçons quotidiennes d’une demi-heure, les étudiants ont montré une augmentation significative de la pensée de la gratitude et de l’humeur de la gratitude (grateful thinking and grateful mood) ce qui signifie que les leçons ont produit un effet significatif. Aussi, lorsque tous les enfants ont eu la chance d’écrire une note de remerciements à la ??? (PTA) après une présentation, les élèves ont écrit 80 pour cent plus de notes que les enfants qui n’ont pas reçu de leçons, montrant ainsi que leur l’accroissement de la gratitude se traduit effectivement dans des comportements de gratitudes (grateful behavior).

Dans la seconde partie de l’étude, les chercheurs ont étalonné le programme sur cinq semaines, une leçon par semaine. Les résultats des élèves ont été testés juste après la fin du programme, puis ensuite plusieurs fois, et ce jusqu’à cinq mois plus tard. Par rapport aux enfants qui n’ont pas eu les leçons de gratitude, les enfants ont montré une augmentation constante au fil du temps de la pensée de gratitudes, de la gratitude elle-même, ainsi que des émotions positives. En fait, les différences entre les deux groupes étaient la plus élevées cinq mois après la fin du programme, ce qui indique que les leçons de gratitude ont eu des effets positifs durables.

Dans l’ensemble, cette étude suggère que même les jeunes élèves peuvent apprendre à regarder le monde à travers les yeux de la gratitude et qu’ils peuvent devenir non seulement plus reconnaissants, mais également plus heureux.

Dans une autre étude récente, Mindy Ma et ses collègues ont étudié la gratitude d’un genre de population très différent que celles utilisées dans les études précédentes sur la gratitude chez les jeunes : les adolescents afro-américains (12 -14 ans) à faible revenu, des écoles urbaines sous-performantes.

Les scientifiques cherchaient savoir si, dans ce genre d’environnement à haut risque, la gratitude pourrait aider à protéger les enfants contre les contraintes auxquels ils sont confrontés, et ce, à la maison comme à l’école. Les chercheurs ont donc interrogé près de 400 élèves de trois collèges différents pour savoir s’ils se ressentaient de la gratitude en réponse aux choses que d’autres font et qui leur bénéficie (les chercheurs l’appellent la gratitude « morale-affect »; « moral-affect » gratitude) ou s’ils ont tendance à se concentrer sur les aspects positifs dans nos vies et le monde (appelés « orientation de la vie » de la gratitude; « life-orientation » gratitude).

Les chercheurs ont constaté que ceux qui étaient plus susceptibles de sentir de la gratitude pour les autres ont également montré un plus grand intérêt académique, obtenu de meilleures notes, et ont une plus grande implication parascolaire; ceux qui ont apprécié en général les aspects positifs ont obtenu des scores plus faibles sur les comportements à risque comme la toxicomanie et l’usage de drogues, ainsi que les attitudes et les activités sexuelles. Un facteur, les relations familiales positives, a été associée aux deux types de gratitude. En d’autres termes, au moins pour ce groupe d’étudiants, la gratitude morale-affect (morale-affect gratitude) semblait améliorer les conditions positives de leur vie, alors que l’orientation de la vie de la gratitude (life-orientation gratitude) semblait tampon contre certains pièges communs de haut risque.

On peut noter, cependant, que cette étude n’a pas pu déterminer si la gratitude a effectivement causé ces aboutissements positifs (ou vice versa). Mais cette étude montre une avenue prometteuse que la gratitude peut jouer un rôle essentiel dans la protection des adolescents à risque des difficultés dans leur vie, peut-être en favorisant une plus grande ouverture d’esprit et en constituant un certain renforcement de leurs ressources personnelles et de leurs habiletés et capacités d’adaptation.

D’autres études à l’avenir devraient inclure des expériences avec ce type de programmes — comme peut-être le nouveau programme de Froh pour ainsi évaluer les effets de l’enseignement de la gratitude chez les populations à risque. Ce qui pourrait nous donner à tous quelque chose de plus à célébrer le jour de l’Action de grâces!

Bien que le domaine de l’étude de la gratitude demeure encore jeune et relativement nouveau, nous sommes déjà en train d’apprendre [et de comprendre] que la gratitude fait plus que simplement produire des enfants qui se sentent bien; il améliore également l’humeur, la santé mentale, et la satisfaction de la vie, et il peut relancer un engagement plus volontariste dans la vie à un moment critique de leur développement, lorsque leur identité prend forme.

Par exemple, une étude de Froh et Bono montre que les adolescents qui avaient des niveaux élevés de gratitude lorsqu’ils entraient au secondaire avaient moins d’émotions négatives, moins de dépression et plus d’émotions positives, une meilleure satisfaction de la vie, plus de bonheur, et ce, quatre ans plus tard quand lorsqu’ils terminent leurs études secondaires. Ils ont également plus d’espoir et un sentiment de sens dans leur vie. Une autre étude, qui a fait le suivi d’étudiants pendant plus de six mois, montre que sentiment de gratitudes motive les adolescents à aider les autres (altruisme) et à utiliser leurs forces pour contribuer à la société.

Aussi, une étude de Froh et Bono sur la visite de gratitude (gratitude visit) nous avons constaté que les élèves qui ont commencé l’étude avec un bas niveau d’émotions positives ont rapporté plus de gratitudes et plus d’émotions positives immédiatement après l’étude, et plus d’émotions positives deux mois plus tard, par rapport aux étudiants qui n’ont pas reçu de visite de gratitude. La visite de gratitude (gratitude visit), dans lesquels l’élève écrit une lettre à quelqu’un qui les avait aidés, mais qu’ils n’avaient jamais bien remercier; les élèves ont fait lecture de leur lettre à cette personne qui les avaient aidés, puis plus tard, ils ont discuté de leur expérience avec d’autres pairs qui avaient également terminé une visite de gratitude.

— —

Sources

Froh, J., Bono, G. (2012). “How to foster gratitude in Schools”, Greater School, 19 november 2012, The Greater Good Science CenterUniversity of California, Berkeley, http://bit.ly/1kgBJTf.

Ma, M., Kibler, J. L., & Sly, K. (2013). Gratitude is associated with greater levels of protective factors and lower levels of risks in African American adolescents. Journal of adolescence, 36(5), 983-991, http://bit.ly/1kAOns6.

Froh, J. « Gratitude Lesson Plans », http://bit.ly/OotcyB.

Campbell, E. (2013). “How Teaching Gratitude In School Makes Kids Happier“, TheHuffingtonPost.com, 11 december 2013, http://huff.to/1e3Edl9.

APA (2012). “Growing Up Grateful Gives Teens Multiple Mental Health Benefits, New Research Shows”, American Psychological Association, 5 august 2012, http://bit.ly/PCzFXY, presentation “Searching for the Developmental Role of Gratitude: A 4-year Longitudinal Analysis” at Orange County Convention Center on august 5 2012.

Froh, J. J., Bono, G., & Emmons, R. (2010). Being grateful is beyond good manners: Gratitude and motivation to contribute to society among early adolescents. Motivation and Emotion, 34(2), 144-157, http://bit.ly/1spQVP2.

American Psychological Association (APA). (2012, August 6). “Growing up grateful gives teens multiple mental health benefits“, ScienceDaily, http://bit.ly/1fZ3eJx.
Froh, J. J., Kashdan, T. B., Ozimkowski, K. M., & Miller, N. (2009). Who benefits the most from a gratitude intervention in children and adolescents? Examining positive affect as a moderator. The Journal of Positive Psychology, 4(5), 408-422.

Références

Froh, J., & Bono, G. (2014). “Making Grateful Kids: The Science of Building Character”, Templeton Foundation Press.

Les étudiants de première génération!

En février 2013, le ministre de l’Enseignement supérieur, de la Recherche, de la Science et de la Technologie, M. Pierre Duchesne, déclarait dans un communiqué que l’augmentation du taux de diplomation universitaire devait passer par les étudiants de première génération (ÉPG). Ainsi, on cherche à cibler une nouvelle clientèle, les étudiants dits étrangers, et les étudiants dont les parents n’ont pas fait d’études postsecondaires. Le ministre soulignait alors l’importance comme société d’être capable d’aller chercher « des gens de tous les milieux », car selon lui, les classes plus aisées de la société sont surreprésentées dans les universités; « l’intelligence, ça ne vient pas avec le porte-monnaie ». Les universités qui attirent davantage d’étudiants de première génération pourraient donc obtenir plus d’argent. Le réseau de l’Université du Québec en accueille 65 % — un chiffre qui dépasse même 70 % en Abitibi, à Chicoutimi et à Rimouski — alors qu’il atteint seulement 20 % à l’Université McGill.

Dans un communiquer de septetembre 2013, le ministre annonçait l’attribution de subventions totalisant cinq millions de dollars sur trois ans dans la cadre du Programme d’arrimage universités-collèges. De passage à l’Université du Québec, le ministre a dévoilé le projet présenté par trois établissements de ce réseau et par six collèges des régions de l’Abitibi-Témiscamingue, du Bas-Saint-Laurent et du Saguenay-Lac-Saint-Jean. Ces derniers ont mis en commun leurs connaissances et expériences pour développer des initiatives liées au cheminement scolaire des étudiants de première génération (EPG), c’est-à-dire ceux dont les parents ne sont allés ni au collège ni à l’université. À partir des résultats des travaux et des expérimentations qui seront effectués par cette communauté de pratique, un modèle d’intervention auprès des EPG sera créé afin d’intervenir dans les moments les plus sensibles de leur parcours scolaire, à partir du 2e cycle du primaire jusqu’aux cycles supérieurs de l’université. Dans ce communiquer, on explique que l’on trouve des ÉPG dans tous les établissements d’enseignement universitaire québécois. Selon l’enquête ICOPE (Indicateurs de conditions de poursuite des études), réalisée par l’Université du Québec en 2011, ils représentent de 53 % à 72 % des étudiants inscrits en première année au baccalauréat dans son réseau, 31 % des étudiants inscrits dans les universités anglophones et 46 % dans les autres universités francophones.

Selon Bonin (2008), à l’automne 2006, 60 % des étudiants du réseau de l’Université du Québec étaient des EPG; l’auteure situe ce pourcentage à 54 % dans le cas de l’Université du Québec à Montréal.

Notons que même si, à plusieurs égards, le Canada se rapproche des régimes providentiels sociodémocrates européens, plusieurs études montrent qu’il se classe plutôt parmi les sociétés libérales au côté des États-Unis, du Royaume-Uni et d’autres pays semblables (Saint-Arnaud & Bernard, 2003; Esping-Andersen, 1999). Notons également qu’il existe des différences de régimes scolaires puisqu’ils relèvent de juridiction provinciale.

Certains parents n’ont pas fait d’études postsecondaires (collège, cégep ou université). Même si dans la littérature on ne semble pas s’entendre sur la définition exacte du concept d’étudiants de premières générations (ÉPG), l’importance de la scolarité des parents en regard de l’accessibilité aux études supérieures s’avère sans équivoque (Butlin, 1999; Foley, 2001; Looker, 2002). Les parents qui n’ont pas pu fréquenter l’université sont généralement plus désavantagés lorsqu’il s’agit de transmettre une un corpus de savoir expérientielle de l’enseignement et de l’apprentissage à leurs enfants — et pourtant, ce sont ces étudiants qui ont le plus besoin des conseils de leurs parents.

Ainsi, pour le moment, il n’existe aucun consensus sur la définition du concept étudiant de premières générations (ÉPG), et l’intérêt qu’elle soulève dans le milieu scientifique est relativement nouveau et limité. Toutefois, plusieurs chercheurs s’entendent sur la définition proposée, à savoir que ce sont les étudiants qui proviennent de familles où aucun des parents n’a atteint un niveau de scolarité supérieur au secondaire. Ceux-ci constituent maintenant un pourcentage élevé de la clientèle scolaire universitaire.

Le concept d’ÉPG a d’abord été utilisé dans le cadre de recherches institutionnelles menées aux États-Unis afin d’examiner l’influence de la scolarité des parents sur les parcours scolaires de leurs enfants (Adachi, 1979; Billson & Brooks-Terry, 1982). Peu à peu, une tradition de recherche s’est développée autour de ce concept qui a fait l’objet de multiples précisions conceptuelles (Auclair et coll., 2008) et théoriques. De façon générale, les études empiriques avaient pour objectif de saisir qui étaient ces étudiants et de quels milieux ils venaient. Elles visaient aussi à comprendre l’influence de la scolarité des parents sur les parcours scolaires de leurs enfants.

Ainsi donc, la majorité des chercheurs estime que le fait d’avoir fréquenté un collège ou une université est suffisant pour qu’un individu ait des connaissances sur l’éducation postsecondaire et possède un capital social et culturel transmissible à ses enfants lors de la transition vers ce niveau d’études (Lohfink & Paulsen, 2005; Pascarella et coll., 2004, 2003). Toutefois, la définition des étudiants dits de seconde génération varie d’une recherche à l’autre (Auclair et coll., 2008).

Des études menées aux États-Unis montrent que les ÉPG sont moins susceptibles de poursuivre leurs études au niveau universitaire, comparativement aux étudiants dont les parents sont titulaires d’un diplôme d’études postsecondaires (collégiales ou universitaires). Les ÉPG qui entreprennent des études universitaires seraient confrontés à plusieurs obstacles qui rendent leur parcours scolaire plus difficile. Les défis particuliers liés à ce statut sont susceptibles de s’ajouter aux enjeux adaptatifs propres à la transition à l’enseignement supérieur de sorte que les caractéristiques assurant habituellement le succès des projets d’études des jeunes sont possiblement à revoir en regard de ces étudiants. À cet effet, les études (surtout américaines) considèrent que leur situation est préoccupante : ils sont en proportion moins nombreux à compléter leur projet d’études et tendent aussi à l’abandonner plus précocement (Choy, 2001; Lohfink & Paulsen, 2005; Ishitani, 2003; Pascarella Pierson, Wolniak & Terenzini, 2004; Tym, McMillion, Barone, & Webster, 2004).

Comme l’ont proposé certains auteurs (Pascarella et coll., 2004), parce que les parents des EPG n’ont aucune expérience de scolarisation postsecondaire, ils connaissent généralement peu les caractéristiques, pratiques et ressources propres à ces environnements scolaires; ce faisant, ils peuvent difficilement transmettre à leurs enfants ces savoirs, ou ce que des auteurs appellent un capital social et culturel relatif à la fréquentation d’établissements postsecondaires (Bourdieu, 1986; Coleman, 1988). Ce capital social et culturel réfère au degré d’aisance et de familiarité du jeune avec la culture de son nouveau milieu. Les parents ayant fréquenté les institutions postsecondaires peuvent faire bénéficier leurs jeunes de leur expérience, les guider et les conseiller adéquatement, leur permettre de comprendre plus facilement l’importance de certaines décisions à prendre, etc. Privée de toutes ces ressources, l’arrivée des EPG dans leur nouveau milieu scolaire s’accompagnerait parfois d’un choc culturel (Bui, 2002; Fallon, 1997). Ce choc peut être accentué par une impression de discordance entre leurs antécédents familiaux et les attitudes à développer et les comportements à adopter pour bien s’intégrer dans leur nouveau milieu. La prise de distance avec la culture familiale pour mieux adhérer à celle attendue dans le nouveau milieu engendre parfois de la culpabilité ou un sentiment de déloyauté envers la famille (Hartig & Steigerwald, 2007). En revanche, quand l’EPG ne consent pas à adopter le nouveau code du milieu, il risque de développer un sentiment d’aliénation, la croyance de ne pas être à sa place, est susceptible d’avoir de la difficulté à préciser son statut et à développer un sentiment d’appartenance à un groupe où les pairs ont des origines familiales et sociales plus favorisées que lui.

Selon Bouffrard et coll. (2009), ces jeunes adultes doivent affronter des défis adaptatifs particuliers qui les mettent à risque d’abandonner leurs études, notamment : les inquiétudes financières; les inquiétudes financières; la conciliation travail-études; le sentiment d’insécurité.Les résultats de cette étude (Bouffard et coll., 2009) réalisée chez près de 2 000 étudiants de l’Université du Québec à Montréal indiquent que s’ils réussissent aussi bien que les autres à la fin de leur première année, ces étudiants sont significativement plus nombreux à ne plus être inscrits l’année suivante. L’étude constate également que ces étudiants sont notamment plus nombreux à être satisfaits de leur réussite scolaire et à lui accorder de l’importance pour leur insertion professionnelle, et ils rapportent être plus au clair avec leur choix de carrière et leur appréciation de leur projet d’études est plus positive que leurs collègues : ils rapportent y vivre plus d’émotions positives, lui accorder plus d’importance, lui attribuer un sens plus grand, se sentir plus en contrôle dans sa réalisation et être plus satisfaits de leur réussite jusqu’à ce moment.

De Broucker (2005), constate que ces analyses montrent que le revenu familial influence la participation aux études postsecondaires. Toutefois, selon l’étude, il ne s’agit pas d’un enjeu qui se manifeste seulement lorsqu’un jeune termine ses études secondaires et doit déterminer s’il fréquentera le collège ou l’université, et son impact n’est pas indépendant d’autres influences. Ainsi, le revenu familial et d’autres caractéristiques qui s’y rattachent souvent, notamment le niveau de scolarité et les aspirations des parents pour leurs enfants et la monoparentalité, exercent leur incidence très tôt dans la vie, même avant que l’enfant ne commence l’école, parce que ces facteurs influencent la capacité d’apprentissage et les aspirations et le rendement scolaire de l’enfant. Les gouvernements mettent l’accent sur l’aide financière aux étudiants pour leur permettre de fréquenter le collège ou l’université; mais une aide financière ne permettra pas de surmonter les désavantages qui empêchent certains jeunes d’obtenir les notes leur permettant d’avoir accès à l’enseignement postsecondaire au départ. De Broucker note donc cinq incidences, expliquer ci-bas : Interventions précoces, Diversité des cheminements, Informations et orientations, Politique de frais de scolarité, Aide financière.

Finnie et Mueller (2007) indiquent que la scolarité des parents et les variables qui s’y rattachent (ex. : habiletés en lecture) constituent la principale influence sur l’accès à l’enseignement postsecondaire et, à l’université tout particulièrement.

Selon Kamanzi et coll. (2010), qui présente une analyse dont les résultats sont en partie probants, confirmant le poids de l’origine sociale et culturelle dans l’accès aux études universitaires, mais pas dans l’obtention du baccalauréat au Canada. Ainsi, au Canada, l’accès à l’enseignement postsecondaire est influencé par diverses dimensions. Plus particulièrement, les facteurs caractérisant la scolarité au secondaire ont une influence forte sur l’accès à l’université, ce qui reflète le fonctionnement méritocratique du système scolaire et de l’université. Il existe donc des mécanismes de sélection sur la base des résultats scolaires et de la nature du parcours au secondaire.

Pour Kamanzi et coll. (2010), les effets du décrochage scolaire se font toujours sentir en réduisant la probabilité d’accéder aux études universitaires. Le dossier scolaire conserve les traces d’une scolarité caractérisée par des difficultés : les individus qui ont décroché ne désirent pas aller à l’université, indépendamment de leurs notes. D’autre part, la sélection n’est pas uniquement scolaire; elle est également sociale. En effet, l’accès des ÉPG aux études universitaires est plus faible que celui des non-ÉPG. Ainsi, les jeunes dont les parents ont fait des études postsecondaires, notamment universitaires, participent davantage aux études universitaires que les ÉPG. En plus, ils ont constaté que la catégorie socioprofessionnelle du père influence l’accès. Ainsi, l’analyse permet de constater l’effet de l’origine sociale sur la scolarisation, non seulement par le capital culturel au sens large du terme, mais aussi par le capital scolaire. En d’autres mots, la « démocratisation » des études universitaires est ségrégative, pour reprendre l’expression de Merle (2000), et elle est marquée du sceau de la reproduction sociale.

Au Canada, l’éducation relève de la juridiction des provinces et, historiquement, chacune d’entre elles a créé et aménagé son système d’éducation. Les différences des systèmes entre les provinces se font sentir quant à la probabilité d’accéder à l’université, laissant penser que l’organisation de l’offre des études universitaires a un effet sur l’accès. L’analyse (Kamanzi et coll., 2010) permet d’identifier les provinces (Québec, Alberta, Colombie-Britannique) où les taux d’accès aux études universitaires sont comparables à celui de l’Ontario et celles où ces taux d’accès sont significativement plus élevés que celui de l’Ontario (les provinces maritimes, le Manitoba et la Saskatchewan). Ce phénomène pourrait s’expliquer par l’importance des établissements universitaires au sein de la structure de l’enseignement postsecondaire de chacune de ces provinces. Celles où les collèges sont moins développés offriraient un accès à l’université plus élevé par rapport à la province de référence où les collèges communautaires sont bien implantés.

L’analyse (Kamanzi et coll. 2010) constate également que les ÉPG et les non-ÉPG ont des chances égales d’obtenir le diplôme de baccalauréat, ce qui contraste avec la situation des ÉPG étatsuniens. Doit-on y voir un effet de la méritocratie scolaire et considérer que les ÉPG canadiens qui poursuivent des études universitaires sont « semblables » aux non-ÉPG, ce qui laisse supposer que les facteurs qui influencent la persévérance des ÉPG relèvent principalement de la scolarité antérieure? Selon l’analyse, les ÉPG poursuivant des études universitaires ressemblent fortement aux autres étudiants quant au rendement scolaire et aux caractéristiques du parcours scolaire, notamment en ce qui concerne les moyennes du secondaire et le fait d’avoir connu ou non une interruption d’études. Dans la mesure où les ÉPG accèdent à l’université dans une proportion nettement plus faible que les non-ÉPG, on peut soutenir l’idée que les ÉPG qui poursuivent des études universitaires y arrivent au terme d’un processus de sur-sélection. Il s’agirait d’élèves ayant des compétences scolaires relativement élevées. Or, comme l’a noté Duru-Bellat (2002) pour les élèves performants, la poursuite des études universitaires est un acte normal, voire évident, peu importe leur origine sociale. Par contre, à compétences faibles comparables, les élèves d’origine sociale défavorisée aspirent moins aux études universitaires, car ils préfèrent ne pas s’aventurer dans un projet pour lequel la probabilité d’un échec leur semble trop élevée. Tout compte fait, les parcours scolaires s’inscrivent dans un processus d’auto-sélection.

Un dernier résultat de l’analyse ( Kamanzi et coll., 2010) met aussi en évidence une autre logique présente dans le fonctionnement du système éducatif, celle de la mobilisation scolaire de certains groupes sociaux – par exemple, les femmes et les immigrants – pour qui les études postsecondaires, et les études universitaires en particulier, représentent un instrument d’intégration socioéconomique, voire de mobilité sociale. Dans la mesure où les ÉPG viennent, pour la plupart, de familles plus défavorisées sur les plans économiques et scolaires, leur faible participation aux études universitaires tient à la fois à leurs compétences scolaires et à leurs aspirations moins élevées à la fin des études secondaires. Cela expliquerait d’ailleurs l’existence d’une relation fortement significative entre la note moyenne obtenue à la fin du secondaire et la persévérance à l’université chez les ÉPG, alors que cette même relation ne se retrouve pas chez les NÉPG. Comme ils bénéfi cient de peu ou de moins de ressources de la part de leurs familles, les ÉPG qui accèdent aux études universitaires se caractérisent particulièrement par de meilleures habiletés à composer avec leur métier d’étudiant et par un niveau plus élevé d’engagement dans les études.

— —

Une nouvelle approche développée et testée par des chercheurs de l’University of the Pacific’s Gladys L. Benerd School of Education pourrait peut aider les parents à favoriser la culture scolastique chez leur progéniture. Il existerait une perception commune selon laquelle les parents à faible revenu ne se soucient guère de l’éducation de leurs progénitures, et pourtant,  ce n’est pas nécessairement vrai.

Parmi les leçons tirées de cette nouvelle approche, on note : que les parents sont largement préoccupés par le financement des études postsecondaires; que les parents étaient réticents à encourager leurs enfants à poursuivre des objectifs qui pourraient s’avérer inaccessibles; ils doivent d’abord s’assurer que l’université peut être financièrement viable; que les présentations au sein de grands groupes submergés généralement les parents d’ÉPG. Une attention particulière ainsi que des conseils personnalisées et individualisées qui satisfont mieux les besoins d’information complexes des familles à faible revenu, est à préconiser; que ces parents préfèrent, quant aux informations écrites, le médium papier au détriment de courriels ou des blogues, et se sentaient plus en pouvoir lorsque l’information avait été livrée directement à eux plutôt que d’avoir été envoyé à la maison par le biais des élèves; que les parents affichaient un plus haut niveau d’engagement lorsqu’ils ont aidé leur enfant/élève à écrire un plan d’action collégiale ou universitaire, par rapport à l’examen de plans développé par les étudiants eux-mêmes; lorsque l’on fournit des outils efficaces et probants afin d’aider les élèves sous-performants et mal accompagné à se préparer pour le collège (ou l’université), les parents les utilisent.

Cette nouvelle approche utilise un modèle de recherche écosystémique dans lequel les chercheurs en partenariat avec les membres de la communauté s’unissent pour développer et tester des solutions aux problèmes sociaux, et ce, dans le monde dit réel. L’objectif est de créer des « connaissances pour l’action » (actionable knowledge) qui peut informer à la fois l’élaboration des politiques et de la recherche future.

Intervention précoce | Les enfants provenant de familles bien nanties réussissent mieux à l’école. Pour rendre l’accès au collège et à l’université plus équitable, il faut s’attaquer aux inégalités à mesure qu’elles s’accumulent à partir de la petite enfance, en intervenant de façon précoce pour offrir aux enfants à plus faibles revenus des programmes en matière d’enseignement, de santé et de mesures sociales visant à favoriser un développement qui leur permettra en bout de ligne de poursuivre des études posts-econdaires.

Élargir la gamme des choix orientés vers la carrière | Il nous faut disposer au niveau de l’école secondaire d’une plus vaste gamme de solutions de remplacement à la formation postsecondaire, comme des formules d’alternance études-travail, des programmes de formation professionnelle et des programmes de préapprentissage.

Information et orientation | Les jeunes ont besoin de beaucoup de préparation, dont des discussions sur les conditions préalables d’accès aux carrières et des précisions sur les coûts et les rendements véritables associés à la formation postsecondaire, pour pouvoir faire les bons choix en matière de formation scolaire. Il faut que les écoles consacrent des ressources suffisantes à cette fonction importante et qu’elles se préoccupent tout spécialement d’aider ceux qui risquent de ne pas avoir accès à ces informations au foyer.

Politique de frais de scolarité | Les gouvernements devraient envisager sérieusement d’instituer une limite sur la part des recettes que les établissements d’enseignement postsecondaire peuvent se procurer à l’aide des frais de scolarité, tout en maintenant leur part du financement public à un niveau suffisant pour rendre cela possible. Les universités devraient considérer la possibilité d’offrir des garanties de stabilité par programme, en vertu desquelles elles fixeraient les droits de scolarité pour la durée d’un programme donné, de sorte que les étudiants connaîtraient le montant du déboursé total dès le début du programme.

Aide financière | Dans le contexte de la hausse des coûts de l’enseignement postsecondaire absorbée par les étudiants, le système d’aide financière aux étudiants fait moins pour soutenir les étudiants qui ont le plus besoin d’être aidés financièrement. Les gouvernements devraient revoir leur décision d’utiliser davantage les crédits d’impôt en tant que moyen majeur de soutenir l’éducation, et mettre l’accent sur une aide fondée sur les besoins des étudiants – mais ils devraient aussi réévaluer les critères utilisés pour déterminer les besoins, pour faire en sorte que les étudiants à revenus peu élevés reçoivent une plus large part des aides financières. Les gouvernements devraient aussi rechercher des moyens d’aider les étudiants à faibles revenus afin qu’ils évitent d’accumuler de lourds fardeaux d’endettement et prévenir ainsi la situation inéquitable pour eux que représente le désavantage d’un endettement élevé au moment d’accéder au marché du travail après l’obtention de leur diplôme.

— –
Sources

Bonin, S. (2008). “Les étudiants de première génération universitaire – État de la situation à l’Université du Québec”, Direction de la recherche institutionnelle
Université du Québec – CAPRE, http://bit.ly/1kzJdwz.

Hubert, B. (2013). “Déterminants de l’adaptation et la persévérance de l’étudiant de première génération”, Réseau d’Information pour la Réussite Éducative, 17 juin 2013, http://bit.ly/1hup0nV (+ http://bit.ly/1mSCK3S, http://bit.ly/1oDAFdS).

Bouffrard, Thérèse., Grégoire, Simon., Veseau, Catole. (2009). “Déterminants de l’adaptation et la persévérance de l’étudiant de première génération”, Université du Québec à Montréal, http://bit.ly/1mSCK3S.

Dion-Viens, D. (2013). “Université: Duchesne veut plus d’étudiants de première génération”, leSoleil, 22 février 2013, http://bit.ly/1lDE0VW.

MESRST (2013). “Programme d’arrimage universités-collèges — Le ministre Pierre Duchesne annonce 5 M$ pour la réalisation de 16 projets en 2013-2014 et un engagement de 15 M$ pour l’an prochain”, Ministère de l’Enseignement supérieur, de la Recherche, de la Science et de la Technologie, 5 septembre 2013, http://bit.ly/1e1Lpyk.

Kamanzi, P. C., Doray, P., Bonin, S., Groleau, A., & Murdoch, J. (2010). “Les étudiants de première génération dans les universités: l’accès et la persévérance aux études au Canada”, Canadian Journal of Higher Education, 40(3), http://bit.ly/1imHzgg (+ http://bit.ly/1h31UK0).

De Broucker, P. (2005). “Accéder aux études postsecondaires et les terminer: la situation des étudiants à faibles revenus”, Ottawa: Réseaux canadiens de recherche en politiques publiques. Rapport de recherche W, 27, http://bit.ly/1h32kju.

University of the Pacific (2014). “Researchers empower parents to inspire first-generation college-goers”, 5 april 2014,  http://bit.ly/1sogIXW.

University of the Pacific. (2014, April 4). Empowering parents to inspire first-generation college-goers. ScienceDaily. Retrieved April 6, 2014 , http://bit.ly/1q8w131.

Références

Finnie, R., Mueller, R. E., Sweetman, A., & Usher, A. (2007). “Who Goes? What Matters? Accessing and Persisting in Post-Secondary Education in Canada”.

Finnie, R., & Mueller, R. E. (2007). “High School Student Characteristics and Access to Post‐Secondary Education in Canada: Evidence from the YITS”, mimeo (August), http://bit.ly/PJHj2m.

Butlin, G. (1999). Determinants of postsecondary participation. Education Quarterly Review, 5(3), 9-35.

Foley, K. (2001). “Why stop after high school?: A descriptive analysis of the most important reasons that high school graduates do not continue to PSE”, Canadian Millenium Scholarship Foundation.

Foley, K. (2001). “Pourquoi arrêter après l’école secondaire?: Analyse descriptive des raisons les plus importantes ayant motivé les diplômés de l’école secondaire à ne pas poursuivre d’études postsecondaires”, Montréal: Fondation canadienne des bourses d’étude du millénaire.

Looker, E. D. (2002). “Why Don’t They Go On?: Factors Affecting the Decisions of Canadian Youth Not to Pursue Post-secondary Education”, Canada Millennium Scholarship Foundation.

 

De l’interdisciplinarité et de la multidisciplinarité, et de la systémique des services de soins de santé en itinétance

La pratique avancée des infirmières praticiennes en psychiatrie/santé mentale, PAIPSM, propose une large gamme de services de soins de santé pour les adultes, les enfants, les adolescents et leurs familles dans les centres de soins primaires (primary care facility), les cliniques externes en santé mentale des hôpitaux, les services d’urgence psychiatrique des hôpitaux, la pratique privée/cabinet privé ou les centres hospitaliers, les prisons, ou en milieu de travail et enfin, les centres communautaires de santé (community health center ou CLSC), et enfin dans les soins infirmiers, et les habitations (domicile des patients, CHSLD, vieillir à la maison, assisted living facilities???).

PAIPSM peut produire des diagnostics, pratiquer la psychothérapie, et prescrire des médicaments, et ce, pour les patients qui ont des troubles psychiatriques, des troubles organiques du cerveau médicaux ou des problèmes de toxicomanie. Ils sont autorisés à fournir des services psychiatriques d’urgence, à produire des évaluations biopsychosociale, psychiatriques et psychologiques, et physiques ainsi que des plans de traitement et à faire gestion globale des soins de santé aux patients. Les modalités de traitement comprennent donc à la fois des médicaments et la gestion psychothérapeutique.

Le rôle des PAIPSM met l’accent sur la recherche, le leadership clinique, l’éducation, la consultation et la pratique clinique d’experts, se concentrant principalement sur les interventions au niveau systémique. Un PAIPSM peut pratiquer de manière autonome dans une grande variété de cadres. Ils peuvent donc servir de consultants ou d’éducateurs pour les familles, les itinérants ainsi que pour le personnel oeuvrant dans le domaine des soins de santé ou des programmes communautaires de santé mentale. Le PAIPSM porte donc une emphase sur le diagnostic psychiatrique, y compris le diagnostic différentiel des troubles médicaux comportant des symptômes psychiatriques, et le traitement pharmacologique des troubles psychiatriques.

Les soins infirmiers psychiatriques (Psychiatric Nursing) ou les soins infirmiers de santé mentale (Mental health Nursing) relève d’une la spécialité des soins infirmiers qui s’occupe essentiellement des personnes de tous âges atteintes de maladie mentale ou de détresse psychologique, comme la schizophrénie, le trouble bipolaire, la psychose, la dépression ou la démence. Les infirmières dans ce domaine reçoivent plus de formation que l’infirmière non spécialisée, notamment, en ce qui concerne les thérapies psychologiques, la construction d’une alliance thérapeutique, la gestion des comportements difficiles, et l’administration de médicaments psychiatriques. L’infirmière enregistrée en psychiatrique (IEP; Registered psychiatric nurse) est une profession distincte dans les quatre provinces le plus à l’Ouest au Canada.

Les soins infirmiers psychiatriques sont reconnus comme une profession distincte de la santé réglementée au Canada et dans d’autres pays. La profession de soins infirmiers psychiatriques dispose d’un Code national de déontologie et des normes de pratique de soins infirmiers psychiatriques. Ces dernières et d’autres Lignes directrices de pratique ou politiques afin de fournir un guide pour les IEP qu’elles soient du domaine clinique, administratif, de l’enseignement ou de la recherche.

Les IEP travaillent dans des environnements cliniques et de traitement difficultueux et dans les environnements de travail en équipe interdisciplinaire. Ils doivent faire preuve en permanence de jugement dans la prise de décisions et la résolution de problèmes afin de relever les défis cliniques et les besoins de soins de santé des patients. Ils doivent posséder d’excellentes compétences interpersonnelles et de communication afin d’être efficace en tant que thérapeutes capables de compassion et d’empathie, et dans l’exercice de tact et de diplomatie, tout en conseillant et en fournissant traitements aux patients. Leur formation universitaire et professionnelle fournit les connaissances et les compétences requises pour ces types de responsabilités.

Les IEP oeuvrent sont sur les lignes de front en travaillant en partenariat en tant que membres clés d’une équipe interdisciplinaire de professionnels de soins de santé ; psychiatres, psychologues, infirmières, ergothérapeutes, travailleurs sociaux, pharmaciens, gestionnaires, organismes communautaires, professionnels de l’application des lois et prestataires de services sociaux. Ils travaillent comme personnel infirmier, gestionnaire, conseillers, spécialistes cliniques, chefs d’équipe, superviseurs, directeurs, directeurs adjoints, professeurs, chercheurs, gestionnaires de cas et consultants dans des centaines de collectivités partout au Canada.

Les IEP en itinérance peuvent ainsi travailler indépendamment ou dans le cadre d’équipe(s) de soins de santé multidisciplinaire [et interdisciplinaire] notamment des psychiatres, médecins, psychologues, travailleurs sociaux, infirmiers. Les IEP sont responsables de l’évaluation, la planification, la mise en œuvre et l’évaluation des soins aux personnes en situation d’itinérance chronique vivant une ou plusieurs conditions psychiatrique et comorbide. Ils fournissent des données probantes, centrées sur une approche globale du fonctionnement humain, ainsi que sur les besoins spécifiques de la personne, les soins infirmiers sont axés sur le rétablissement des patients et leurs fournisseurs de services de soins de santé mentale.

La stigmatisation, justifiée par l’évolution, s’avère aujourd’hui une mauvaise stratégie de santé

La stigmatisation a peut-être autrefois servi à protéger les premiers humains contre les maladies infectieuses, mais cette stratégie peut faire plus de mal que de bien pour l’homme moderne, selon certains chercheurs de Penn State. Les choses qui ont fait de la stigmatisation une stratégie plus fonctionnelle qui existait voilà des milliers d’années sont rares. Aujourd’hui, la stigmatisation de favoris par la promotion d’un comportement positif et sain sur la santé et dans de nombreux cas, il peut en fait aggraver la situation.

L’ostracisions et la stigmatisation des pairs atteints de maladies infectieuses peuvent avoir aidé les groupes de premiers humains à survivre puisque les agents infectieux se développent par diffusion dans les populations.

Pour les premiers humains, une personne qui était stigmatisée par son groupe d’appartenance subissait une mort certaine et parfois rapide, souvent par un manque de nourriture ou par le fait de tomber en proie sur un prédateur. À l’époque, les groupes ne se mélangent pas vraiment sur une base régulière, et il était fort peu probable qu’un autre groupe adopte la personne ostraciser d’un autre groupe. La stigmatisation des maladies infectieuses peut avoir évolué comme moyen de défense sociale pour les espèces grégaires, et a probablement exercé certaines fonctions d’adaptation lorsque les premiers humains faisaient usage de ces modes d’interaction.

Toutefois, la société moderne est beaucoup plus complexe, comporte des milliers ou des millions de personnes, est plus mobile et plus sûre par rapport aux prédateurs [bien qu’il y ait de nouvelle forme de prédation humaine par les humains], ce qui élimine l’efficacité de ce type de stratégie.

Dans les temps modernes, nous nous mélangeons plus fréquemment, on voyage beaucoup plus loin, et il y a aussi beaucoup plus de gens aujourd’hui. Les modes d’interaction modernes font de la stigmatisation une méthode excessivement improductive et créent plus souvent de problèmes qu’elle n’en résout.

L’étude de la maladie dans une autre société prospère, celle des fourmis, montre qu’ils ont de fortes stratégies de stigmatisation et d’ostracisme et qui servent les intérêts de groupe au détriment des particuliers. Les fourmis sont souvent présentées comme des parangons de la société et de l’efficacité, mais nous ne voulons certainement pas imiter la manière dont ils traitent leurs membres malades, qui peuvent être brutales [Altruisme, Compassion, Empatie].

La stigmatisation pourrait effectivement rendre plus difficultueuse la gestion des maladies infectieuses. La menace d’ostracisme peut rendre les gens moins susceptibles de rechercher un traitement médical. Si les gens refusent de se faire soigner et vaquer à leurs occupations quotidiennes, ils peuvent causer la maladie en la propageant de plus en plus rapidement.

La stigmatisation peut nuire à la capacité d’une personne à survivre à une maladie. L’ostracisme peut augmenter le stress, diminuer la capacité de l’organisme à lutter contre les maladies et les infections. Les humains sont très sensibles au rejet et l’homme s’inquiète de l’ostracisme. Ces inquiétudes et expériences de rejet peuvent causer des niveaux problématiques de stress et, malheureusement, le stress peut nuire à la capacité du système immunitaire à combattre une infection, l’accélération de la progression de la maladie.

Une fois appliqué, un stigmate est difficile à enlever, même quand il y a des signes évidents que la personne n’a jamais été infectée ou lorsqu’elle est guérie. Les communicants de la santé doivent s’assurer qu’ils surveillent intentionnellement leurs documents de communication ou d’intervention publique, créant ou renforçant les stigmates avant même que l’on utilise ses services de santé.

— –
Sources

Swayne, M. (20140. “Stigmas, once evolutionarily sound, are now bad health strategies”, Penn State News, The Pennsylvania State University, March 29 2014, http://bit.ly/1k4WoFs.

Smith, R. A., & Hughes, D. (in press). Infectious Disease Stigmas: Maladaptive in Modern Society. Communication Studies, Special Issue on Stigma, http://bit.ly/Qr2Z4r, http://bit.ly/Pa7OxQ (+ http://cas.la.psu.edu/, http://www.hhd.psu.edu/hdfs, http://www.cidd.psu.edu/, http://www.huck.psu.edu/).

Éducation et Santé : professionnalisme, professionnalisation, privatisation et marchandisation : est-ce compatible?

L’évolution des sciences de la santé commande l’usage du principe de professionnalisme dans le cadre des activités professionnelles du cadre de l’exercice des professions de la santé. Ainsi le concept de professionnalisme fait l’objet d’une grande préoccupation sur le plan médical, car il en est de la qualité d’une personne qui exerce une profession, une activité avec beaucoup de compétence. Il est également question de professionnalisation, celui de rendre un caractère professionnel à un ensemble d’activités; on parle alors de valorisation, que ce soit chez les infirmières ou les professeurs1.

Depuis la fin des années 1980, il y a eu un changement dans l’opinion des chercheurs en sciences sociales, dont la plupart des commentateurs étant maintenant en faveur du concept de professionnalisme. Une partie des problèmes de la médecine s’explique par le fait qu’elle avait été blâmée pour des déficiences dans le système de soins de santé. Avec l’influence décroissante de la profession sur les politiques publiques, la responsabilité s’est alors déplacée vers les principaux responsables — le gouvernement ou le secteur privé — et le professionnalisme en tant que concept semble être encore une fois des plus respectable.

Le concept de professionnalisme a émergé de manière forte depuis les années 1990, phénomène lié à la menace de l’autonomie professionnelle ainsi qu’à la crise de confiance des patients envers les soignants. Depuis le début du siècle, les professions (c.f. Office des professions du Québec; http://bit.ly/1iJV5Mx) n’ont jamais été aussi important pour le bien-être de la société. Les connaissances et l’expertise professionnelle sont au cœur de la société contemporaine et la manière dont ces professionnelles développent leurs expertises, la manière dont elles sont déployées, par qui elles sont déployées, et à quelles fins, sont autant de problèmes parmi les plus urgents auxquels sont confrontés tous les pays modernes. Simultanément, et historiquement, un grand nombre des caractéristiques les plus distinctives des professions, en particulier leurs privilèges quant à l’autorégulation et à l’autocontrôle, sont écourtées, voire tronquées. Ceci semble vrai même dans des pays comme la Grande-Bretagne, les États-Unis et le Canada, où les professions ont été historiquement plus autonomes et bénéficié du plus grand prestige social.

À ce jour, les efforts déployés par les groupes de professionnels pour répondre à ces menaces semblent révéler la faiblesse d’un appel à une expertise comme la seule base justifiant un contrôle professionnel de services médicaux. L’expertise ne fournit pas beaucoup de leviers pour faire valoir les privilèges professionnels traditionnels face à des appels à une plus grande efficacité, et à la réduction des coûts, l’avènement des services de santé au privé, sans parler des demandes du public pour une attention plus personnalisée (soins personnalisés et adaptés aux besoins spécifiques de la personne) et une aide dans l’usage des technologies complexes et de problèmes sociaux plus pervasif. Ce qui manque à ces moyens de répondre aux défis contemporains est précisément le noyau moral [et éthique2] du professionnalisme: celui du contrat entre le professionnel et la société dans lequel le médecin et le patient sont liés ensemble, au sein d’un plus grand « corps politique » qu’est la société.

Jusqu’à la fin du 20e siècle, tout médecin débutant s’engageait délibérément à respecter le serment d’Hippocrate. Or, l’entrée de l’État dans le marché des soins médicaux, l’évolution des connaissances scientifiques [et donc médicales], sont autant de facteurs qui ont contribué à changer radicalement l’exercice de la médecine.

Au Canada et aux États-Unis, la base sociale de l’extraordinaire concession allouer à l’autorité et à l’indépendance professionnelle de professions « professionnalisées », telles que la médecine, relève d’un contrat social entre la profession et le public.

Le professionnalisme relève donc de la compréhension morale [et éthique] chez les professionnels donnant ainsi une réalité concrète à ce contrat social. Il est basé sur la confiance mutuelle. En échange d’une concession de l’autorité à contrôler les aspects clés de leur pratique et des conditions de travail au moyen de licences et titres de compétences, les professionnels sont tenus de maintenir des normes élevées de compétence et de responsabilité morale [et éthique]. Le travail des professions libérales traditionnelles a longtemps été tenu d’exiger une sphère important de la discrétion dans la pratique individuelle. La profession a donc été conçue pour exiger le plus fort sentiment de dévouement moral [et éthique] de la plupart des professions. Un professionnel n’est pas tenu d’ignorer les considérations matérielles , mais on s’attend à subordonner les gains financiers à des valeurs plus élevées de responsabilité pour les ‘patients’ (ou clients) et à l’intérêt public.

Dans la littérature médicale, W. M. Sullivan est un des premiers instigateurs d’un mouvement d’émergence et parle d’un professionnalisme civique en se référant au dévouement envers la collectivité. De nouvelles études sociologiques en arrivent alors à un changement de paradigme : un système ayant conservé son professionnalisme serait bénéfique pour la société, à la condition que la profession médicale prenne un nouvel engagement à l’égard du professionnalisme.

Il en est donc résulté, depuis les deux dernières décennies, un mouvement général pour que le professionnalisme soit enseigné aux 1er et 2e cycles, et que la connaissance soit transmise aux médecins en exercice. De plus, les organismes de réglementation professionnelle exigent que les programmes de formation et d’enseignement traitent du professionnalisme.

Pour Sullivan, le professionnalisme peut être compris sous un angle moins technique et plus responsable, de manière à englober l’idée de la vocation et de l’engagement envers la communauté. Dans ce cas, la maîtrise de l’expertise technique devra toujours être accompagnée d’un engagement moral [et éthique] envers le bien-être de la communauté à laquelle appartient le professionnel. C’est ce qu’il identifie comme la conception civique du professionnalisme. Encore une fois, cependant, il prend bien soin de souligner qu’on n’attend pas d’un professionnel qu’il ignore les considérations matérielles, mais on s’attend à ce qu’il subordonne le gain financier aux valeurs plus élevées de responsabilités envers le patient et l’intérêt public.

Il appert donc qu’il semble y avoir une fenêtre d’opportunité à redéfinir le contrat entre la médecine à la société. Cette fenêtre existe en raison de l’insatisfaction du public dans la manière dont les gestionnaires non médecins, soit au sein du gouvernement (au Canada, ou au Québec) ou dans le secteur privé (aux États-Unis), gèrent les soins de santé. Le public réclame un retour du professionnalisme médical, avec ses valeurs de base de l’expertise scientifique et de l’altruisme. Toutefois, cela doit être un professionnalisme qui répond aux exigences contemporaines et ceci est compris par, à la fois la profession médicale et la société, parce que beaucoup d’attentes de la société dépendent de la médecine à respecter les obligations qui sont issues des traditions du professionnel. C’est pourquoi une connaissance du travail de Sullivan et d’autres spécialistes des sciences sociales sont si importantes pour le développement des services de soins de santé, et pour les médecins canadiens et québécois.

Le concept de Sullivan de « professionnalisme civique » propose à la médecine un avenir dans lequel les valeurs que nous chérissons deviennent centrales. En outre, les objectifs qu’il propose, y compris l’engagement au service, s’avèrent réalisables. Nous serons en mesure de regarder l’avenir avec une certaine confiance, plutôt que par le pessimisme qui est si souvent articulé dans les débats publics et dans les médias.

Comme les services de soins de santé sont devenus d’une grande importance autant pour les citoyens et qu’à la société, il est devenu essentiel de bien comprendre la relation, ente la médecine à la société afin d’avoir une base pour un dialogue constructif. Au cours de la dernière décennie, les chercheurs des sciences sociales, et des domaines médicaux, juridiques et politiques, et de la santé ont suggéré que le professionnalisme soit à la base de la relation entre médecines et la société, et beaucoup ont qualifié cette relation un contrat social. Cette confiance est justifiée par la profession, à savoir la promesse publique faite par le prestataire de services de toujours faire

précéder les intérêts des personnes servies avant les siens. Cependant, la notion de contrat social en médecine reste vague, et les conséquences de son existence n’ont pas été pleinement explorées.

 

A l’origine, le terme profession signifie littéralement : déclaration publique ayant pour but de faire connaître ouvertement ses opinions, ses sentiments, ses intentions (du latin professio, -onis ). Plus tard, on parlera de profession de foi, à savoir la prononciation des voeux lors de l’entrée en religion. Ensuite, la signification du terme profession s’étendait, pour y inclure le fait de faire profession de « témoigner de son appartenance à, afficher, montrer, se piquer de, se donner comme »… « état, condition, métier ». C’est au cours du 17e siècle que le terme prend la signification relative à une partie de la société attachée à une activité, corps de métier ou ‘en tant que groupe représentant une certaine force sociale.

Certes, l’histoire prouve amplement que de métiers qui prétend être des professions le fait d’abord et avant tout pour défendre leurs propres intérêts, surtout financiers. Or, un métier ne peut simplement pas réclamer un statut professionnel. Le statut doit être accordé par le public, et le public conclura le contrat social nécessaire seulement si le service offert a une importance vitale.

Cependant, une bonne raison pour le public de conclure un contrat social – sans doute la seule bonne raison – c’est sa vulnérabilité existentielle. La vulnérabilité existentielle provient d’un besoin humain important à combler, allié à une dépendance totale envers des experts pour le combler.

Nous aimons penser que nous sommes maîtres de nos propres vies, que nous en déterminons le cours, que nous créons un style, planifions une carrière, façonnons nos corps, faisons progresser nos esprits, choisissons une foi. Mais en réalité nous avons peu de liberté. Nous ne choisissons pas de naître ni ne choisissons où et quand nous naîtrons. Même dans une démocratie, nous avons peu d’influence sur notre gouvernement, mais en dépendons entièrement pour être protégés contre les violences intérieures et extérieures. Nous sommes entourés de dangers pour notre santé qui peuvent frapper à tout moment. Et nous devons tous éventuellement mourir.

Nous pouvons donc définir une profession comme un groupe de prestataires de services experts qui se sont conjointement et publiquement engagés à toujours placer les besoins et les intérêts existentiels du public qu’ils servent au-dessus des leurs et qui, en retour, ont la confiance du public pour ce faire (Welie, 2004, p. 3).

Comme on l’a vu plus tôt, une entente entre une profession qui s’est déclarée publiquement et un public qui lui fait confiance peut être définie comme un contrat social informel et tacite. Le terme « contrat social » est simplement du jargon philosophique, une tentative pour expliquer des structures sociales par analogie aux contrats juridiques conclus entre des personnes.

Les codes de déontologie et les promesses publiques n’entraînent pas automatiquement la sorte de contrat social qui crée véritablement une profession. Inversement, l’absence d’une déclaration ou d’une promesse écrite précisant les devoirs de la profession et les droits du public n’annule pas le contrat social. Pareils documents peuvent l’étayer, mais ils n’en constituent pas un. Ainsi donc, le fait que l’un, mais non l’autre, prête généralement serment en obtenant leurs diplômes ne prouve pas que les premiers sont des professionnels et les seconds ne le sont pas.

Non seulement n’y a-t-il pas de document précisant les conditions du contrat social, mais aussi n’y a-t-il pas de parties nettement identifiables dans le contrat? « Le public » n’est pas une entité qui peut, comme telle, conclure des ententes. Au plus, le public peut conclure des contrats par l’intermédiaire du gouvernement qui le représente, spécifiquement son organe législatif. Inversement, il n’y a aucune entité spécifique qui peut prétendre être une profession.

L’absence de parties nettement identifiables dans le contrat social et l’absence d’une entente écrite qui en précise les conditions signifient que le contrat social entre la profession et la société est dynamique. Il change, croît, mûrit et s’adapte sans arrêt aux circonstances temporelles et locales. Il est toujours ouvert à des débats et à de nouvelles interprétations par les membres de la profession même ainsi que par des membres du public. C’est pourquoi un code de déontologie professionnel qui n’a pas changé depuis 50 ans a peu de mérite.

La profession dans son ensemble et chacun des professionnels doivent continuellement revoir leur propre « profession » et réinterpréter les conditions du contrat social qui en découle avec le public, sinon le contrat se pétrifie lentement. Dans tous les cas, cette entente entre des prestataires de services et le public peut être définie comme un contrat social.

Le professionnalisme trouve son application dans la relation entre le professionnel et la société, car elle forme la pierre angulaire de la confiance entre le patient et le professionnel. Et même si le professionnalisme a été incorporé dans la plupart des facultés [de médecine] de l’Amérique du Nord, il demeure néanmoins difficile à définir parce qu’il véhicule beaucoup de connotations et de significations implicites.

Comme on le constate précédemment, cette définition étymologique des professions remonte à ses origines réelles et est plus restrictive : professio = déclaration, faire profession de. Il est reconnu que les professionnels professent promouvoir les intérêts du public et doivent placer le bien-être du patient avant le leur. Cet altruisme est une obligation à tout vrai professionnel. Certains voien une contradiction entre une activité économique (dont les règles déontologiques suivent l’économie de marché capitaliste égocentrique) ou l’objectif est de maximiser ses profits, et l’activité altruiste, qui par définition, exige une certaine abnégation. Peut-on en conclure qu’une personne ne peut épouser une profession et conserver la liberté morale d’une personne d’affaires?

Le professionnalisme ne tente pas de dicter chaque petit détail du rapport fiduciaire qui existe entre un patient et son médecin, mais trace plutôt les grandes lignes d’un idéal auquel les étudiants, et les professionnels peuvent aspirer tout au long de leur carrière.

La définition juridique apparaît au Québec en 1973 : ???

L’art et la science de la médecine sont très complexes. Après une longue formation et grâce à l’expérience qu’ils acquièrent, les médecins deviennent des experts de la médecine et des guérisseurs.

Par exemple, en ce qui a trait au professionnalisme médical, en 2005, le Collège royal des médecins et chirurgiens du Canada (CRMCC) a publié une deuxième version du CanMEDS, le cadre de compétences CanMEDS 2005 pour les médecins. Ce cadre de compétences définit un professionnel de la façon suivante : « Comme professionnels, les médecins sont voués à la santé et au mieux-être de la personne et de la société, à la pratique respectueuse de l’éthique, à l’autoréglementation de la profession et aux critères rigoureux de comportement personnels ».

Le professionnalisme est la base du contrat dit social entre la profession et la société. Elle exige de placer les intérêts des patients au-dessus de ceux du professionnel, l’établissement et le maintien de normes de compétence et d’intégrité élevé, et de fournir des conseils d’expert à la société sur les questions relatif à leurs domaines. Les principes et les responsabilités du professionnalisme doivent être clairement compris par la profession et la société. Essentiellement de ce contrat est la confiance du public en les médecins, qui dépend de l’intégrité d’à la fois les médecins individuellement et l’ensemble de la profession.

À l’heure actuelle, en santé, la profession médicale est confrontée à l’explosion des technologies, à l’évolution des forces du marché privée, les problèmes [corporatiste, le syndicaliste, organisationnels, structurels, et de gouvernances] dans la prestation des soins de santé, le bioterrorisme et la mondialisation. En conséquence, les médecins trouvent parfois qu’il est de plus en plus difficile d’assumer leurs responsabilités, et ce, envers les patients et la société. Dans ces circonstances, la réaffirmation des principes et des valeurs du professionnalisme médical fondamentales et universelles, qui restent des idéaux poursuivis par tous les médecins, devient d’autant plus importante. En effet, la profession médicale doit composer avec les forces politiques, juridiques et de marché privé, tous complexes. En outre, il existe certaines variations dans la prestation des services de soins de santé, et la pratique médicale à travers lequel tous les principes généraux peuvent être exprimés à la fois en terme de complexité et de subtilité (pervasiveness). Malgré ces différences, les thèmes communs émergent.

Cependant, ni les incitations économiques, ni la technologie, ni le contrôle administratif ne se sont avérés un substitut efficace quant à l’engagement à l’intégrité évoqué dans l’idéal de professionnalisme (Sullivan, 1995). La pratique de la médecine est un art, pas un métier, une vocation, pas une entreprise: un appel dans lequel votre cœur sera exercé à égalité avec la tête.

Le professionnalisme médical comprend à la fois la relation entre un médecin et un patient et un contrat social entre les médecins et la société. La profession médicale se caractérise par un engagement ferme envers le mieux-être des patients, des normes morales élevées, la maîtrise d’un corpus toujours plus imposant de connaissances et de compétences et une grande autonomie clinique. Le dévouement (altruisme) et l’engagement (professionnalisme) envers le mieux-être d’autrui sont manifestement dans l’intérêt des patients, qui en sont les premiers bénéficiaires.

Ainsi le professionnel s’investit donc à divers engagements : 1- l’engagement à la compétence professionnelle; 2— l’engagement à l’honnêteté envers le patient; 3— l’engagement à la confidentialité du patient; 4— l’engagement de maintenir des relations appropriées avec le client; 5— l’engagement d’amélioration continue de la qualité des soins; 6— l’engagement à l’amélioration de l’accès aux services de soins de santé; 7— l’engagement à la distribution équitable de ressources toujours fini; 8— l’engagement à la pensée et à la connaissance scientifique; 9— l’engagement à maintenir la confiance dans la gestion des conflits d’intérêts; 10— l’engagement aux responsabilités professionnelles.

Le contrat social accorde des privilèges à la profession, y compris la responsabilité exclusive ou première de la prestation de certains services et un grand degré d’autoréglementation. En contrepartie, la profession convient d’utiliser ces privilèges principalement au bénéfice d’autrui et, accessoirement seulement, à son propre avantage. Trois des principales caractéristiques du professionnalisme médical – l’éthique du service, l’autonomie clinique et l’autoréglementation – sont bénéfiques pour la société. L’éthique du service relève de : la compassion, la bienveillance, la non-malfaisance, le respect de la personne et la justice qui en sont les valeurs caractéristiques (Code de déontologie de l’AMC).

Le professionnalisme est un idéal à la base du contrat social entre une personne et la société. Cet idéal vise la protection du public par une garantie de la compétence et l’engagement du professionnel envers la personne le consultant. En d’autres termes, le professionnalisme « […] englobe une série d’attitudes, d’aptitudes et de comportements, de qualités et de valeurs auxquels on s’attend de la part de ceux et celles à qui la société a accordé le privilège d’être considéré comme professionnels ».

Distinguons entre un professionnel, qui est un statut obtenu, et le professionnalisme, qui est un état de fait. Soulignons également que l’éthique professionnelle, grosso modo, est un synonyme de professionnalisme. Le professionnalisme, c’est l’équilibre entre le savoir (connaissances), le savoir-faire (expérience) et le savoir-être (comportement).

Le point de départ de toute éthique professionnelle est l’obligation de mériter la confiance que le public accorde à la profession, à l’ensemble et à chacun de ses membres.

Il est toutefois possible que l’intérêt personnel prévale sur le service au public ainsi que l’autonomie clinique et pourrait occasionner des variantes dans les modalités de traitement.

Ainsi, le porte-parole de l’Association dentaire canadienne (ADC), le Dr John O’Keefe (O’Keefe, 2002), traitait d’un document de travail de l’Association médicale canadienne (AMC) intitulé « Le professionnalisme en médecine ». L’article se réfère au mercantilisme et au consumérisme. Le document soulignait les embûches au professionnalisme, surtout en ce qui a trait au maintien de l’autorégulation. L’intérêt personnel prévaudrait sur le service au public et l’autonomie clinique pourrait ainsi occasionner des variantes dans les modalités de traitement.

Le public aurait donc perdu confiance en certaines professions. Dans la même ligne de pensée, et sur le plan international, est née une Charte du professionnalisme médical. Les responsabilités définies dans la Charte décrivent les engagements envers la compétence, les connaissances scientifiques, le secret professionnel et l’amélioration de la qualité des soins et de leur accès. On y souligne que l’engagement de la médecine envers le bien-être des patients est menacé. Il faut, disent les auteurs, renouveler le professionnalisme, qui est vu comme la base du contrat conclu par la profession avec la société. Les principaux éléments de cet idéal sont que le professionnel place les intérêts des patients en premier lieu et que les normes de compétence et d’intégrité soient respectées. Les responsabilités définies dans la Charte décrivent les engagements envers la compétence, les connaissances scientifiques, le secret professionnel et l’amélioration de la qualité des soins et de leur accès.

Le Dr O’Keefe termine en déclarant que ces mêmes responsabilités échouent à la médecine dentaire et met ’accent sur le professionnalisme comme priorité pour cette même profession.

Dans un énoncé paru dans The Journal of the American Dental Association (JADC), le Dr Gordon Christensen, autorité bien connue de la profession, fait part des résultats d’un sondage Gallup concernant l’honnêteté et l’éthique au sein des professions aux États-Unis. Le Dr Gordon Christensen évoque certaines raisons liées à ce changement : 1- L’apparition de la publicité dans les médias de masse; 2— Les articles et publicités dans les publications dentaires vantant des revenus astronomiques d’un million de dollars et plus par an. Le revenu ne devrait pas être l’indice de succès, mais la qualité des services. La profession existe pour servir le public et non soi-même; 3— L’élaboration de plans de traitement excessifs, sans présenter aux patients d’autres options réalisables. Si ces distinctions ne sont pas exposées, le patient aura des doutes sur l’éthique du soignant; 4— L’élaboration de plans de traitement excessifs, sans présenter aux patients d’autres options réalisables. Si ces distinctions ne sont pas exposées, le patient aura des doutes sur l’éthique du soignant; 5— Il est inconcevable et non professionnel que des services d’urgence soient inaccessibles; 6— Si un traitement fait défaut prématurément, il devrait y avoir négociation sur la responsabilité plutôt que de refuser toute responsabilité. Le Dr Christensen concluait : La réputation de notre profession se détériore par suite de facteurs négatifs, tels que décrits. Ces facteurs sont facilement identifiables. Il est grand temps d’améliorer os services vis-à-vis des patients et de contrôler cette orientation lucrative de quelques-uns de nos collègues.

Dans un article paru dans la revue internationale francophone d’éducation médicale, Pédagogie Médicale, les Drs Richard et Sylvia Cruess relataient : « […] la plupart des observateurs s’accordent à reconnaître que les trois principales causes de la perte de confiance en la profession médicale sont la perception d’une baisse du niveau d’altruisme chez les médecins, l’incapacité de s’autoréguler de la part de certains médecins et de leurs corps représentatifs et enfin le comportement de certaines associations professionnelles. Tandis que l’altruisme est affaire de responsabilité individuelle, l’autorégulation et les interventions des corps représentatifs sont des responsabilités collectives qui doivent être assumées par les médecins en exercice. S’ils ne le font pas, le privilège de l’autorégulation pourrait être restreint ou même leur être retiré ».

Les besoins des patients doivent passer avant ceux des praticiens. Contandriopoulos souligne que la confiance du malade dans les compétences et la conscience de son médecin est le fondement du professionnalisme. Cette confiance s’établit sur la qualité de la formation et sur l’éthique des médecins, et il s’empresse de signaler que cette formation a besoin d’être repensée.

L’aspect commercial rattaché à la pratique de la médecine dentaire est aujourd’hui évident. Malheureusement, depuis l’ouverture de la publicité en faveur de l’économie de marché, ce mercantilisme a eu tendance à s’accentuer au détriment du professionnalisme. Certains points devraient être réévalués afin de regagner la crédibilité et la confiance nécessaires à tout soignant.

Ainsi donc, le professionnalisme désigne la compréhension morale [et éthique] sous-jacente au contrat social entre une profession et le grand public. Par exemple, les médecins, les dentistes, ont toujours accepté ce prestige avec fierté et un sentiment de responsabilité de s’acquitter des obligations inhérentes. Or, les changements continus dans notre système de santé rendent-ils encore de plus en plus difficile pour les médecins [ou d’autres professionnels] de s’en acquitter?

On constate cependant que plusieurs professions de la santé et, en premier lieu la médecine dentaire accusent un certain retard, particulièrement au niveau de la formation universitaire de 1er cycle. Provoquer la réflexion éthique individuelle pour arriver à une éthique collective exigera des changements majeurs au chapitre de la formation universitaire, en mettant l’accent davantage sur les grands principes socio-philosophiques plutôt que sur l’aspect purement technique de la profession [médicale, dentaire, voir même éducation, etc.]. La formation des maîtres, par leur sélection, devra être repensée afin de transmettre en tant que mentors les principes du professionnalisme aux futurs.

L’écart actuel entre la « haute estime » du public pour les professionnelles [dont les médecins] et l’appui de notre système au travail des médecins, semble être devenu un gouffre dans lequel de nombreux attributs du professionnalisme pourraient s’engouffrer. Par exemple, les confrontations répétées avec le gouvernement ont forcé les associations médicales à adopter une mentalité patronale-syndicale (corporatives) et les médecins à prendre part à des moyens de pression indignes de professionnels. Les pénuries de médecins, créées par une planification médiocre des ressources humaines, se sont traduites par une désorganisation des fonctions et des charges de travail.

Les récentes mesures de réforme de la santé [et celle proposée par les partis actuellement en période d’élections] permettent un peu d’espérer que l’accès aux soins sera amélioré (GMF).

De la psychopathologie de l’interaction et de la relation : l’aliénation parentale et violence indirecte

Dans le cadre d’une séparation ou d’un divorce, il arrive qu’un des parents (voir même les deux) veuille se venger de l’autre et le détruire moralement, et qu’il cherche à garder exclusivement son enfant pour lui. Dans ce genre de situation, ce parent et l’enfant peuvent alors se dresser contre l’autre parent qui devient le « méchant ». Et c’est là que peut naître l’« aliénation parentale ».

Concrètement, l’enfant se met à renier l’un de ses deux parents sans raison et du jour au lendemain, et refuse de le voir (le parent aliéné), souvent après avoir entendu des propos désobligeants sur lui par l’autre parent (le parent aliénant), que cela ait été fait consciemment ou non.

L’aliénation parentale serait une « pathologie relationnelle » [c’est une psychopathologie de l’interaction], tout le système familial étant concerné. On également aussi l’aliénation parentale comme « des manipulations plus ou moins subtiles d’un des parents pour faire en sorte de rompre le lien qui unit l’enfant à l’autre parent ».

Cependant, dans les stades légers ou modérés, le terme d’aliénation peut sembler excessif. On parlera alors de déssafection, la perte ou diminution de l’affection, de l’intérêt que l’on éprouvait pour quelqu’un ou quelque chose (c’est un détachement, le contraire de l’attachement. Tout se passe comme si l’enfant avait cessé d’aimer, se montrant distant, indifférent. Une distance se crée. Dans les cas les plus sévères, les bons souvenirs en compagnie du parent rejeté ont disparu (ou sont niés), les distorsions cognitives et les croyances erronées concernant le passé apparaissent. L’enfant peut se montrer d’une incroyable cruauté et d’une dureté vis-à-vis du parent qu’il rejette, sans éprouver la moindre ambivalence ni culpabilité. Convictions inébranlables d’une réalité fantasmée et d’un passé remanié, perception “en noir et blanc” de la réalité, l’un des parents étant doté de toutes les qualités, l’autre de tous les défauts. Le processus opère alors comme une sorte de “reformatage” du disque dur de la mémoire et de l’affectivité, une sorte de lavage de cerveau.

Ce phénomène d’aliénation parentale, depuis ses débuts, suscite polémiques et controverses. Et au-delà du concept, la dénomination même fait débat. Ainsi, le terme d’« aliénation parentale » divise moins que celui de « syndrome d’aliénation parentale ». C’est donc le mot « syndrome » qui pose majoritairement problème puisqu’il fait référence à une maladie, alors que l’aliénation parentale n’est pas reconnue comme telle.

Cette notion de syndrome d’aliénation parentale, on la doit à Richard A. Gardner, qui l’a introduite au début des années 1980, en référence à ce qu’il décrivait comme un trouble dans lequel un enfant, de manière continue, rabaisse et insulte un parent sans justification. Selon lui, ce syndrome apparaîtrait en raison d’une combinaison de facteurs, comprenant l’endoctrinement par l’autre parent (presque exclusivement dans le cadre d’un conflit sur la garde de l’enfant) et les propres tentatives de l’enfant de dénigrer le parent ciblé.

Cette notion de syndrome d’aliénation parentale (http://bit.ly/1gWg6iN ; Parental alienation syndrome, http://bit.ly/1hWmau5), on la doit à Richard A. Gardner (http://bit.ly/1hn8IxJ), lui-même contreversé, qui l’a introduite au début des années 1980, en référence à ce qu’il décrivait comme un trouble dans lequel un enfant, de manière continue, rabaisse et insulte un parent sans justification. Selon lui, ce syndrome apparaîtrait en raison d’une combinaison de facteurs, comprenant l’endoctrinement par l’autre parent (presque exclusivement dans le cadre d’un conflit sur la garde de l’enfant) et les propres tentatives de l’enfant de dénigrer le parent ciblé.

Aliénation parentale, syndrome d’aliénation parentale ; l’appellation divise. Mais le phénomène de manipulation de l’enfant qu’elle traduit, lui, existe bel et bien.

— –

Aliénation parentale, une forme d’agression indirecte ?

La violence indirecte est une conséquence du fait que la violence s’exerce dans un cadre social, celui des échanges, celui des interactions sociales : subissent donc la violence indirecte ceux qui ne sont pas les victimes immédiates de la violence, mais qui en souffrent parce qu’ils sont en relation avec elles. Le terme agression indirecte désigne donc un ensemble de gestes visant à blesser quelqu’un psychologiquement en détruisant ses relations interpersonnelles et son environnement social.

Cette forme d’agression passe souvent inaperçue, car contrairement aux cas d’agression verbale ou physique, l’agresseur n’est pas nécessairement en contact direct avec celui qu’il attaque; il entraîne plutôt ses pairs, alliés, ou “spectateurs” avec lui.

Plusieurs études révèlent également que l’utilisation de la violence indirecte est liée à des problèmes d’adaptation personnelle et sociale, et que ces personne ont plus de troubles émotifs et de problèmes de comportement dans leurs famille.

Le terme « agression indirecte », d’abord utilisé par Bjorkqvist (2001), désigne un ensemble de gestes et comportements susceptibles de blesser quelqu’un psychologiquement. C’est une forme de violence sournoise et cachée qui ne nécessite pas une confrontation directe avec la victime, et vise essentiellement à infliger des blessures psychologiques et sociales, et passe donc souvent inaperçue1. L’agression relationnelle (cf. page 6) ne diffère que légèrement de l’agression indirecte en ce sens qu’il met l’accent sur l’entravement de l’acceptation dans un groupe de pairs ou entre amis. Enfin, l’agression sociale (cf. page 9) est comme une combinaison d’agression indirecte et relationnelle et comprend tout ce qui porte atteinte à la réputation d’autrui, l’estime de soi, ou les deux1.

L’agression indirecte (relational aggression2, covert aggression, covert bullying), davantage présent chez les filles que chez les garçons, consiste donc à blesser quelqu’un psychologiquement en détruisant ses relations interpersonnelles et son environnement social, et donc utiliser ses relations interpersonnelles et/ou l’environnement social comme levier d’agression ; l’une des conséquences de la violence indirecte est celle de l’exclusion sociale et de la discrimination.

L’agression indirecte peut donc prendre diverses formes telles que raconter les secrets de la cible, dégrader ou ridiculiser ou déconsidérer la cible, exclure la cible du groupe ou répandre des rumeurs à son sujet sur des sites de clavardage ou les réseaux sociaux, amener d’autres élèves à ne pas « aimer » la cible. Les conséquences de l’agression indirecte sont dévastatrices et peuvent agir sur le devenir de la cible. Elles s’apparentent d’ailleurs à celles que vivent les personnes victimes de harcèlement psychologique et morale au travail. À long terme, entre autres, plus la victime vit d’épisodes d’agression indirecte, plus elle intègre un discours intérieur irrationnel qui entraîne une perte d’estime de soi, une souffrance psychologique et émotionnelle, anxiété, dépression, troubles relationnels, etc., voire même des conduites d’opposition, de délinquance, etc.

De nos jours, la violence indirecte tel que la violence psychologique et morale, ou l’agression relationnelle n’a pas de monopole. Certes, l’image de la femme battue, phénomène d’agression directe, peut certes toujours avoir court. Cependant, nous noterons que nous pouvons certainement admettre qu’elle puisse subir une violence psychologique et morale (agression indirecte), et nous pourrons donc également imaginer monsieur déconfit (vaincu, anéanti) sur un divan par la violence directe, avec une progéniture en état de choc.

Or, la violence indirecte passe souvent inaperçue, car notre société s’est exclusivement penchée sur les phénomènes de violence directe. Parce qu’il existe une certaine méconnaissance de la problématique de violence indirecte, parce que l’on ne considère pas l’exclusion sociale comme une forme d’intimidation, parce que l’on perçoit la victimisation indirecte comme étant moins grave que l’intimidation ou la violence verbale ou physique, parce que la nature cachée et secrète des gestes la rend difficilement décelable, un effort de sensibilisation s’impose.

En 2008, une méta-analyse de 148 études sur l’agression directe et indirecte des enfants et adolescents ont examiné l’ampleur des différences entre les sexes, les inter-corrélations entre les formes et les associations avec l’inadaptation. Les résultats ont confirmé les conclusions antérieures de différences entre les sexes (favorisant les garçons) à l’agression directe et une différences triviales entre les sexes pour l’agression indirecte. Les résultats ont également indiqué une inter-corrélation importante entre ces formes. D’autre part, cette analyse montre que l’agression directe est plus fortement liée à des problèmes externalisés, à de mauvaises relations avec les pairs et à un faible comportement prosocia, et l’agression indirecte semblait liée à des problèmes internalisés et au comportement prosocial élevé3.

Une récente étude (2013) inter-culturelle de 5789 adolescents de six pays (Autriche, Canada, Allemagne, Slovénie, Espagne et Suisse) a montré que selon la déclaration des élèves, ce sont les garçons (46,8 %) qui utilise significativement plus l’agression indirecte contre les pairs que les filles (31,7%) De plus, parce que les femmes ont signalé une probabilité de près de 19 fois plus élevé que les hommes pour l’usage de l’agression indirecte contre leurs pairs de sexe opposé, et donc, les hommes sont de loin les plus susceptibles d’être la cibles de l’agressivité indirecte4. Deux chose à comprendre des résultats de ces études, d’une part, selon leurs déclarations, les garçons utilisent plus la violence indirecte que les filles, et ce autant envers les filles et les garçons, d’autre part, chez les filles, l’usage de la violence indirecte est surtout dirigé envers les garçons. Or, semble-t-il, la particularité de la forme d’intimidation que représente « l’agression indirecte » serait différente selon les pays, le sexe, l’âge et la culture. Cela suggère donc que parce que les filles utilisent moins l’agression directe, l’agression indirecte deviens donc plus saillante chez les filles que les garçons, ce qui peut amené à croire que la violence indirecte est l’apanage des filles.

Dans une importante méta-analyse, intégrant environ 300 études sur l’Agression impliquant 190000 participants, Archer (2004) a constaté que l’agression directe était plus prédominant chez les mâles que chez les femelles, et ce, à partir de début de l’enfance jusqu’à l’âge adulte et à travers plusieurs cultures. Pour l’agression indirecte, Archer n’a pas trouvé pour les jeunes adultes de différences entre les sexes (y compris les collégiens), alors que des études sur les adolescents ont signalés plus d’agression indirecte chez les filles. Or, Bettencourt et Miller (1996) ont constaté que, en l’absence de toute provocation, les hommes étaient plus susceptibles d’agresser que ne l’étaient les femmes. Cependant, la provocation atténué significativement cette différence entre les sexes.

Ainsi, les recherches sur la différence sexuelle de l’agressivité chez les adolescents ont produit des résultats plutôt équivoques. Certaines études ont montré que les garçons s’engagent plus volontiers dans l’agression directe que les filles le font, les femmes se livrant à plus d’agression indirecte que les hommes (Björkqvist, Lagerspetz, et Kaukianen, 1992; Österman et al., 1998). Il convient de noter que Björkqvist et coll. ont utilisé des mesures de l’agression déclaré par les pairs [peer ratings] (par opposition aux mesures autodéclarées [self-reported mesures]) dans leurs études chez les adolescents. Contrairement à ces résultats, une étude chez les élèves adolescents espagnols (Toldos 2005) a montré que les garçons s’engagent plus volontiers dans l’agression directe et indirecte que les filles.

L’attention particulière que les chercheurs portent aux conduites agressives des filles est relativement récente. Un tel constat apparaît peu apparaître surprenante puisque les actes d’agression sont surtout reconnus pour être le fait des garçons. Ainsi, certains théoriciens soutiennent que les indicateurs les plus souvent utilisés pour désigner les enfants à risque de développer des conduites antisociales, soit les conduites d’agression directe, ne sont pas nécessairement appropriés pour les filles, dont les conduites agressives se manifestent plutôt sous un autre mode (Feshback, 1969 ; Crick, et al., 1997 ; Craig et Pepler, 1999 ; Ostrov et Keating, 2004). Partir des ragots, raconter les secrets des autres, dégrader, ridiculiser, isoler ou exclure une personne du groupe d’amis, porter atteinte à la réputation, constituent autant de manifestations de ce mode d’agression connu sous le nom d’agression indirecte (Verlaan, 1995; Bjorkqvist et coll., 1992; Owens et coll., 2000), relationnelle (Crick et Grotpeter, 1995 ; Tomada et Schneider, 1997) ou sociale (Cairns et Cairns, 1994; Galen et Underwood, 1997). Cet ensemble de termes dont les définitions varient légèrement d’un auteur à l’autre font sensiblement référence au même phénomène (Bjorkqvist, 2001; Vaillancourt et coll., 2003; Verlaan, 2005).

Les chiffres et les risques évoqués précédemment passent toutefois sous silence que, contrairement à ce que l’on observe chez les garçons, proportionnellement moins de filles ont recours de manière répétitive et persistante à l’agression directe, et ce, particulièrement durant l’enfance. La connaissance des facteurs expliquant le développement de ces conduites chez les filles entre l’enfance et l’adolescence est importante afin de reconnaître précocement les filles les plus à risque de développer ce type de problème et de prévenir son apparition.

Par ailleurs, les recherches récentes suggèrent également que les conduites d’agression directe chez les filles, c’est-à-dire les conduites de confrontation avec agression physique ou verbale (Little et coll., 2003), lorsque manifestées durant l’enfance, constituent des indicateurs d’inadaptation sociale tout comme chez les garçons. Les filles qui présentent ce type de problèmes sont plus à risque de connaître un ensemble de difficultés ultérieures, dont des conduites antisociales et des troubles mentaux (somatisation, anxiété, dépression) (Serbin et al.,1991 ; Zoccolillo, 1993 ; Loeber et Keenan, 1994 ; Farrington, 1995 ; Pepler et Sedighdeilam,1998). Elles sont plus susceptibles de vivre le rejet des pairs et des difficultés scolaires (Lancellotta et Vaughn, 1989; Serbin et coll., 1991; Coie et Dodge, 1998), des grossesses précoces, des stress parentaux et de la violence conjugale (Underwood et coll., 1996; Pepler et Sedighdeilam,1998; Serbin et coll., 1998). De tels résultats viennent donc largement justifier l’attention récente que l’on porte aux conduites agressives des filles.

Ainsi, des travaux sur les différences entre l’agression indirecte et l’agression directe ont révélé d’importantes différences dans la façon dont chacun de ces types de conduites agressives se manifeste selon l’âge et le sexe. Au plan du développement, on peut observer des gestes d’agression physique chez un enfant dès la fin de la première année de vie (Tremblay et coll., 1999; Archer, 2004), tandis que l’agression indirecte est plus apparente lorsque les enfants auront commencé à comprendre la complexité des interactions sociales et les façons (habituellement verbales) de les manipuler. Dès l’âge de 4 ans, il est possible d’observer la manifestation rudimentaire de comportements d’agression indirecte chez les enfants (Crick et coll., 1999). Les filles qui utilisent l’agression indirecte désirent infliger des blessures émotives et sociales aux autres (Galen et Underwood, 1997 ; Owens et al., 2000). Les comportements de diffamation et d’exclusion servent, en outre, à renforcer leur propre statut social dans le groupe d’affiliation (Merten, 1997). Plusieurs travaux restent néanmoins à faire avant de déterminer si les conduites répétitives et persistantes d’agression indirecte constituent un indicateur d’inadaptation psychosociale future, comme peut l’être l’agression directe.

Si, par leur nature, les conduites d’agression indirecte passent souvent inaperçues, les effets de ce mode d’agression peuvent être percutants. Pour plusieurs victimes, en effet, la souffrance et l’humiliation engendrées par l’agression indirecte ne sont pas épisodiques et peuvent persister au fil des années : la victime n’a pas seulement à composer avec des ragots et des mensonges, mais aussi avec l’isolement, la solitude et le rejet (Underwood, 2003).

Somme toute, l’agressivité semble pareillement présente et courante autant chez les garçons que chez les filles, et semble, en bas âge, prendre la forme d’agression physique directe (qui débute plus tôt et qui est plus fréquent chez les garçons) et change progressivement avec l’âge vers une forme de violence verbale et vers une agressivité indirecte et passive (qui débute plus tôt chez les filles)5. L’agressivité directe semble être privilégiée chez les hommes, et ce, tout au long de la vie. Toutefois, cette tendance pour les filles à s’engager plut tôt dans l’agression indirecte que pour les garçons pourrait être influencée par les différence de la socialisation des filles et des garçons et des attentes sociales associées aux rôles social sexuel. Ainsi, on théorise que divers agents de socialisation (ex. : les parents, frères et sœurs, les pairs, etc.) auraient une influence sur la survenue et l’évolution du comportement d’agressif relationnel (Ostrov & Godleski, 2010). Aussi, on a constaté que les conflits dans la relation parent-enfant est associée à l’agression relationnelle (Ostrov & Bishop, 2008).

Les enfants qui ont été victimisés par leurs pairs ont tirées des enseignements de ces expériences et ont augmenté leur comportement agressif au fil du temps. Plus précisément, les taux d’agression relationnelle (et non physique) a augmenté chez les enfants d’âge préscolaire qui ont été victimisés relationnellement, alors que les taux d’agression physique (mais non relationnel) a augmenté chez les enfants qui ont été physiquement victimisés (Ostrov, 2010). Ces résultats soutiennent la perspective d’apprentissage social dans lequel les enfants apprennent à partir de différents modèles sociaux, y compris les expériences antérieures de victimisation.

Comme la socialisation de l’agressivité se produit pendant les années préscolaires, cette période semble cruciale pour la réduction (prévention) et pour la cristallisation de l’agressivité. Les programmes d’intervention et de prévention de la violence surviennent souvent trop tard dans le processus développemental de l’agressivité; il faut donc agir en amont du cycle de développement de la progéniture. En travaillant sur le parenting des parents, et le développement des enfants, leurs compétences sociales et affectives, il est possible d’améliorer le développement global, et l’apparition précoce de l’agressivité peut ainsi être considérablement réduite.

Or, certains résultats6 offrent un soutien partiel pour une hypothèse de la modélisation ou de l’imitation du parent de même sexe et suggèrent que l’agression physique et social des filles à l’école peut être liée à au fait de regarder la mère résoudre les conflits conjugaux en se livrant à triangulation, obstruction, agression verbale et physique avec le partenaire. Que les stratégies néfastes de résulution de conflits de la mères influence positivement autant l’agression physique que social des filles sociale peut être consistant avec l’hypothèse de l’apprentissage par observation (Grych et Fincham, 1990) où l’exposition aux stratégies de résolution des conflits négatifs des parents se traduit chez les enfants en utilisant des stratégies de conflit négatif avec leur pairs. Les filles peuvent en effet apprendre beaucoup de choses sur le résolution des différends par les pairs en regardant leurs mères s’engager dans la triangulation, obstruction, agression physique et verbale, dans les conflits avec les pères.

Ainsi, l’agression sociale serait principalement déterminé par l’environnement des enfants, particulièrement des femelles. Un comportement parental qui pourrait être particulièrement pertinente pour le développement de l’agression sociale chez l’enfant est le contrôle psychologique. Le contrôle psychologique englobe des comportements de manipulation sur le plan relationnel telles que le retrait de l’amour ou de l’induction de la honte et de la culpabilité, qui sont très semblables aux tactiques de manipulation qui définissent l’agression sociale (par exemple, l’exclusion sociale, la menace de retrait de l’amitié). Vivre le contrôle psychologique parentale peut donc notamment favoriser le développement de l’agression sociale chez la progéniture, meme si les parents ne sont pas la seule source d’influence environnementale sur le comportement des enfants. Cependant, les preuves empiriques de l’effet de contrôle psychologique des parents sur l’agression sociale des enfants font encore défaut, mais des études montrent que d’autres comportements parentaux négatifs d’un tel manque de réactivité et la coercition sont liés à l’agression sociale chez les enfants. Aussi, les recherches montrent que les enfants qui ont des amis socialement agressifs sont susceptibles de devenir plus socialement agressifs eux-mêmes. En revanche, l’interaction avec les amis physiquement agressifs est liée à une augmentation de l’agressivité physique des enfants.

Il est donc particulièrement important d’enseigner aux enfants que l’agression sociale est aussi inacceptable que l’agression physique afin de les empêcher de remplacer simplement un type d’agression par un autre. Les enfants peuvent rapidement découvrir que les stratégies d’agression sociale sont tout aussi efficaces que l’agression physique pour nuire à la cible, et sont beaucoup plus difficiles à détecter et donc ont moins de risque d’être sanctionné. Si un enfant passe de l’agression physique aux services sociaux, cependant, semble dépendre de savoir si il ou elle est exposée à des influences environnementales qui favorisent spécifiquement l’utilisation de l’agression sociale.

— –

Aliénation : État de l’individu asservi par des conditions sociales qu’il ne peut modifier ; privation de libertés, de droits humains essentiels éprouvée par une personne ou un groupe social sous la pression de facteurs permanents (Hegel) ou historiques (Marx) qui l’asservissent à la nature ou à une classe dominante. Toute limitation ou tout conditionnement objectivement imposés à l’individu par le fonctionnement actuel de la société, et éprouvés comme une atteinte révoltante aux droits humains fondamentaux.

Abandon ou perte d’un droit naturel.

Fait de devenir étranger à soi-même, de perdre l’esprit. Le terme aliénation, a longtemps servi à désigner l’ensemble des maladies de l’esprit ou Altération passagère du jugement, de la maîtrise de soi, égarement.

L’Aliénation est le fait pour des personnes (ou une partie de leur être moral, exprimée par un complément prépositionnel de) de devenir étrangères ou hostiles à d’autres personnes considérées comme responsables de cet éloignement (Entraîner, provoquer l’aliénation des cœurs, des esprits).

— –

Sources

http://www.cnrtl.fr/definition/ali%C3%A9nation

https://www.readability.com/articles/0gtvqyvv

De l’erreur diagnostique, du stigmate et de la santée mentale !

L’Organisation mondiale de la Santé (OMS) désigne les conditions abusives endurées par les personnes atteintes de troubles mentaux comme une urgence cachée des droits de l’homme. L’OMS signale que partout dans le monde, les gens souffrant de troubles mentaux et psychosociaux sont soumis à un large éventail de violations des droits de l’homme, à la stigmatisation et à la discrimination. En 2011, l’OMS appelait les gouvernements à augmenter les services aux personnes souffrant de troubles mentaux, neurologiques et de l’abus de substance.Le projet « QualityRights » vise essentiellement à améliorer la qualité et les conditions des droits de l’homme dans les établissements de santé mentale et de services sociaux ainsi que l’autonomisation des organisations qui défendent les droits des personnes en situation de handicap mental et psychosocial.

En examinant1 plus de 25 ans de réclamation de paiements pour faute professionnelle aux États-Unis, les chercheurs du  Johns Hopkins ont découvert que se sont les erreurs de diagnostic – et non les erreurs chirurgicales ou les surdoses de médicaments — qui représenteraient la plus grande portion des réclamations d’assurances, la nuisance la plus sévère pour les patients, et le plus gros montant des pénalités réclamés. Les patients qui ont été erronément diagnostiqués (misdiagnosing patients) ou les erreurs de diagnostique (misdiagnosis) est l’une des erreurs les plus coûteuses et dangereuses effectués par des médecins aux États-Unis. Les erreurs entraînent l’échec à traiter adéquatement la condition pathologique ou psychopathologique du patient.

Les paiements liés au diagnostic se sont élevés à 38,8 milliards de dollars entre 1986 et 2010. C’est bien la preuve que les erreurs de diagnostic pourraient facilement être le plus gros problème de sécurité et de faute médicale pour les patients aux États-Unis. Il y a beaucoup plus de « mal » provenant des erreurs de diagnostic que nous pouvions imaginer.

Bien que la nouvelle étude a porté uniquement sur un sous-ensemble des revendications — ceux qui s’élevaient au niveau d’un paiement pour faute professionnelle —, les chercheurs estiment que le nombre de patients souffrant d’erreur de diagnostic, potentiellement évitable, causant des blessures significatives et permanentes, ou la mort, chaque année, aux États-Unis, varie entre 80 000 à 160 000. Ils ont constaté que sur les 350 706 paiements, les erreurs de diagnostic sont le principal type d’erreur (28,6 %) et ont représenté la plus grande proportion du total des paiements (35,2 %). Les erreurs de diagnostic ont entraîné la mort ou l’invalidité presque deux fois plus souvent que les autres catégories d’erreurs.

Dans l’ensemble, les erreurs de diagnostic ont été sous-estimées et sont souvent peu reconnues, car ils sont difficiles à mesurer et à en faire le suivi en raison de l’écart fréquent entre le moment où l’erreur se produit et quand il est détecté. Ce sont des problèmes fréquents qui ont joué comme les seconds violons à des erreurs médicales et chirurgicales, qui sont immédiatement plus évidentes.

Certains experts croient que l’on a souvent minimisé la portée des erreurs diagnostic2 non pas parce qu’ils n’étaient pas au conscient de cette problématique, mais parce qu’ils avaient peur d’ouvrir une boîte de Pandore qu’ils ne pouvaient pas fermer. Des progrès ont été réalisés au regard d’autres types de préjudice pour le patient, mais cela ne va probablement pas être une solution magique en ce qui concerne les erreurs de diagnostic, car ils sont plus complexes et diversifiés que d’autres problèmes de sécurité des patients. Nous allons avoir besoin de beaucoup plus de gens en concentrant leurs efforts sur cette question si nous allons réussir à y faire face.

Ils ont également constaté que la plupart des réclamations pour erreur de diagnostic étaient reliées aux patients externes de soins hospitaliers (68,8 pour cent contre 31,2 pour cent), et les erreurs de diagnostic des patients hospitalisés étaient plus susceptibles d’être mortelles (48,4 pour cent contre 36,9 pour cent). La majorité des erreurs de diagnostic ont été des diagnostics ratés (misdiagnosis), plutôt que des retards ou de mauvais diagnostics. Ceci suggère que l’impact sur la santé publique de ces types d’erreurs est probablement beaucoup plus grave qu’on ne le croyait auparavant parce que les estimations antérieures sont basées sur les données d’autopsie, de sorte qu’ils ne comptent que le décès et non pas le handicap. Le bilan humain de diagnostics erronés est probablement beaucoup plus grand que l’étude ne le montre. Une estimation suggère que lorsque les patients consultent un médecin pour un nouveau problème, le taux d’erreur de diagnostic moyen peut être aussi élevé que 15 pour cent.

Ainsi, aux États-Unis, c’est donc une preuve de plus que les erreurs diagnostic pourrait facilement être le plus gros problème de sécurité et de fautes médicales pour les patients. Il y a beaucoup plus de préjudices causés les erreurs diagnostic que nous pouvons l’imaginer. Les erreurs de diagnostic (misdiagnosis) s’avèrent plus fréquentes, coûteuses et nocives, que les erreurs de traitements. L’erreur de diagnostic peut être définie comme un diagnostic qui est raté, erroné ou retardé, tel que détecté par certains tests ou constatations définitives ultérieurs. S’ensuit un préjudice découlant des méfaits du retard ou de l’échec du traitement de(s) condition(s) présentent alors que le diagnostic de travail (working diagnosis) s’avère erroné ou inconnu, ou découlant du traitement prévu pour une condition qui n’est réellement pas présente.

— –

Ainsi, les personnes atteintes de maladie mentale sont parmi les groupes de patients les plus stigmatisés dans le cadre des soins de santé (Putnam, 2008), et seraient plus susceptibles d’entretenir une mauvaise santé physique. De plus, au moins 14 études ont montré que les patients ayant une maladie mentale grave reçoivent de moins bons soins médicaux que les gens dit « normaux ». Selon une étude, l’espérance de vie d’une personne souffrant d’une maladie mentale grave est réduite de 25 ans.

Tout d’abord, nous devons déterminer ce que l’on entend par le terme « stigmatisation ». Le stigma est un stéréotype négatif. Corrigan (2005 ; Corrigan et al., 2004; Corrigan & Watson, 2002) classifie en trois types : « la stigmatisation publique», « l’auto-stigmatisation » et “l’évitement de l’étiquette”.

La stigmatisation publique (public stigma) est conceptualisée comme un processus par étapes : la pensée stéréotypée résultant de l’ignorance. Le public en générale infère la maladie mentale à partir d’indices explicites : les symptômes psychiatriques, les déficits en habiletés sociales, l’apparence physique et les étiquettes diagnostiques communs (Corrigan, 2000; Penn & Martin, 1998). Ces indices stigmatisante entraine souvent des stéréotypes (Corrigan, 2007; Krueger, 1996; Lauber & Rossler, 2007). Les stéréotypes les plus Répandues sur les personnes atteintes de maladie mentale sont la violence (personnes atteintes de maladie mentale sont dangereux), l’incompétence (ils sont incapables de vivre de façon autonome ou de produite un réel travail), et le blâme (en raison de la faiblesse de caractère ou de leur prorpre turpitude, ils sont responsables de l’apparition et la continuation de leur troubles) (Corrigan et al., 2000; Link et al., 1999). ; l’attitude négative, qui conduit à porter un préjudice ; et le comportement négatif, qui conduit à la discrimination. La stigmatisation publique relève du phénomène de grands groupes sociaux adhèrent aux stéréotypes négatifs, à propos, et subséquement agir contre, un groupe stigmatisé: dans ce cas-ci, les personnes atteintes de maladie mentale.

Or, la connaissance d’une série de stéréotypes n’implique pas un accord avec celle-ci (Devine, 1989; Jussim et al., 1995). Par conséquent, les résultats de la stigmatisation publique sont plus dommageables que lorsque les personnes qui ont des préjugés approuvent les stéréotypes négatifs et élicite des réactions émotionnelles négatives en résultante (” J’ai peur d’eux ») (Corrigan et al., 2009; Devine, 1995). Contrairement aux stéréotypes, qui sont des croyances, les préjugés impliquent un élément d’évaluation (généralement négative) (Allport, 1954; Eagly & Chaiken, 1993). Le préjugé est une réponse cognitive et affective qui mène à la discrimination, une réaction comportementale (Crocker et al., 1998). Le comportement discriminatoire constitue une action négative contre l’exo-groupe, qui peut se manifester par de l’évitement, le refus de s’associer aux membres de l’exo-groupe, ou par la perte d’opportunités ou des traitements susceptibles de promouvoir les objectifs d’une personne. La stigmatisation publique cause du tort aux gens qui souffrent de maladie mentale, et ce, à plusieurs égards. Les stéréotype, les préjugés et la discrimination peuvent voler aux gens étiquetés malades mentaux des importantes opportunités de la vie qui sont essentiels à la réalisation de leurs objectifs de vie. Il appert que certains employeurs évitent les travailleurs souffrant de maladie mentale en ne les embauchant tout simplement pas. Les locateurs “protége” leurs locataires de personnes atteintes de maladie mentale en refusant de leur en louer.

L’auto-stigmatisation (self-stigma) se produit lorsque certains ou tous les membres d’un groupes stigmatisés (ex: patients souffrants de troubles de santé mentale) intériorisent les attitudes [négatives] à leur égard, ce qui conduit à la perte de l’estime de soi et l’auto-efficacité, aisi qu’à des croyances et des comportements auto-destructeurs, notamment l’isolement, l’évitement des traitements et la divulgation d’informations qui peuvent avoir non seulement de graves répercussions sur leur vie personnelle, mais aussi sur leur statut d’emploi et les opportunités future. Avant l’apparition de la maladie mentale, la plupart des gens sont déjà conscients du stigmate endosser culturellement associé à la maladie mentale. Après avoir reçu un diagnostic, les croyances associées au stigmate sont activés, ce qui affecte l’estime de soi et la construction identitaire. Vivre au sein d’une culture imprégnée d’images stigmatisantes, les personnes atteintes de maladie mentale peuvent accepter ces notions et ainsi subir une diminution de l’estime de soi (Corrigan et al., 1999; Rosenberg, 1965), de l’auto-efficacité (Bandura, 1989), et la confiance en leur avenir (Corrigan, 1998; Holmes & River, 1998). La recherche montre que les personnes atteintes de maladie mentale intériorisent souvent les idées stigmatisantes largement adhérés au sein de la société et croient qu’ils sont moins appréciés en raison de leur trouble psychiatrique (Link, 1987; Link & Phelan, 2001). L’auto-préjudice conduit à des réactions émotionnelles négatives, proéminament, une faible estime de soi et une faible auto-efficacité (Link et al., 2001; Markowitz, 1998). Une faible auto-efficacité et faible estime de soi se sont révélés être associés à un défaut de poursuite d’un emploi ou des opportunités de vie autonome auquel les personnes atteintes de maladie mentale pourraient autrement réussir (Link, 1982, 1987). L’impact négatif de L’auto-stigmatisation sur l’estime de soi et l’auto-efficacité peuvent entraîner un effet d’impuissance apprise chez les personnes atteintes de maladie mentale (Corrigan et al., 2009).

L’évitement des étiquettes (label avoidance) est un troisième exemple de stigmatisation : les gens ne recherchent pas, ou participent à, des services de santé mentale, afin d’éviter l’impact flagrant d’une étiquette stigmatisante.

Rappelons que la stigmatisation diffère de la discrimination. La discrimination est un traitement injuste en raison de l’identité d’une personne, ce qui inclut la race, l’ascendance, le lieu d’origine, la couleur, l’origine ethnique, la citoyenneté, la croyance, le sexe, l’orientation sexuelle, l’identité sexuelle, l’expression sexuelle, l’âge, l’état matrimonial, l’état familial ou un handicap, y compris les troubles mentaux. Les actes de discrimination peuvent être ouvertes ou prendre la forme d’une discrimination systémique (secrète, caché).

La stigmatisation envers les personnes atteintes de maladie mentale par les fournisseurs en soins de santé se traduit par des disparités en terme d’accès, de traitement et de résultat (Birch, Lavender, & Cupitt, 2005; De Hert et al., 2011; Phelan & Basow, 2007). Les personnes atteintes de maladie mentale ont une incidence plus élevée de maladies chroniques et une espérance de vie plus courte que la population générale, mais leurs problèmes de santé sont souvent ignorés, car il sont déconsidéré et décridibilisé.

En 2007, une étude4 menée par le Royal College of Psychiatrists au Royaume-Uni a conclu que “une fois que l’équipe médicale est au courant qu’un patient a un problème psychiatrique, ils leur donnent des soins de moins bonne qualité”. Le rapport poursuit en expliquant que « les médecins n’aiment pas traiter avec des patients souffrant de troubles psychiatriques. Ils les considèrent comme différents et ils passent moins de temps avec eux. Ils ne proposent pas à ces patients la même intensité d’enquête, a contrario de ceux qui n’ont pas de trouble psychiatrique. C’est un traitement préjudiciable et inequitable.

De nombreuses personnes atteintes de maladie mentale rapporte donc souvent devoir subir les attitudes négatives du personnel de la santé mentale face à leurs pronostics diagnostic, liés en partie au « biais du médecin » (‘physician bias’). Le ‘diagnostic overshadowing’ semble être un phénomène courante dans les services de soins de santés, ce qui implique une mauvaise attribution des signes et symptômes de maladie physique à des troubles mentaux concomitants, conduisant ainsi à sous-diagnostic et a de mauvais traitements des conditions physiques5.

Vous pensiez qu’à mesure que les personnes deviennent de plus en plus éduquer aux complexes facteurs biologiques, sociaux et psychologiques qui vont composer la maladie mentale, ces personnes développerait en conséquence plus de compréhension et moins stigmatisant. Tant les professionnels de soins de santé et de la santé mentale contribuent régulièrement à renforcer les préjugés et la discrimination qui existe pour chez les personnes atteintes de maladie mentale.

À l’ère des soins centrés sur le patient, certains soutiennent que les médecins devraient s’abstenir de conseiller les patients ou de recommander un plan de traitement et devraient plutôt simplement rester neutre et présenter toutes les options et laisser exclusivement aux patients la décision finale. Nous et les autres pensent que dans une forte relation médecin-patient, les médecins doivent utiliser leurs connaissances médicales et l’expérience pour faire des recommandations afin d’aider les patients à faire des choix plus éclairés concernant leur traitement. Les patients peuvent être les ultimes décideurs quant au choix du traitement à initier, mais ils ont également besoin d’une expertise et des conseils du médecin pour faire les meilleurs choix.

En examinant plus de 25 ans de réclamation de paiements pour faute professionnelle aux États-Unis, les chercheurs du Johns Hopkins ont découvert que se sont les erreurs de diagnostic – et non les erreurs chirurgicales ou les surdoses de médicaments — qui représentaient la plus grande portion des réclamations d’assurances, la nuisance la plus sévère pour les patients, et le plus gros montant des pénalités réclamés. Les paiements liés au diagnostic se sont élevées à 38,8 milliards de dollars entre 1986 et 2010. C’est bien la preuves que les erreurs de diagnostic pourrait facilement être le plus gros problème de sécurité et de faute médicale pour les patients aux États-Unis. Il y a beaucoup plus de « mal » provenant des erreurs de diagnostic que nous pouvions imaginer.

Bien que la nouvelle étude a porté uniquement sur un sous-ensemble des revendications — ceux qui s’élevaient au niveau d’un paiement pour faute professionnelle —, les chercheurs estiment que le nombre de patients souffrant d’erreur de diagnostic, potentiellement évitable, causant des blessures significatives et permanentes, ou la mort, chaque année, aux États-Unis, varie entre 80 000 à 160 000. Ils ont constaté que sur les 350 706 paiements, les erreurs de diagnostic sont le principal type d’erreur (28,6 %) et ont représenté la plus grande proportion du total des paiements (35,2 %). Les erreurs de diagnostic ont entraîné la mort ou l’invalidité presque deux fois plus souvent que les autres catégories d’erreurs.

Dans l’ensemble, les erreurs de diagnostic ont été sous-estimées et sont souvent peu reconnues, car ils sont difficiles à mesurer et à en faire le suivi en raison de l’écart fréquent entre le moment où l’erreur se produit et quand il est détecté. Ce sont des problèmes fréquents qui ont joué comme les seconds violons à des erreurs médicales et chirurgicales, qui sont immédiatement plus évidentes.

Certains experts croient que l’on a souvent minimisé la portée des erreurs diagnostic non pas parce qu’ils n’étaient pas au conscient de cette problématique, mais parce qu’ils avaient peur d’ouvrir une boîte de Pandore qu’ils ne pouvaient pas fermer. Des progrès ont été réalisés au regard d’autres types de préjudice pour le patient, mais cela ne va probablement pas être une solution magique en ce qui concerne les erreurs de diagnostic, car ils sont plus complexes et diversifiés que d’autres problèmes de sécurité des patients. Nous allons avoir besoin de beaucoup plus de gens en concentrant leurs efforts sur cette question si nous allons réussir à y faire face.

Ils ont également constaté que la plupart des réclamations pour erreur de diagnostic étaient reliées aux patients externes de soins hospitaliers (68,8 pour cent contre 31,2 pour cent), et les erreurs de diagnostic des patients hospitalisés étaient plus susceptibles d’être mortelles (48,4 pour cent contre 36,9 pour cent). La majorité des erreurs de diagnostic ont été des diagnostics ratés (misdiagnosis), plutôt que des retards ou de mauvais diagnostics. Ceci suggère que l’impact sur la santé publique de ces types d’erreurs est probablement beaucoup plus grave qu’on ne le croyait auparavant parce que les estimations antérieures sont basées sur les données d’autopsie, de sorte qu’ils ne comptent que le décès et non pas le handicap. Le bilan humain de diagnostics erronés est probablement beaucoup plus grand que l’étude ne le montre. Une estimation suggère que lorsque les patients consultent un médecin pour un nouveau problème, le taux d’erreur de diagnostic moyen peut être aussi élevé que 15 pour cent.

— –

Médecins de famille : élicitation altruiste de l’humilation et de la honte!

Avez-vous déjà quitté le bureau d’un médecin avec un sentiment de honte ou de culpabilité? Aux États-Unis, il y une chance sur deux qu’une personne ait répondu « oui », selon une cette nouvelle étude de l’Université de Californie, San Diego. Et qu’est-ce qui s’est passé ensuite? Peut-être cela vous à-t-il motivés à apporter des modifications à un comportement malsain. Ou, peut-être avez-vous tout simplement menti au médecin lors des visites ultérieures? Peut-être l’éviterais vous à l’avenir? Peut-être même mettrez-vous entièrement fin au traitement?

Le sentiment de honte et de culpabilité comme résidu direct de l’interaction avec un médecin s’avèrerait assez fréquente, selon Christine Harris, professeure de psychologie à l’UC de San Diego de la division des sciences sociales, comme le sont également les réactions positives et négatives. Mais, étonnamment peu de recherches ont été faites sur le sujet. Or, aujourd’hui, dans une paire de nouvelles études, Harris et ses collègues examinent les conséquences de ces sentiments que les médecins inspirent. Harris et son équipe explore également la raison pour laquelle certains patients sont stimulés par l’expérience du sentiment de honte ou de culpabilité d’une manière qui favorise la santé tandis que d’autres se tournent vers le mensonge ou l’évitement.

Mieux comprendre les réactions des patients est donc important parce que « plus d’un tiers de tous les décès aux États-Unis sont encore essentiellement évitables et en grande partie dus à un comportement malsain patient ».

Dans les deux études, le poids et le sexe sont les plus fréquemment cités comme élicitant la honte aux sujets. La dentition est une considération le plus citée chez les jeunes (les autres considérations possibles comprennent également, entre autres, le tabagisme, la consommation d’alcool ou de drogue, la non-conformité aux prescriptions de médicaments ou le non-respect aux ordres du médecin, la santé mentale, etc.).

Les interactions avec les médecins de famille, les gynécologues et les dentistes ont été les spécialités les plus souvent citées comme source de honte. C’est probablement parce que, selon Harris, les gens voient généralement ces types de médecins plus que d’autres.

Dans les deux études, les réactions émotionnelles et comportementales à l’expérience de l’humiliation variaient considérablement : entre effectuer un profond changement de mode de vie pour améliorer sa santé, ou inversement, à complètement éviter tous les médecins.

Ce qui importe le plus et ce qui semble faire la plus grande différence, selon Harris, c’est de savoir si le patient « fait une attribution globale, condamnant l’ensemble de soi » ou condamne simplement le comportement. Se concentrer sur le comportement amène et mène le plus souvent à de bons résultats. Les personnes qui signalent une réaction plus positive se concentrent généralement sur l’acte (l’action) et non pas sur le soi (l’être). La capacité à changer médie la réponse. Ceux qui se disent : « Je suis un fumeur » ou « Je suis une personne obèse » peuvent se résigner, alors que pour ceux qui se disent « je fume » ou « je mange trop » semble également penser « je puis arrêter de faire ça ».

Un aspect important de l’expérience négative est celui de la perception du patient de l’intention du médecin. Si vous percevez votre médecin comme voulant intentionnellement vous faire ressentir de la honte ou de la culpabilité, la réaction est exclusivement négative; les chercheurs n’ont d’ailleurs trouvé aucune réaction positive.

Les chercheurs ont aussi constaté certaines différences sexuelles : les femmes ont déclaré avoir subi plus de honte et de culpabilité pendant leurs visites chez les médecins que les hommes. Elles ont également signalé plus des réactions négatives. Mais, curieusement, cela ne semble reposer sur le fait que les femmes font des attributions globales. Elles ne se remettent donc pas nécessairement plus en cause que les hommes. Il se pourrait que les médecins traitent les hommes et les femmes différemment. Ou peut-être que les femmes perçoivent le « signal » plus fortement ou ont des perceptions différentes de l’interaction avec leurs médecins.

En attendant, les médecins devront continuer à se soumettre à la tâche peu enviable de discuter de sujets délicats avec leurs patients et de faire des recommandations sur leurs comportements malsains, et ce qui est clair c’est que : « l’amour féroce (tough love) » et l’humiliation ne fonctionnent pas toujours. En fait, ils s’avèrent souvent contre-productifs.

Pour améliorer les résultats et aboutissements, les médecins doivent essayer de garder la conversation centrée sur le comportement (et non pas la personne) et également éviter, autant que possible, d’être perçus comme une personne tentant intentionnellement d’infliger de la honte ou de la culpabilité pour arriver à ses fins. Cela relève de la manipulation. La maltraitance et de la violence psychologique pour le bien d’autrui sont bien expliquées dans l’ouvrage d’Alice Miller, « C’est pour ton bien »1, et dénotent ses effets néfastes, délétères, et destructeurs.

— —

Parmi les 750 sujets d’une étude [2] sur les patients difficiles, 133 (17,8 %) ont été perçues comme difficiles par le docteur. Les patients « difficiles » étaient moins susceptibles de totalement faire confiance, ou d’être entièrement satisfaits, de leur médecin, et ils étaient plus susceptibles d’avoir une aggravation des symptômes dans un délai de 2 semaines suivant la rencontre. Les patients participant à des « rencontres difficiles » avaient plus de cinq symptômes, ont approuvé un stress récent et qu’ils entretenaient un trouble dépressif ou anxieux. Les médecins impliqués dans les rencontres difficiles étaient moins expérimentés et avaient des scores d’orientation psychosociale faible. Ainsi, des caractéristiques à la fois des patients et des médecins sont associées à des rencontres « difficiles », et les patients qui participent à ces rencontres ont de moins bons résultats à court terme.

À ce jour, la majorité des études portant sur les patients dits « difficiles » a uniquement mis l’accent sur les caractéristiques des patients. Le travail de Hinchey et Jackson s’appuie sur la recherche existante afin d’obtenir un portrait plus complet et plus global, en tenant compte des facteurs associés au fait de considéré le patient comme « difficile », autant lié aux patients et qu’aux cliniciens , ainsi que de l’impact de cette évaluation sur les résultats et aboutissement de santé des patients.

Un total donc de 750 adultes qui ont fréquenté une clinique de soins primaires sans rendez-vous (primary care walk-in clinic). Avant la consultation, les chercheurs ont évalué les symptômes, les attentes, leurs santés générales, les manières dont ils fonctionnaient physiquement, socialement et émotionnellement ainsi que si ces adultes avaient des troubles mentaux. Immédiatement après leur visite, les participants ont été interrogés sur leur satisfaction par rapport à la rencontre, et des attentes non satisfaites ainsi que leur niveau de confiance dans leur médecin. Deux semaines plus tard, les symptômes ont été contrôlés à nouveau. En outre, les cliniciens ont été invités à évaluer la difficulté de la rencontre après chaque visite.

Les auteurs ont constaté que près de 18 pour cent des patients ont été perçus comme « difficiles ». Les caractéristiques, à la fois des patients et des médecins, ont contribué à des rencontres « difficiles ». En particulier, les patients dits « difficiles » souffraient de plus symptômes, souffrait d’un état fonctionnel déficitaire, utilisent plus fréquemment les cliniques et étaient plus susceptibles d’avoir un trouble psychiatrique sous-jacent que les patients dit « non difficiles ». Les cliniciens ayant un style de communication plus ouvert et ceux qui ont plus d’expérience ont déclaré avoir moins de rencontres difficiles.

En conséquence, les patients issus de rencontres difficiles étaient moins satisfaits, ont eu moins confiance en leur médecin et un plus grand nombre d’attentes non satisfaites. Deux semaines plus tard, ils étaient aussi plus susceptibles de connaître une aggravation de leurs symptômes.

____________________

1 Miller, A. (1984). « C’est pour ton bien: Racines de la violence dans l’éducation de l’enfant, Paris: Aubier.

Du réductionnisme et du végétarisme

Voilà, selon moi, un exemple d’une pensée réductionniste, qui rattache un phénomène complexe à un petit nombre d’explications, et qui essentiellement se fonde sur la pensée scientifique, ainsi que celles de l’altruiste et de la compassion, et sur des biais comme l’anthropomorphisme, pour la justification du végétarisme. Essentiellement et actuellement, le végétarisme serait défini comme un acte d’altruisme et de compassion envers certains êtres vivants qui seraient sensibles et aurait des sentiments et émotions.

Je commencerais par souligner que pour la même fonction de l’orientation spatiale, les hommes par rapport aux femmes utilisent différents processus et substrats neurologiques. Même fonction, différents moyens d’accomplir la même fonction. Ainsi, même si tous les mammifères seraient tous capables de vivre les sentiments et émotions, comme les humains, avec la même sensibilité, ne restent qu’il se mange en eux quand même. L’acte du végétarisme, ne peut se fonder, sur l’empathie, car nul ne peut se mettre à la place d’un membre d’une autre espèce animale, alors même que les humains n’arrivent pas à systématiquement à être empathique entre eux.

Comme je l’ai démontré précédemment, et de manière détaillée (http://on.fb.me/19QcNWW), c’est un manque de respect à la Vie et la Nature, un manque de respect de l’ordre des choses. Encore, le problème n’est pas de manger de la viande, c’est de manger trop de viande, c’est également la marchandisation et l’industrialisation, la (sur)consommation, la (sur)population, la (sur)production industrielle, du gaspillage et des déchets, etc. Aussi, même l’industrie de l’agriculture commerciale et industrielle constitue actuellement une menace pour la Vie, la Nature et la biodiversité. Cesser de manger de la viande n’est pas suffisant pour s’affranchir de la tâche qui nous incombe, celle de vivre en harmonie avec notre environnement.

Ainsi, pour moi, je place une haute valeur morale et éthique à la Vie et la Nature, et donc à TOUTE la biodiversité, et toute Vie mérite d’exister et a droit au respect. La sensibilité commande donc que toute chose qui désire exister, telle qu’elle est, doit être respecté dans son intégrité. Ainsi, pour moi, manger une plante a le même poids moral, éthique, émotionnel, que de manger un mammifère, ou des insectes. Et si une bestiole désire de faire de moi son repas, je ne me demanderai pas s’il le prédateur est sensible, s’il a des émotions, ou si je peux raisonner avec lui, comme lui faire la morale. Lorsqu’un prédateur prend une heure ou deux pour tuer sa proie qui se défend, je ne suis pas sûr d’y constater du dialogue moral ou éthique entre êtres sensibles. Justifier le végétarisme par le fait que l’on se mette à la place d’un autre être vivant d’une autre espèce relève de la science-fiction. Nous verrons plus tard que c’est plus la manière de manger, que qu’est-ce qu’on mange qui est le problème.

Conséquemment, le végétarisme est un choix philosophique, et on mange de la végétation, non pas par compassion, altruisme, ou sensibilité, mais par choix éthique. Il relève donc de la culture humaine, et de décisions plus ou moins arbitraires ou concerté, et se considère qu’en fonction de la condition humaine. Faire usage de notions épistémologiques, ou usage de caractéristiques, de la condition humaine, et de les projeter à d’autres formes d’existences, me semble une pratique largement hasardeuse et spécieuse; c’est rendre objet, c’est dénaturer, c’est pervertir. « Humaniser » la Vie et la Nature est une autre forme de domination, ce n’est pas la respecter, ce n’est pas lui rendre service; c’est de l’anthropomorphisme ou de l’anthropocentrisme, c’est une forme de réductionnisme qui relève du biais.

Lorsque le lion décide de manger un humain, se pose-t-il la question, ma proie est-elle sensible, altruiste, souffre-t-elle? Avoir de la compassion ou de l’altruisme pour son futur repas n’a pas de sens dans la Nature. On fait un choix alimentaire, point. D’autre part, si l’on accepte le fait que par exemple, tous les mammifères sont sensibles, alors pourquoi ne deviennent-ils tous pas végétariens.

Faire usage de notions typiquement humaines de compassion ou de l’altruisme pour justifier le végétarisme, c’est comme se placer derrière un télescope alors qu’un microscope est nécessaire. C’est comme faire usage d’oeillères pour regarder sur 180 degrés. C’est une distorsion de la pensée humaine qui se représente des états mentaux, qui certes peut être semblable, mais ne signifie pas nécessairement la même chose. Voir un Tibre dépressif parce qu’il a perdu sa mère ne signifie pas qu’il ressent les choses comme les humains, et si c’était le cas, alors ne se poserait-il pas des questions sur la moralité et l’éthique. Si la nature a permis aux humains de se nourrir de viande, alors il en est ainsi. C’est l’incurie humaine et le fait de manger trop de viande qui sont le vrai problème et le mode de vie qui dégrade la biodiversité.

D’ailleurs, je dirais que la compassion totale, comme celle devant un lion qui a décidé de faire de vous son repas, n’est pas vraiment pratique. C’est bien là une preuve que la compassion (et l’altruisme) ne s’exerce pas dans un état de nature, et que c’est surtout un attribut, une caractéristique, humaine. Au même titre, que dire de la compassion totale devant le tueur en série, le pédophile! Êtes-vous capable de vous mettre à la place d’un violeur récidiviste? Or, vivre toute la compassion de l’univers ne m’empêcherait pas de limiter sévèrement, à tout le moins, ses déplacements. Il est certain que lorsque l’on descend de temps en temps de son « Village des Pruniers », du haut de la montagne, pour venir enseigner aux mondains qui cherche le bonheur, c’est bien facile. La compassion, pis l’altruisme, c’est merveilleux, surtout lorsque l’on vit sous une pluie de bombe chimique et que l’on explose sur des mines. Je vais même allez aider le gars qui s’est cassé une jambe alors qu’il me mitraillait; vous voyez, j’ai de la compassion, de l’altruisme, je suis ZEN en plus! (permettes-moi cette digression sarcastique)

En tout et pour tout, on ne voit pas M. Ricard se filmer au Moyen-Orient, en Syrie, au Liban, ou dans la zone occupée, prêcher l’altruisme et les bienfaits de la compassion. Je suis sûr que c’est comme recevoir un témoin de Jéhovah qui se présente le dimanche matin pour s’amender devant son dieu et prêcher ses convictions et croyances.

L’altruisme, et la compassion n’ont de sens que dans le contexte humain et peuvent s’exercer difficilement dans un état de nature.

Ainsi, pour moi, toute vie mérite respect, et manger une plante, un mammifère, un fongus, une algue, un fish ou oiseau, c’est le même acte, qui a la même valeur éthique et morale, il doit s’inscrire dans le respect de la Vie et la Nature, et le respect de l’ordre des choses.

— —

L’imagination n’est pas une source de duperie et d’illusion, mais une capacité à « sentir » ce que vous ne savez pas, à intuitionner ce que vous ne pouvez pas comprendre, à être davantage de ce que vous pouvez connaître — William Irwin Thompson

voilà quelques décennies, les animaux étaient largement considérés comme des machines stimulus-réponse, dépourvues de vie intérieure. Heureusement, les temps ont changé. La cognition animale est maintenant à la mode, et suivie de près de l’étude de la neurobiologie comparative.

Au mois de juillet, un consortium de neuroscientifiques bien connus a publié « La Déclaration de Cambridge sur la conscience non humains chez les animaux » (The Cambridge Declaration on Consciousness in Non-Human Animals), à titre de reconnaissance publique formelle que vous êtes susceptible de trouver au nom de la science, oui, qu’il semble que les animaux possèdent en effet une conscience, ou du moins ils possèdent les substrats neurobiologiques nécessaires pour « générer » la conscience. Même si cela semble relever du bon sens commun, la déclaration est importante, car elle ouvre la voie à des études plus approfondies, et, on l’espère, un plus grand respect pour les impressionnantes capacités mentales et cognitives du monde non-humain.

Mais à d’autres égards, quand il s’agit de notre relation aux animaux, nous continuons à être freinées par un tabou intellectuel encore plus profond, et c’est le tabou d’imaginer que nous pouvons nous rapporter aux animaux en premier lieu. Nous ne pouvons tout simplement ne jamais « savoir » (qui relève de la connaissance) ce que c’est que d’être un autre animal (expérience). Faire l’expérience de l’existence d’un autre être vivant est tout simple inaccessible à l’être humain, et à ce titre, l’expérience intérieure est largement subjective et irréductible.

Cependant, on peut admettre que les humains partages des « éléments » avec tous les êtres vivants, puisque d’une part, nous sommes tous descendus d’un ancêtre commun, il y a donc toujours une mesure de l’expérience partagée conservée dans le corps et l’esprit au cours des générations, et d’autre part, l’être unicellulaire au mammifère en passant par toutes les formes de vie, notre capacité à se rapporter à l’expérience d’un autre animal d’une autre espèce se déplace en proportion de l’espèce en question. Donc l’essence que nous partageons avec une bactérie est beaucoup plus étroite que celle que nous pouvons partager avec une baleine, qui à son tour est peut-être plus étroite que celle que nous partageons avec le chimpanzé. En un sens, nous ne pouvons jamais connaître toute l’expérience d’une autre personne — d’autant plus si elles sont élevées des cultures différentes —, mais il y a des points de profond chevauchement qui surtout peut être étendu. L’imagination nous permet-elle de pressentir l’existence d’un autre être vivant d’une autre espèce?

Le sentiment pour un organisme, voilà comment la célèbre généticienne Barbara McClintock a décrit ses propres intuitions sur la vie. L’empathie comme une capacité ne doit se limiter au niveau du genre humain.

Notons donc que selon Gregory Berns (http://bit.ly/1d1uQzo), professeur en neuro-économie à l’Emory University (située à Atlanta), et auteur d’un livre sur le « décodage » du cerveau canin, les chiens seraient de vraies personnes, qui pensent et qui éprouvent des sentiments. Ses conclusions: les chiens pensent… en tout cas, comme peut le faire un enfant. Et cela permettra peut-être de revoir la manière dont nous traitons les chiens, mais aussi beaucoup d’autres animaux. L’existence des usines à chiots, des courses de chiens ou les chiens de laboratoires pourraient être sérieusement remis en question sur des bases empiriques.

Ainsi, le cerveau des chiens, à bien des égards, ressemble et fonctionne comme le cerveau des humains. Nous partageons bon nombre des mêmes structures de base (appelée « homologie »), y compris une région du cerveau qui est associée à des émotions positives. Dans l’ensemble, les chiens et les humains montrent des similitudes frappantes dans l’activité d’une région du cerveau importante appelée le noyau caudé. Les chiens, au regard des analyses au scanner, montrent des signes suggérant qu’ils peuvent éprouver des émotions positives telles que l’amour et l’attachement… et pourraient avoir un niveau de conscience semblable à un enfant. Ainsi, en réponse aux signaux de la main indiquant la nourriture, les odeurs ainsi que des humains familiers, l’activité du caudate nucleus des chiens ont augmenté.

Pour lui, la capacité à ressentir des émotions, comme de l’amour ou de l’attachement, signifierait que les chiens ont un niveau de sensibilité comparable à celui d’un enfant humain. Et cette capacité nous oblige à repenser la façon dont nous traitons les chiens. Et dans les tests préliminaires, cette région du cerveau s’active au retour du « propriétaire » qui était momentanément sorti de vue. Les neuroscientifiques appellent cela une homologie fonctionnelle, et cela pourrait être une indication de la présence d’émotions canines.

La déclaration conclut que « les animaux non-humains ont les substrats neuroanatomiques, neurochimiques et neurophysiologiques pour l’état de conscience avec la capacité de manifester des comportements intentionnels. Par conséquent, le poids de la preuve indique que les êtres humains ne sont pas uniques à posséder les substrats neurologiques qui produisent la conscience . Les animaux non-humains, y compris tous les mammifères et les oiseaux, et de nombreuses autres créatures, y compris les pieuvres, possèdent également ces substrats neurologiques.

____________________

SOURCES

RÉFÉRENCES

Berns GS, Brooks AM, Spivak M (2012) Functional MRI in Awake Unrestrained Dogs. PLoS ONE 7(5): e38027. doi:10.1371/journal.pone.0038027

Bekoff, Marc (2012). “Animals are conscious and should be treated as such”, 26 September 2012, New Scientist, issue 2883, http://bit.ly/1iW6CdI.

Bekoff, M. (n.d.). After 2,500 Studies, It’s Time to Declare Animal Sentience Proven (Op-Ed). LiveScience.com. Retrieved January 9, 2014, from http://www.livescience.com/39481-time-to-declare-animal-sentience.html

Du nourissement de la population mondiale

Le désastre de l’industrie de l’agriculture : destruction de la biodiversité !

Comme suite aux commentaires insistants et moraliste d’un groupe végétariste (on parle presque endoctrinement), voici donc une synthèse de mon argumentaire, et qui s’oppose et détruit (faire disparaître – ce qui est établi, organisé, élaboré ; faire disparaître – une chose – en la décomposant comme du composte de façon à ce qu’elle ne puisse plus être reconstituée) cet argumentaire moralistique du végétarisme :

Biodiversity and Agriculture | The Center for Health and the Global Environment
http://chge.med.harvard.edu/topic/biodiversity-and-agriculture

1 – What is Biodiversity
http://bit.ly/19cDqcl

2 – What is Agricultural biodiversity
http://en.wikipedia.org/wiki/Agricultural_biodiversity

3 – Assessing the impacts of agricultural intensification on biodiversity
http://bit.ly/15XytA4

4 – L’agriculture, première cause de déclin de la biodiversité
http://bit.ly/16vEVBZ

5 – How Industrial Agriculture Differs from a Natural Ecology
http://bit.ly/19fANGR

6 – The impact of industrial agriculture in rainforests
http://bit.ly/QCGYcx

7 – Synthesis :: Agricultural biodiversity & sustainable agriculture
http://bit.ly/1bW4ixQ

8 – Les fruits et légumes ainsi que les racines et tubercules ont le taux de gaspillage le plus élevé de la planète ! – http://bit.ly/irLkzq

9- Subsistence farming (self-sufficiency farming in which the farmers focus on growing enough food to feed themselves and their families) is responsible for 48% of deforestation; commercial agriculture (large-scale production of crops for sale, and includes livestock production and livestock grazing) is responsible for 32% of deforestation; logging is responsible for 14% of deforestation and fuel wood removals make up 5% of deforestation – http://bit.ly/17oJF9b

La biodiversité est essentielle au développement de la vie et de la nature. Les pratiques actuelles de l’industrie de l’agriculture détruit la biodiversité, fait souffrir et tue une multitude d’êtres vivants de milliers d’espèces. Il est actuellement impossible pour tous les herbivores de se nourrir uniquement de végétation provenant de l’industrie de l’agriculture sans effectué NÉGATIVEMENT la biodiversité de la planète. On ne peut pas prétendre sauvé les animaux alors qu’indirectement on les tuent. Un changement paradigmatique est nécessaire afin d’introduire une réel agriculture qui respecte la biodiversité. Il existe trop peu de ferme qui respecte la biodiversité pour nourrir tout les végétariens, et encore moins, une populations de millions de personnes, voire même la population mondiale.

Ainsi, placer une haute valeur morale sur le respect de la vie et de la nature (et donc de la biodiversité, et du “bétail”) relève d’une approche globale, et non pas réductrice comme celle de l’acte morale de sauver les animaux “sentient” en étant herbivore (“bétail”). C’est ça le respect de la Vie et de la Nature (et donc de la biodiversité). On devient végétarien parce que c’est bon pour la santé, et non pas pour sauver les animaux (que le “bétail” exclusivement), car les méfaits de l’industrie de l’agriculture ont un effet destructeur sur toute la biodiversité de toute la Planète.

De plus, de l’échafaudage moralistique, le groupe est irrespectueux de la Vie et de la Nature (et donc de la biodiversité) puisque votre approche n’est pas holistique et globale et vous ne respectez pas l’ordre des choses, à savoir, de ne pas porté un jugement morale sur la beauté (jugement de valeur) infini de la Nature et de la Vie ;

La biodiversité est essentielle au développement de la vie et de la nature. Les pratiques actuelles de l’industrie de l’agriculture détruit la biodiversité d’une multitude de manières, et donc fait souffrir une multitude d’êtres vivants. Devenir herbivore ne s’adresse au problème que partiellement. Il faut changer notre mode de vie et adopter une agriculture respectueuse de la Vie et de la Nature. Il y a si peu de ferme respectant la biodiversité, que l’on ne peut pas, selon moi, prétendre qu’être herbivore garanti la pérennité de la biodiversité de la Terre, voire même des mammifères, voire même du “bétail”.

Il faut toutefois reconnaitre qu’actuellement devenir herbivore, peut réduire la demande en bétail, et dont réduire la souffrance et la tragédie des être vivants de l’industrie agro-alimentaire. Cependant, l’acte morale du végétarisme est largement “mitiguer” par la destruction de la biodiversité et des écosystèmes par les industries de l’agriculture, et ce, même s’il y a un détournement de la destinée de la production du “bétail” vers les humains (nombre croissant de personnes adhérant au végétarisme). C’est pourquoi l’Organisation des Nation Unies pour l’alimentation et l’agriculture fait la promotion de l’entomophagie, terme désignant la consommation d’insectes par les êtres humains, comme élément de sécurité alimentaire et les quelque 1400 espèces comestibles seraient la garantie de repas variés et serait une incroyable source de protéines

L’augmentation de la population mondiale et le souci de préservation de la planète nous forceraient en effet à changer nos habitudes alimentaires et notamment à remplacer la viande, qui deviendrait un produit de luxe. Les études montrent que les insectes, en plus de représenter une valeur nutritionnelle et un apport en protéines équivalent à celui de la viande, seraient beaucoup moins onéreux à produire et pollueraient que les animaux d’élevages (“bétail”) [http://bit.ly/Nl7i80].

De la civilisation et du végétarisme

L’Année internationale de l’agriculture familiale 2014 (AIAF)

Le végétarisme, voir même le véganisme, n’est possible que par le niveau actuel de développement de la civilisation, et donc de l’économie. Ainsi, la disponibilité des fruits et légumes sont largement tributaire des systèmes de transports à l’échelle planétaire s’inscrivant dans une économie de marché assez bien structuré. Or, sans ces moyens de transport, d’ailleurs largement polluant, il y aurait donc une moins grande variété et disponibilité des fruits et légumes, ce qui aurait pour effet de commander un approvisionnement dit “locale” ou “régionale”, et donc, le développement de l’agriculture.

Notons que l’autonomie alimentaire préconisé par le PQ me semble s’inscrire dans cette réalité de développement de l’agriculture par la mise en marchés de produits de fruits et légumes typiquement québécois.

Ainsi considérons que sans ce niveau de développement actuel de la civilisation, et dans un état de nature, il n’est pas toujours possible pour l’être humain d’avoir le choix de son “panier d’alimentation” ; tous sur la planète ne bénéficie par d’un supermarché ayant un vaste choix d’aliments. Beaucoup doivent donc s’astreindre à ce qui est disponible dans l’environnement immédiat, ce qui n’offre souvent que peut de variété et de possibilité. On se rappellera des difficultés des chasseur-ceuilleurs.

Ainsi, la question essentiellement, est celle de savoir par quel condition une civilisation peut-elle devenir principalement végétarienne. On doit donc déterminer les modalités nécessaires pour parvenir à un tel état de fait. On doit se demander s’il est possible pour un groupe humain, quelque soit l’endroit qu’il occupe sur la planète, de se nourrir exclusivement de fruits et légumes, et d’obtenir une alimentation saine et varié.

Or, l’avènement de l’agriculture, et donc de stocks alimentaires, s’avère un point déterminant ou l’on quitte l’état de nature, sans toutefois garantir une diversité de l’alimentation (agriculture de subsistance). Ce n’est que par les échanges commerciaux entre régions, civilisations, empires, et l’agriculture de production, qu’il y a diversité alimentaire ; par exemple, on ne peut faire pousser des bananes au Québec. La transition d’une économie vivrière (c’est-à-dire fondée sur la chasse, la pêche et la cueillette), à une économie agricole et d’élevage, où l’Homme intervient dans les cycles naturels de la biomasse (par exemple la reproduction et la sélection des espèces), est communément appelé la révolution néolithique. Aujourd’hui, l’organisation des marchés, la démographie, les techniques, le savoir-faire et l’application de hautes technologies sont à la disposition de l’agriculteur pour obtenir des niveaux de production jamais atteints dans l’histoire de l’Homme. Un des défis majeurs de l’agriculture moderne est aujourd’hui de concilier performance, protection de l’environnement et pérennité. On comprendra qu’il y a eu plusieurs révolutions successives de l’agriculture.

La question est celle de savoir comment pourra-t-on établir une civilisation planétaire ayant une agriculture qui pourrais nourrir 6 milliards d’individus et offrir une alimentation diversifié [et disponible à tous] ?

L’agriculture familiale englobe toutes les activités agricoles reposant sur la famille, en connexion avec de nombreux aspects du développement rural. L’agriculture familiale permet d’organiser la production agricole, forestière, halieutique, pastorale ou aquacole qui, sous la gestion d’une famille, repose essentiellement sur de la main-d’œuvre familiale, aussi bien les hommes que les femmes.

Dans les pays développés comme dans les pays en développement, l’agriculture familiale est la principale forme d’agriculture dans le secteur de la production alimentaire.

Au niveau national, plusieurs facteurs clés peuvent contribuer avec succès à son développement, entre autres: les conditions agro-écologiques et les caractéristiques territoriales; les politiques environnementales; l’accès au marché; l’accès à la terre et aux ressources naturelles; l’accès à la technologie, aux services de vulgarisation agricole et au crédit; les conditions démographiques, économiques et socio-culturelles; la disponibilité d’un enseignement spécialisé.

L’agriculture familiale joue un rôle important au niveau socio-économique, environnemental et culturel.

L’agriculture familiale et la petite agriculture sont liées de façon indissociable à la sécurité alimentaire mondiale.

L’agriculture familiale préserve les produits alimentaires traditionnels, tout en contribuant à une alimentation saine et équilibrée, à la conservation de la biodiversité agricole mondiale et à l’utilisation durable des ressources naturelles.

L’agriculture familiale peut être un moyen de stimuler les économies locales, surtout si elle est combinée avec des politiques spécifiques axées sur la protection sociale et le bien-être des communautés.

____________________

Des psychologues ont trouvé qu’une mauvaise nuit de sommeil aggrave les conflits relationnels

Un « bon sommeil » se définit par l’absence de somnolence pendant la période d’éveil. Qu’il soit de mauvaise qualité ou en quantité insuffisante, cela entraîne des effets à court et à long terme (dette chronique de sommeil). Les conséquences d’un manque de sommeil ou d’un sommeil de mauvaise qualité peuvent être sérieuses. Un sommeil déficient entraînerais des risques accrus, d’hypertension artérielle, d’accidents vasculaires cérébraux, de maladies du coeur, de diabète, d’obésité et de dépression. Aussi, le manque de sommeil serait la cause cachée de la majorité des « erreurs humaines » qui provoquent des accidents, selon des chercheurs de l’Université McGill. Chez les enfants, la privation de sommeil est associée à l’impulsivité, l’hyperactivité et l’inattention.

On sait d’ailleurs déjà que les problèmes relationnels peuvent nous tenir éveillés toute la nuit. Cependant, une nouvelle recherche de l’University of California à Berkeley (UC Berkeley) suggère que les nuits blanches peuvent également aggraver les conflits et la relation entre amoureux.

Les psychologues Amie Gordon et Serena Chen de UC Berkeley ont constaté que les gens sont beaucoup plus susceptibles de s’en prendre à leurs partenaires romantiques lors de tensions relationnelles, et ce, après une mauvaise nuit de sommeil.

« Les couples plus conflictuels sont moins heureux et en moins bonne santé », a déclaré Mme. Gordon, une étudiante au doctorat en psychologie et principal auteur de l’étude publiée en ligne dans la revue Social Psychological and Personality Science. « Notre recherche permet d’éclairer un facteur qui pousse les couples à s’engager dans des conflits inutiles et nuisibles en montrant que les couples font l’expérience de conflits plus fréquents et plus graves après des nuits blanches », a-t-elle ajouté.

Alors que de précédentes études indiquent qu’un sommeil pauvre aurait un impact négatif sur les relations amoureuses, ces nouveaux résultats jettent plus de lumière sur la manière dont le mauvais sommeil compromet l’habileté des couples à éviter et à gérer leur(s) conflit(s), selon les chercheurs.

« Pour la première fois, à notre connaissance, nous pouvons percevoir le processus de la manière dont la nature, le degré et la résolution des conflits sont négativement influencés par un mauvais sommeil », a déclaré Chen, professeur de psychologie à l’UC Berkeley.

Les chercheurs ont recueilli des données sur les habitudes de sommeil de plus de 100 couples qui avaient été ensemble, en moyenne, près de deux ans. Ils ont évalué les participants pour la dépression, l’anxiété et d’autres facteurs de stress afin de se concentrer uniquement sur le lien entre la qualité du sommeil des couples et les conflits relationnels.

Dans une expérience, 78 jeunes adultes en relations amoureuses ont fourni des rapports quotidiens sur une période de deux semaines sur la qualité de leur sommeil et leur stress relationnels. Dans l’ensemble, les participants ont rapporté plus de discorde avec leurs partenaires lors des jours qui suivent une nuit de mauvais sommeil.

« Même parmi les relativement bons dormeurs, une mauvaise nuit de sommeil était associée à davantage de conflits avec leur partenaire amoureux, le lendemain » a dit Chen.

Dans une deuxième expérience, 71 couples se sont présentés au laboratoire, et ont évalué la manière dont ils avaient dormi la nuit précédente, puis, tout en étant filmés, ont discuté avec leurs partenaires une source de conflit dans leur relation. Pour chaque couple, chaque partenaire a ensuite évalué ses propres réactions émotionnelles ainsi que celui de son ou sa partenaire au cours de la conversation conflictuelle, et enfin évaluer s’ils ont résolu le désaccord.

Les participants qui avaient mal dormi, et leurs partenaires, ont déclaré se sentir plus « négatif » envers l’autre tendre moitié, et ce, au cours de la discussion lors des conflits, selon les observations et de leurs rapports. Leurs compétences de résolution de conflits et la capacité d’évaluer avec précision les émotions de leurs partenaires ont également souffert après une mauvaise nuit de sommeil.

— –

SOURCE

Anwar, Yasmin (2013). “Sleepless nights can turn lovers into fighters”, Media Relations, July 8 2013, [http://bit.ly/157Y1KF].

Gordon, A. M., & Chen, S. (2013). “The Role of Sleep in Interpersonal Conflict Do Sleepless Nights Mean Worse Fights?”. Social Psychological and Personality Science.