Comment l’hypertension est devenue une maladie ?
Il est des textes rĂ©jouissants d’intelligence, de clartĂ© et d’Ă©rudition, l’article ci-dessous (paru dans Pratiques-les cahiers de la mĂ©decine utopique) nous fait voyager entre EBM, histoire de la mĂ©decine et Ă©conomie…
Ă€ lire d’urgence pour Ă©clairer et mettre en perspective la rĂ©forme en cours de notre système de santĂ©.
Comment l’hypertension est devenue une maladie ?
par Jean-Paul Gaudillière - Pratiques N°37/38 de Juin/Juillet/Août 2007
La transformation de la notion de « risque » en catégorie centrale de l’enquête épidémiologique, de la prescription ou de l’éducation à la santé est un phénomène récent.
Si les enquêtes de l’après-guerre ont été stimulées par une distribution sociale très inégale de l’infarctus, elles ont débouché non pas sur une approche socialement différenciée, mais sur une individualisation du risque.
« Si donc le normal n’a pas la rigidité d’un fait de contrainte collective, mais la souplesse d’une norme qui se transforme dans sa relation à des conditions particulières, il est clair que la frontière entre le normal et le pathologique devient imprécise. » écrivait Georges Canguilhem en 1943 dans la première édition de son célèbre Le normal et le pathologique. Vingt ans plus tard, la nouvelle version du livre incluait une seconde partie dans le premier chapitre consacré aux rapports entre norme vitale et norme sociale, dans laquelle il liait l’imprécision de cette frontière à une activité de normalisation riche d’affinités avec la normalisation technique et industrielle : « Une norme, une règle, c’est ce qui sert à faire droit, à dresser, à redresser. Normer, normaliser, c’est imposer une exigence à une existence, à un donné, dont la variété, le disparate s’offrent au regard de l’exigence, comme un indéterminé hostile plus encore qu’étranger ».
S’il pouvait écrire une troisième version de son livre, Canguilhem ne manquerait pas d’être fasciné par nos discussions présentes sur l’Evidence-Based Medicine et l’élaboration des règles et recommandations de bonnes pratiques. La « médecine des preuves » est associée à l’idée qu’il faut en finir avec une médecine reposant sur l’autorité et la discussion des cas individuels pour ne mettre en œuvre que des procédures à l’efficacité prouvée par le biais des essais cliniques statistiques. Mais ce qu’on peut considérer comme un véritable mouvement ne se ramène pas à une défense de l’essai randomisé comme étalon standard du jugement médical. Il porte tout autant sur l’élaboration de règles, de recommandations de bonnes pratiques, de protocoles et d’algorithmes de prise de décision qui sont censés réduire la variabilité et la subjectivité des pratiques. Le phénomène est massif. Pour les seuls Etats-Unis, plus de deux mille guidelines sont élaborées ou modifiées chaque année. Il émane d’institutions diverses en particulier les organisations de gestion de l’offre de santé (HMO) aux Etats-Unis et les agences étatiques d’évaluation et de régulation comme notre Haute Autorité de Santé ou le National Institute for Clinical Excellence en Grande-Bretagne.
La normalisation par les guidelines et les essais est souvent critiquée comme une remise en cause de l’autonomie des praticiens, comme l’imposition d’une standardisation remettant en cause non seulement la liberté d’appréciation des traitements, mais aussi la capacité à prendre en compte la variété individuelle des situations et des trajectoires de maladie. Plus, cette standardisation serait le cheval de Troie de la réduction administrative des coûts des systèmes de santé. La normalisation par l’Evidence-Based Medicine est toutefois plus diverse et contradictoire que ce que cette défense de la spécificité de la clinique et des prérogatives des praticiens pourrait laisser penser. D’une part parce qu’il existe de nombreuses tentatives pour utiliser les essais et les recommandations non comme des références absolues et des moyens d’encadrement, mais comme outil critique. En témoignent les méta-analyses réalisées par les centres Cochrane dont l’objectif est moins de donner une règle d’intervention que des moyens pour s’y retrouver dans l’accumulation d’essais contradictoires, le plus souvent organisés et publiés par les industriels du médicament. Ensuite, et c’est ce qui nous intéresse ici, parce que la fabrique des normes d’intervention est, comme le soulignait Canguilhem, étroitement liée à la définition des frontières du normal et du pathologique. Or, celle-ci et les normes qui en découlent n’ont jamais été le résultat des seules actions des professionnels même durant cette période privilégiée des Trente Glorieuses où l’on parlait peu de régulation et jamais de rapport coûts/bénéfices. Le développement de la médecine du risque en est la démonstration frappante.
La transformation de la notion de « risque » en catégorie centrale de l’enquête épidémiologique, de la prescription ou de l’éducation à la santé est un phénomène récent. L’entre-deux-guerres connaît le terme, mais comme élément de la pratique assurancielle ou de l’industrie. Ce n’est qu’après la Seconde Guerre mondiale, en relation avec l’importance croissante accordée aux maladies chroniques (par opposition aux maladies infectieuses) et avec un changement des formes d’objectivation du normal et du pathologique qu’il fait a fait son apparition en médecine. Lire la maladie en termes de probabilités pour un individu de souffrir de certaines maladies en fonction d’une palette de facteurs incluant ses conditions d’habitat, de travail, de ses comportements, sa physiologie et/ou sa génétique est le résultat d’une transformation de la médecine sociale et de la santé publique qui visait à intégrer des déterminants de la santé que les modèles réductionnistes de la médecine de laboratoire n’arrivaient pas à prendre en compte. La naissance de l’hypertension comme phénomène pathologique est un bon révélateur des origines ainsi que des effets paradoxaux de cette normalisation par le risque et le recours à la statistique.
La mesure de la pression artérielle a fait son entrée dans la routine de l’examen clinique dans les années 1895-1910 après l’invention d’un protocole simple de mesure des changements de pression vasculaire basé sur l’emploi du brassard pneumatique et du stéthoscope. La liaison entre pression et risque n’est cependant pas la conséquence d’une innovation technique, mais un produit de la médecine des assurances. Depuis les années 1840-1850, les compagnies d’assurance-vie ont été de grandes productrices et consommatrices de statistiques sanitaires, en particulier des tables de mortalité destinées à identifier et à sélectionner les « mauvais risques ». D’où leur recours à une figure de médecin aux fonctions très particulières puisque chargé d’examiner l’état de santé des postulants à la signature d’un contrat sur la vie. Les médecins d’assurance accordaient beaucoup d’importance aux antécédents et signes avant-coureurs des « maladies cachées » : diabète, tuberculose, syphilis, apoplexie et maladies cardio-vasculaires. Les examens pratiqués portaient sur les urines (albumine, sucre), le pouls, les bruits du cœur et des poumons, le test de Wassermann et finalement la pression.
La finalité actuarielle de ce travail « obligeait » à l’agrégation statistique des observations puisqu’il s’agissait de calculer des risques et d’anticiper des coûts. Les services médicaux des compagnies américaines développèrent une activité de recherche, organisant une première série d’enquêtes sur l’hypertension. La Northwestern Mutual Life Insurance Company fut la première à prendre systématiquement la pression de ses contractants pour conclure à l’existence d’une corrélation entre la valeur moyenne de la pression chez un individu et la fréquence des accidents cardiaques. La question de la gamme de valeurs pour lesquelles la pression était « normale » n’était toutefois pas si simple à régler. La distribution des pressions est continue et l’hypertension n’était pas le seul facteur de risque identifié par les assureurs : le surpoids était étudié de la même manière. Valeur normale et proximité à la moyenne étant deux choses différentes, on pouvait aussi s’interroger sur les extrêmes des distributions, leur statut d’adaptation à un mode de vie ou à une constitution héréditaire. Dans les années 20 et 30, plusieurs normes existaient : pour passer un contrat, pour consulter, pour hospitaliser. L’hétérogénéité des seuils était un facteur de compétition et d’incertitude que les grandes compagnies choisirent de ne pas exploiter et de réduire au maximum par la standardisation des courbes de distribution. En 1939, quinze compagnies se regroupèrent pour initier la Blood Pressure Study, un suivi de 1 300 000 personnes pendant dix ans.
Après la guerre, avec l’accroissement des investissements étatiques dans la recherche, le relais fut pris par les agences de recherche biomédicale. En 1947, aux Etats-Unis, le Public Health Service lança, en collaboration avec l’université de Harvard, une grande enquête prospective. Les coordinateurs choisirent l’observation d’une communauté représentative de la société américaine et sélectionnèrent 5000 individus de la petite ville de Framingham dans le Massachusetts. Au cours de sa longue histoire (elle dure encore), l’enquête a considérablement évolué. La perspective de prévention a cédé le pas à la modélisation des corrélations, des facteurs peu intéressants comme la consommation de tabac sont devenus des cibles importantes. L’enjeu n’était pas le nombre des sujets suivis, mais la compréhension des liens entre les différents facteurs contribuant aux maladies cardiovasculaires : nutrition, exercice, stress, hérédité que les chercheurs de laboratoire avaient du mal à objectiver. Ce « suivi de cohorte » et ceux qui l’ont prolongé en Europe ou au Canada sont au centre de l’acceptation par les chercheurs, les cliniciens et une partie des patients de l’idée du risque multifactoriel. C’est-à -dire de la notion selon laquelle les individus sont davantage exposés aux maladies coronariennes s’ils mangent trop de graisses, s’ils fument, s’ils ont une tension élevée, un taux important de cholestérol ou encore une histoire familiale comportant un parent déjà affecté.
Discutant cette approche de la maladie en termes de facteurs, l’historien R. Aronowitz considère qu’elle est caractéristique des paradoxes de la nouvelle médecine du risque. Premier paradoxe, si les enquêtes de l’après-guerre ont été stimulées par une distribution sociale très inégale de l’infarctus (fréquent chez les hommes, blancs, cadres), elles ont débouché non pas sur une approche socialement différenciée, mais sur une individualisation du risque où celui-ci est multiple, très largement distribué, mettant chacun face à ses responsabilités (continuer ou non à fumer, faire de l’exercice ou non). Second paradoxe, contrairement à la quête initiale d’une alternative au réductionnisme expérimental prenant en compte la complexité des formes de vie, les risques ont été intégrés sans grandes difficultés à la culture biomédicale, cohabitant avec des scénarios expliquant l’hypertension et l’infarctus par des causalités moléculaires simples. La quantification et le recours aux modèles mathématiques ont facilité cette reconnaissance, de même que l’existence d’une tradition physiologique liant phénomènes cardiaques et régulation hormonale de la circulation. Le dernier paradoxe est que cette définition du risque de maladie par les probabilités s’est accompagnée de la mise en œuvre à une échelle de masse d’une prévention centrée non pas sur la modification des comportements et conditions de vie, mais sur la détermination de valeurs seuils, régulièrement revues à la baisse, au-delà desquelles s’impose la prescription de médicaments hypotenseurs. Leur usage relèvent d’une évaluation bénéfices/risques qui fait désormais l’objet, chaque année, de dizaine de guidelines et recommandations émanant de l’industrie pharmaceutique, des sociétés médicales et des agences de régulation. La transformation de l’hypertension en pathologie n’a toutefois pas donné naissance à un monde « normé » au sens de pacifié où les pratiques seraient homogènes et consensuelles. Les controverses récentes sur les effets indésirables des statines, les frontières de leur prescription et l’utilité de leur usage de masse en témoignent.
Croire que ces effets « secondaires », les conflits d’intérêts liés au recours au médicament, les contradictions entre recommandations ou encore les variations « non justifiées » de pratiques pourraient disparaître à la faveur d’une fabrique adéquate des normes relève d’une illusion d’autant plus répandue qu’elle participe d’une défense de l’autonomie professionnelle contre le pouvoir des « gestionnaires » et accessoirement des usagers.
Bibliographie
- Robert Aronowitz, Les maladies ont-elles un sens ?, Paris, Les EmpĂŞcheurs, 1999
- Georges Canguilhhem, Le normal et le pathologique, Paris, PUF, 1966.
- Jean-Paul Gaudillière, La médecine et les sciences, XIXe-XXe siècles, Paris, La Découverte, 2006.
- Nicolas Postel-Vinay et André Corvol, Le retour du Docteur Knock. Essai sur le risque cardio-vasculaire, Paris, Odile Jacob, 2000.
- Stefan Timmermanns et Marc Berg, The Gold Standard. The Challenge of Evidence-Based Medicine and Standardization in Health Care, Temple, Temple University Press, 2003.
Jean-Paul Gaudillière
Historien
Trackbacks
Use this link to trackback from your own site.