Les grandes avancées de la médecine

Ce qu’on appelle « la médecine » regroupe un très grand nombre de pratiques et de connaissances dont l’origine remonte aux débuts de l’humanité. Comme on peut s’en douter, la survie de nos ancêtres les plus lointains était (déjà) dépendante de leur capacité à lutter contre la maladie et à faire face à des blessures. Cependant, on ne peut parler de science médicale qu’à partir du moment où l’on dépasse une pratique basée sur la tradition, l’instinct ou la superstition, pour proposer de véritables théories étayées par l’expérimentation.

Un dossier aux forceps, avec la participation du Dr Arnaud Benoît (CHU de Liège),
assisté de Laura, Nico, Sébi, Olivier et Jean-Marc
Première parution : Ébullisciences n°354, octobre-novembre 2014


Le développement de la médecine dans le temps ne s’est pas fait de manière linéaire. De plus, des connaissances et techniques sont apparues indépendamment dans des civilisations parfois très éloignées géographiquement… Il est donc difficile, voire impossible, de parler d’UNE histoire de la médecine, ou même d’ «inventions» en médecine.

Néanmoins, on peut relever l’existence d’un certain nombre de civilisations pionnières en matière de médecine :

  • Le papyrus Edwin Smith, écrit en Égypte vers 1600 av. J.-C. et répertoriant des pratiques encore antérieures, constitue un véritable traité de chirurgie;
  • chez les Babyloniens, on peut citer l’existence du Manuel de diagnostic de Esagil-kin-apli, écrit vers 1000 av. J.-C., introduisant des notions comme le diagnostic, le pronostic, l’examen physique ou la prescription;
  • en Inde, il est attesté que le peuple de la vallée de l’Indus (5000 à 1900 av. J.-C.)possédait des connaissances en matière de dentisterie (on a même retrouvé des traces de traitement sur des dents datées de 9000 av. J.-C.), par ailleurs, l’Ayurveda constitue un système complet de médecine, même si celui-ci est imprégné d’ésotérisme ;
  • dans le monde gréco-romain (500 av. J.-C. à 500 apr. J.-C.), l’histoire se souvient particulièrement d’Hippocrate et de Galien, mais on peut noter que les connaissances en matière d’anatomie dans cette tradition sont relativement faibles, même si on lui doit quelques descriptions novatrices en matière de chirurgie.

Au Moyen-Âge (VIe-XVe s.), en Europe occidentale, la médecine a principalement vécu, du point de vue théorique, sur cet héritage gréco-romain (d’autant plus que le tabou chrétien sur la dissection humaine empêchait d’envisager une véritable étude expérimentale de l’anatomie). Par contre, de nombreuses découvertes techniques ont été effectuées et la pratique chirurgicale s’est considérablement améliorée.

Les médecins de l’Âge d’or islamique (VIIIe-XIIIe s.), quant à eux, ont véritablement marqué l’histoire de la médecine. Situés au carrefour de plusieurs traditions antiques, et bénéficiant du climat d’ouverture et de la profusion des idées caractéristiques de leur civilisation à cette époque, ils ont apporté une contribution majeure aux connaissances en anatomie, chirurgie, ophtalmologie, physiologie, pharmacologie et pharmacie. De nombreux personnages issus de cette tradition ont durablement marqué l’histoire, le plus célèbre d’entre eux est probablement Ibn Sīnā (Avicenne étant son nom latinisé), dont le Canon de la Médecine, écrit vers l’an mil, influencera la médecine au point qu’on le considère comme l’un des pères de la médecine moderne.

L0013312 Nervous system, Avicenna, Canon of Medicine 

Le système nerveux, planche extraite du Canon de la Médecine, écrit par Avicenne (Ibn Sīnā) vers 1050.
Son ambition était d’y compiler les savoirs des médecins grecs, juifs et arabes.


Rien de mieux que voir les choses par soi-même

André Vésale (1514–1564) | Pays-Bas méridionaux (act. Belgique)

CE QU’ON LUI DOIT : La dissection, l’observation directe comme outil de connaissance et de découverte.
AVANT LUI :
En Europe, les études de médecine consistaient essentiellement en la lecture des maîtres antiques, essentiellement Galien, médecin grec du IIe s. apr. J.-C. Cette lecture était suivie de la dissection d’un animal, très rarement d’un corps humain. Cette dissection était réalisée par un chirurgien-barbier sous la direction de l’enseignant.

Plus d’un millénaire après sa mort, les travaux de Galien font toujours autorité. Personne – ou presque – ne remet ses descriptions anatomiques en cause. Personne – ou presque – ne pratique plus de dissection. D’autant que l’Église l’interdit…

Pourtant, sous l’Empire romain également, la loi interdisait la dissection de corps humain. Les descriptions de Galien ne sont donc pas basées sur des dissections de corps humains mais d’animaux : des porcs, des chèvres et surtout des singes magots.

vesaleL’apport de Vésale sera donc considérable sur le plan de la didactique : il réalise les dissections lui-même, entouré de ses étudiants. Ceux-ci observent directement, par eux-mêmes, les organes, les muscles, les os, etc. En outre, il fait réaliser des dessins extrêmement précis (on suppose d’ailleurs que les artistes assistaient, eux aussi, aux séances).

Vésale se rendra compte des erreurs dans les descriptions de Galien dues, pour certaines, à la transposition de l’animal à l’homme ou, pour d’autres, à des erreurs de traduction.


 La ligature plutôt que le fer rouge

Ambroise Paré (1510-1590) | France

CE QU’ON LUI DOIT : Ambroise Paré ligature les artères lors des opérations d’amputations.
AVANT LUI : Généralement, on cautérisait les plaies pour arrêter le saignement, c’est-à-dire qu’on les brûlait au fer rouge ou à l’huile bouillante, alors que dans le monde islamique, la ligature des artères se pratiquait déjà 5 siècles plus tôt.

Paré vit à une époque où se développent les armes à feu. Les blessures sont donc d’un autre ordre que ce que les chirurgiens connaissaient jusqu’alors. La pratique courante, alors, était d’arrêter les hémorragies (saignements) au fer rouge ou à l’huile bouillante, au risque de perdre le blessé.

En 1552, au siège de Damvilliers, Ambroise Paré est au service du Comte de Rohan. L’un des officiers est blessé et doit être amputé. Paré innove en ligaturant les artères pour arrêter le saignement (cette technique avait pourtant déjà été décrite et pratiquée 500 ans plus tôt par Abu Al-Qasim, médecin du calife de Cordoue en Espagne).

Par ailleurs, à une époque où les ouvrages de médecine sont en latin, en grec ou en arabe, Paré publie en français.

ambroise_pare

Ambroise Paré a également inventé et perfectionné de nombreux instruments chirurgicaux et prothèses.


Le système sanguin est un système fermé

William Harvey (1578–1657) | Grande-Bretagne

CE QU’ON LUI DOIT : Il découvre que le système sanguin est un circuit fermé. C’est ce qu’on appelle laharvey_veine « grande circulation » sanguine (voir encadré).
AVANT LUI : On pensait que le système sanguin était ouvert, que le sang était fabriqué par le corps au départ de ce qu’il ingurgite et ensuite évacué avec ce qu’on appelait les humeurs (transpiration, urines, selles, etc.). On imaginait alors que la maladie provenait d’un excès de sang. Pour soigner un malade, il convenait donc de le saigner, parfois jusqu’à l’évanouissement.

L’idée selon laquelle le sang est fabriqué au départ de la nourriture que nous avalons est bien implantée dans les esprits. Et depuis longtemps. Elle n’est pas non plus sans fondement : pendant l’Antiquité, les dissections se pratiquent principalement sur des animaux égorgés, elles montraient donc des artères vides et des foies gorgés de sang. On en a donc déduit que les artères transportaient de l’air et que le sang était fabriqué par le foie. En outre, les vaisseaux capillaires ne sont pas observables à l’œil nu : difficile donc de concevoir comment le sang pourrait revenir vers le cœur après avoir irrigué les organes, les muscles, etc.

Les explications alors en vigueur sur la circulation du sang posent problème à William Harvey : pour que le système soit cohérent, il faudrait que le sang traverse la paroi entre le ventricule gauche et le ventricule droit. On pense donc cette paroi perméable sans arriver à le démontrer. William Harvey ne se contente pas de ces explications et arrive à démontrer que le système sanguin forme un circuit fermé.

Une première partie de son raisonnement est chiffrée : il mesure qu’un cœur humain a une capacité moyenne de 2 onces (± 60 gr), et que puisqu’il bat 72 fois par minute, il pompe près de 245 kg de sang toutes les heures… Si le système sanguin était un système ouvert, cela veut dire que nous devrions évacuer ces 245 kg chaque heure

La deuxième partie de son raisonnement est expérimentale. Harvey pratiquait de nombreuses vivisections sur des batraciens et des reptiles (parce que le cœur de ses animaux continuait à battre longtemps). En ligaturant l’aorte, il s’aperçoit que le cœur gonfle. Il en déduit que cette ligature empêche le sang de sortir du cœur. En ligaturant la veine cave, il s’aperçoit que le cœur pâlit, rétrécit, se vide. Il y a donc bien un retour du sang vers le cœur.

Et donc, puisque le système sanguin est un circuit fermé, la saignée, loin de soulager le malade, ne fait que l’affaiblir. Malheureusement, cette pratique perdurera encore longtemps.


« La petite circulation » (entre le cœur et les poumons) avait déjà été décrite au milieu du 13e siècle, par Ibn-an-Nafis, un médecin du Caire mais ses textes ne furent traduits en latin et publiés à Venise qu’au début du 15e siècle.


Il existe des êtres vivants invisibles à l’œil nu

 ANTONIE van Leeuwenhoek (1632–1723) | Pays-Bas

CE QU’ON LUI DOIT : La mise au point des premiers microscopes assez précis pour observer une cellule vivante.

En 1671, Antonie van Leeuwenhoek commence à construire des microscopes. Il taille ses propres lentilles, les meilleures de l’époque, ce qui lui permet d’être la première personne à observer des cellules vivantes. En 1674, il donne, avec une précision remarquable, la première description des globules rouges. Il découvre également les « ciliés », des unicellulaires tel que la paramécie qui lui ont paru 10 000 fois plus petits que les puces d’eau, visibles à l’œil nu. Il est le découvreur des spermatozoïdes, qu’il a scrupuleusement décrits chez plusieurs espèces animales (voir illu).vanleeuwenhoek

Grâce à ses microscopes, très perfectionnés pour l’époque, il a ouvert les yeux sur un monde invisible : celui de l’infiniment petit et des cellules.

Tandis qu’une petite décennie plus tôt…
Robert Hooke décrivit des cellules pour la première fois. C’est dans un très mince morceau de liège (partie morte de l’écorce des arbres) qu’il observa des petites structures alvéolaires toutes vides (normal puisque la cellule, morte, est vidée de son contenu). Il les nomma cellulae ce qui veut dire petites chambres en latin.

S’en suit un siècle et demi d’oubli
Il faut attendre 1838 pour que le botaniste Matthias Schleiden formule que toutes les plantes « sont des agrégats d’êtres séparés, entièrement individualisés, indépendantes, en l’occurrence les cellules elles-mêmes ». Il est rejoint un an plus tard par Theodor Schwann qui fit le même constat chez les animaux. La théorie cellulaire est née !microscop

Mais comment s’y prenait-il ?
Même s’il n’était pas scientifique, il en possédait plusieurs qualités. C’était un homme curieux et doté d’un sens de l’observation aigu. Sa méthode ? Tout ce qui lui passait sous la main finissait sous la lentille de son microscope :-).


Les microscopes d’Antonie Van Leeuwenhoek n’avaient pas grand-chose à voir avec les instruments contemporains : il fallait les tenir contre l’œil, un peu à la manière d’une loupe.


Le corps peut apprendre à se défendre contre une maladie

Edward Jenner (1749-1823) | Grande-Bretagne

CE QU’ON LUI DOIT : La mise au point de la vaccination c’est-à-dire un procédé permettant au corps d’apprendre à se défendre contre une maladie en le mettant en contact avec une forme bénigne ou affaiblie de cette maladie.
AVANT LUI : En Europe, au XVIIe siècle, la variole était une maladie dangereuse. Un malade sur dix en décédait. Pourtant, depuis des siècles, les Chinois connaissaient un moyen de s’immuniser : en respirant, réduits en poudre, quelques lambeaux de la peau d’un varioleux.

Jenner, médecin de campagne, avait entendu que les garçons et les filles de ferme qui avaient contracté la vaccine, variole des vaches avec lesquelles ils étaient en contact, transmissible à l’homme mais bénigne, n’attrapaient jamais la « vraie » variole. Il décida d’examiner cette croyance de plus près et conclut à sa véracité. Il envisagea donc la possibilité d’immuniser ses patients contre la variole en leur inoculant l’exsudat de lésions d’individus atteints de la vaccine (l’exsudat est le liquide qui suinte d’une blessure ou d’une inflammation).

Jenner travailla pendant 20 ans à des expériences prudentes avant de faire un essai définitif en 1796 : il inocula à un garçon l’exsudat prélevé sur les doigts d’une fille de ferme. Le garçon fut rapidement frappé d’une légère atteinte de vaccine mais quand Jenner renouvela l’inoculation 2 mois plus tard avec un exsudat de varioleux, le garçon ne montra plus aucun symptôme de la maladie. Il semblait être totalement immunisé.

Jenner appela cette méthode la « vaccination » d’après le mot vaccine.

Bien que vivement critiqué par de nombreux médecins, Jenner travailla d’arrache-pied et le taux de mortalité provoqué par la variole baissa de façon impressionnante. Ses recherches et ses travaux ont également ouvert la voie à l’application du même principe pour d’autres maladies contagieuses, comme le vaccin contre la rage qui fera la renommée de Louis Pasteur en 1885.

Jenner

« Edward Jenner vaccinant son propre enfant », Gravure colorisée, fin XIXe s.,
d’après E. Hamman


Désinfecter les instruments et les plaies

Joseph Lister (1827-1912) | Grande-Bretagne

Au 19e siècle, le taux de mortalité après une opération était très élevé. Les plaies guérissaient rarement sans infection. Elles suppuraient, provoquant régulièrement gangrène ou septicémie (infection généralisée). Bien que chaque chirurgien eût sa propre méthode pour tenter de combattre l’infection, très peu établissaient une relation entre l’infection et l’hygiène.

Joseph Lister, chirurgien à l’hôpital royal de Glasgow, était très insatisfait du grand nombre d’infections et de gangrènes consécutifs aux opérations. Il pensa pour la première fois à l’antisepsie en 1865, en découvrant les travaux de Louis Pasteur qui, à la même époque, avait démontré que la fermentation était provoquée par la présence de microbes dans l’air. Il pensa que la fermentation était un phénomène analogue à la suppuration des blessures et qu’il n’y avait par conséquent qu’une solution possible à savoir recouvrir la blessure et éliminer le plus possible les microbes. Ne pouvant faire bouillir ses patients, il eut l’idée de chercher une solution qui pourrait tuer les microbes.

En 1865, Lister effectua la première opération antiseptique en stérilisant au phénol tout ce qui entrait en contact avec la blessure. Cela concernait également le nettoyage et le pansement des blessures. Dans une publication de 1867, il indique une diminution considérable d’ulcères, de septicémies et de gangrènes. Il peina cependant à convaincre ses confrères, qui trouvaient la méthode de désinfection fastidieuse et ne l’appliquaient pas toujours de façon optimale. Cependant, il tint bon, organisa des conférences et fit des démonstrations impressionnantes de sa méthode qui finit par être reconnue et appliquée dans le monde entier.

clinique_du_docteur_gross

Ce qui nous paraît aujourd’hui élémentaire en matière d’hygiène lors d’une opération ne l’a pas toujours été. Jusqu’au 19e siècle, on ne lavait pas les instruments autrement qu’à l’eau, on opérait sans masque ni gants et parfois en public.
(La clinique du Dr Gross, 1875, peinture de Thomas Eakins)


La pénicilline, premier antibiotique

Alexander Fleming (1881–1955) | Grande-Bretagnesma0394

CE QU’ON LUI DOIT : La découverte de la pénicilline, en 1928, est un des tournants majeurs de la médecine du XXe siècle. Il s’agit probablement de la découverte médicale qui a sauvé le plus de vies…
AVANT LUI : Avant la pénicilline, il n’y avait pas de moyen efficace de combattre les infections causées par les bactéries. Ainsi, il était fréquent de mourir d’une infection aujourd’hui guérissable comme une pneumonie ou d’une blessure jugée aujourd’hui bénigne.

Médecin et chirurgien, Fleming exerca sur le front pendant la 1e guerre mondiale. Il y constata l’innefficacité des antiseptiques sur les plaies profondes : de nombreux soldats mouraient de septicémie (infection généralisée).
Après la guerre, Fleming entama de nombreuses recherches sur les agents antibactériens. Pour cela, il pratiquait de nombreuses cultures microbiennes, notamment de staphylocoques.

En rentrant de vacances, en septembre 1928, Fleming découvrit qu’une des colonies de staphylocoques qu’il avait laissé pousser dans une boîte de pétri avait été contaminée par un champignon nommé Penicilinium notatum provenant probablement du laboratoire voisin. Il constata que le champignon avait inhibé la croissance des bactéries tout autour de lui. Avec l’aide de ses assistants Stuart Craddock et Frederick Ridley, il étudia le champignon et constata que, quoiqu’innofensif pour l’homme, il était effectivement nocif pour la plupart des bactéries.

Cependant, il fallut attendre 1939 et l’intervention d’une équipe d’Oxford dirigée par Howard Florey avec la participation d’Ernst Chain pour que la pénicilline puisse être purifiée et administrée de manière systémique à l’homme en 1941. Elle s’avéra d’une grande utilité durant la guerre 1940-1945. Fleming reçut le prix Nobel de médecine en association avec Chain et Florey en 1945.

penicilline

Le penicillium, c’est ce champignon microscopique qui se développe par exemple sur les oranges. C’est aussi les moisissures des fromages comme le roquefort.


Pionniers de l’imagerie médicale

Wilhelm Röntgen (1845-1923) | Allemagne

CE QU’ON LUI DOIT : Le 8 novembre 1895, Röntgen met en évidence une nouvelle source de rayonnement. Le 22 décembre, il effectue la première radiographie : la main de son épouse. La radiologie est née six semaines après la découverte d’un phénomène nouveau et inexpliqué, les rayons X.
AVANT LUI : Pour savoir ce qui se passait à l’intérieur d’un malade, il fallait soit faire des déductions, soit ouvrir, au risque de l’infecter.

Röntgen examinait les propriétés des rayons produits par un tube cathodique. Il s’intéressait plus particulièrement à la fluorescence engendrée par ces rayons sur certaines substances chimiques. Pour ne pas être gêné par la lumière générée par le tube, il l’enveloppa dans un carton opaque et éteignit la lumière de son laboratoire. Il constata alors l’apparition d’un scintillement sur un écran enduit de cyanure de baryum abandonné à l’autre bout du labo. Ce scintillement n’apparaissait qu’une fois le tube allumé et persistait malgré l’augmentation des distances.

Le trait de génie de Röntgen fut de comprendre que ce scintillement n’était pas provoquée par les rayons cathodiques mais roentgenpar un autre type de rayonnement dont une des propriétés principales semblait être un bon pouvoir de pénétration. Ne connaissant pas encore l’origine exacte de ces rayons, Röntgen les baptisa rayons X. Il en avait cependant compris l’intérêt : il pouvait obtenir des clichés. Il obtint rapidement des épreuves qu’il envoya à certains amis en guise de carte de Nouvel An (cfr illu). De cette période, le monde gardera l’image de la radiographie de la main de son épouse, premier cliché qui ouvrira la voie à l’imagerie médicale.

En 1896, Röntgen donna une conférence au cours de laquelle il fit une radiographie de la main d’un volontaire. Après développement, celle-ci présentait une image parfaite des os de la main. Les rayons X, qui avaient pénétré la chair tendre de la main, étaient absorbés par la masse plus compacte des os, de sorte qu’on pouvait en obtenir une représentation photographique.

Le corps médical saisit très vite l’intérêt offert par cette technique d’imagerie. L’usage des rayons X pour réaliser des images médicales se répand dans le monde entier dès 1896. En 1897, la France se dote du premier laboratoire de radiologie à l’hôpital Tenon. Une radioscopie du thorax des patients permet le dépistage systématique de la tuberculose.

Marie Curie (1867-1934) | Pologne, France

CE QU’ON LUI DOIT : Pendant la première guerre mondiale, Marie Curie, qui mène alors des recherches sur la radioactivité naturelle, est à l’origine de la création d’un service de radiologie mobile.

Elle fait équiper des camions d’appareils radiologiques qui permettront de monter au front traiter les blessés non-rapatriables à l’arrière. Plus d’un million d’examens radiologiques sont réalisés pendant la guerre sauvant sans doute la vie de milliers d’hommes.

Dans les années qui suivent, quantité d’innovations améliorent les performances de l’imagerie médicale. Cependant il manque un élément décisif : l’informatique.

Godfrey Hounsfield (1919-2004) | Grande-Bretagne

En 1972, Sir Godfrey Hounsfield, un ingénieur dans une firme londonienne de production de disques phonographiques, étudie la possibilité de reconstruire par ordinateur, des coupes (images en tranches du corps humain) à partir de mesures radiographiques très précises prises dans des angles différents. Après maintes expérimentations, il crée la tomodensitométrie ou scanner qui connaît un succès immédiat. Il recevra, avec Cormack dont les travaux préalables eurent un impact considérable, le prix Nobel de médecine 1979 pour cette découverte.

La radiologie est aujourd’hui devenue une discipline médicale à elle seule. Chaque jour, les services d’imagerie médicale posent des centaines de diagnostic mais ce n’est pas tout, la radiologie interventionnelle permet aujourd’hui d’éviter de nombreuses interventions chirurgicales diminuant ainsi les risques pour le patient.

La radiologie interventionnelle désigne l’ensemble des actes médicaux réalisés par des radiologues et sous contrôle radiologique, permettant le traitement ou le diagnostic invasif de nombreuses pathologies. Le principe de la radiologie interventionnelle est donc d’accéder à une lésion située à l’intérieur de l’organisme pour effectuer un acte diagnostique (prélèvement par exemple) ou thérapeutique. [Wikipédia]

tomodensitometrie

Sur base des images sagitalles - des coupes - un ordinateur reconstitue une image 3D d’un organe, d’un système veineux, d’une partie de squelette.


Anesthésie

Depuis plusieurs milliers d’années, l’Homme a essayé d’apaiser la douleur des blessures. Les moyens ont d’abord été très rudimentaires : des plantes soporifiques – pavot, mandragore, chanvre – ont été utilisées afin d’endormir partiellement les patients. Les effets étaient limités mais permettaient des interventions chirurgicales du moment qu’elles étaient rapides.

Ce n’est que dans le courant du 19e siècle que ce que l’on peut appeler l’anesthésie va réellement émerger.

L’anesthésie par inhalation

C’est la première méthode utilisée. L’éther est administré pour la première fois en 1842 par le docteur Crawford Long. En 1846 a lieu la première démonstration publique de l’utilisation de l’éther comme anesthésiant par un dentiste (William Thomas Green Morton). Les anesthésies à l’éther inhalé se poursuivent également pour des petites interventions comme l’arrachage de dents. L’usage de l’éther se répand très vite aux États-Unis et en Europe.

À partir de 1850, c’est le chloroforme qui est utilisé, parfois associé à de la morphine. Cependant, l’éther et le chloroforme sont toxiques et difficiles à doser. De plus, l’anesthésie n’est pas encore une spécialité médicale. Cette tâche est assurée la plupart du temps par des personnes non-formées. Des progrès seront réalisés par la suite pour limiter les accidents : invention du masque d’Ombredanne en 1908 qui permet un dosage plus fin.

Les produits et les mélanges ont évolué par la suite, ainsi que les appareillages destinés au contrôle de l’inhalation.

Petit à petit, éther et mélanges protoxyde d’azote-oxygène font la place à des composés fluorés comme l’halothane, qui devient le produit le plus utilisé au monde dans les années 1980.

L’anesthésie par injection

Face au nombre grandissant d’accidents lors des anesthésies et grâce aux développements de la seringue et des méthodes antiseptiques, les méthodes par injection vont se développer.

La morphine, extraite de l’opium, et la cocaïne sont alors de plus en plus utilisées dès 1880.

Les anesthésies péridurales et rachidiennes se développent à la fin du 19e siècle, d’abord en Allemagne (August Bier), puis très rapidement en France (Sicard).

D’autres anesthésiques locaux, comme la Novocaïne, seront synthétisés par la suite.

L’Evipan, premier barbiturique intraveineux sera utilisé jusqu’après la seconde guerre mondiale. Il sera remplacé ensuite par le penthotal. Ce produit a été utilisé pour la première fois en 1934 par l’anesthésiste américain Lundy.

De manière générale, les produits anesthésiants sont de moins en moins toxiques et permettent des durées d’anesthésies plus longues, ce qui ouvre progressivement la voie à des opérations de plus en plus longues.

Calmer la douleur n’est cependant pas suffisant pour effectuer correctement une anesthésie, il faut aussi détendre les muscles : depuis 1844, on connaît les vertus du curare. Il permet une diminution du tonus musculaire. Mais ces observations tombent un peu dans l’oubli et ce n’est qu’en 1942 qu’un dérivé du curare est introduit dans les cocktails anesthésiques.

L’anesthésie générale doit donc agir de 3 manières :

  • Elle doit endormir (effet hypnotique).
  • Elle doit limiter la douleur (effet antalgique).
  • Elle doit empêcher tout mouvement (effet paralytique).

La première greffe de cœur

Christian Barnard (1922-2001) | Afrique du Sud

CE QU’ON LUI DOIT : la première transplantation cardiaque, en 1967, mais aussi une meilleure compréhension du phénomène de rejet.

Chirurgien de renom, il avait déjà réalisé beaucoup d’innovations dans le domaine de la chirurgie. De nombreuses années de recherches et d’expériences sur les transplantations cardiaques chez les chiens ont précédé son premier grand succès sur un humain.

Le patient était un homme souffrant d’une lésion incurable au cœur. Le donneur était une jeune femme de 24 ans mortellement blessée dans un accident de voiture. Le donneur et le receveur avaient le même groupe sanguin et, d’après les estimations, les chances de compatibilité de leurs tissus étaient grandes. Avant l’opération, le cœur fut conservé durant 3 heures dans un sang refroidi, enrichi en oxygène. Le cœur du donneur étant 2 fois plus petit que celui du receveur, des difficultés surgirent lorsqu’il fallut procéder à la transplantation. Le patient fut maintenu en vie dans une machine cardio-pulmonaire. Lorsque Barnard plaça des électrodes sur le cœur fraîchement transplanté et qui commençait à battre, il comprit que l’opération était une réussite du point de vue chirurgical.

Toutefois, le patient ne survécut que 18 jours à l’intervention.

Depuis, les greffes cardiaques ont connu un succès croissant notamment grâce aux améliorations techniques et à l’amélioration constante des traitements anti-rejets.

Deux grandes difficultés surgissent lors des transplantations.

La première est de nature purement chirurgicale. Le chirurgien doit avoir une grande dextérité pour relier les vaisseaux sanguins du greffon à ceux du patient. Cette opération doit être exécutée rapidement sinon l’organe à greffer meurt.

La seconde difficulté, le rejet, est plus difficile à gérer. Le mécanisme de rejet dans le corps humain est fondé sur le principe de refus de tout organisme étranger, tels que virus et bactéries. Ces organismes étrangers contiennent des protéines propres qui constituent les antigènes. Un transplant de tissus ou d’organe contient de nombreux antigènes qui sont reconnus comme des ennemis potentiels par le receveur. Plus proche est la parenté entre le donneur et le receveur, plus grandes sont les chances de fixation du transplant et son non rejet. Avant de pouvoir se lancer dans les greffes, il a fallu trouver des médicaments permettant d’atténuer les rejets en affaiblissant l’immunité du sujet greffé. En contrepartie, le patient receveur est malheureusement également plus vulnérable aux infections en tout genre, encore qu’aujourd’hui un traitement anti-rejet bien équilibré permet une qualité de vie tout à fait acceptable.


Découverte de la structure de l’ADN

James Watson (né en 1928) | États-Unis
Francis Crick (1916-2004) | Grande-Bretagne

Contexte historique

Les gènes qui se trouvent sur les chromosomes dans nos cellules portent une information capable de contrôler la forme et les caractéristiques de la descendance. En 1944, il a été démontré expérimentalement que c’est la molécule d’ADN qui sert de support de l’information dans le processus de l’hérédité. Entre 1944 et 1953, beaucoup de scientifiques ont essayé de déterminer la structure de cette molécule afin de répondre à l’une des questions les plus importantes de l’histoire de la biologie à cette époque : comment l’ADN peut-il porter l’information génétique nécessaire aux processus du vivant ?

En 1962, James Watson et Francis Crick reçoivent le prix Nobel de médecine pour leur découverte sur la structure de l’ADN en 1953. Le génie de Watson et Crick a été de synthétiser les différentes connaissances de l’époque, pour aboutir à une proposition de structure tridimensionnelle de l’ADN en double hélice. Cette découverte a ouvert la porte vers la compréhension des mécanismes derrière le code génétique et le lien avec les protéines et leurs fonctions biologiques.

Quels apports pour la médecine ?

La résolution de cette question centrale a permis aux chercheurs d’étudier comment isoler et multiplier des régions spécifiques de l’ADN ouvrant la voie à l’ère des biotechnologies et le génie génétique dont l’impact pour la médecine est considérable. De nos jours, grâce à ces technologies, on peut diagnostiquer des maladies génétiques, voir détecter des maladies susceptibles de se développer plus tard. Elles permettent également la synthèse de produits pharmaceutiques grâce à des transferts de gènes chez des bactéries, des plantes ou des animaux. Théoriquement, il devient même possible de transférer directement des gènes dans des cellules humaines pour traiter les maladies génétiques. Ce procédé est connu sous le nom de thérapie génique. Cependant dans la pratique, ça ne s’avère pas si simple.

Dna-split

L’ADN est une molécule très longue, composée d’une succession de quatre sortes de nucléotides dont l’ordre d’enchaînement correspond à l’information génétique. L’ADN est formé de deux brins complémentaires enroulés en double hélice. Lors de la réplication de l’ADN, les 2 brins se séparent et chacun spécifie un nouveau brin en suivant la règle de complémentarité du code de l’ADN. En découvrant la forme tridimensionnelle de l’ADN en double hélice, Watson et Crick ouvrent la porte à la compréhension du système de codage de l’ADN.


ET DEMAIN ?
Thérapie génique, technologie miracle ou faux espoir ?

Le concept de thérapie génique s’est concrétisé dans les années 90 avec les premiers essais chez l’homme. La thérapie génique consiste à introduire du matériel génétique dans les cellules d’un être humain pour corriger une anomalie génétique. Chez certains malades, la pathologie est due à un gène qui est altéré, cette méthode permet d’apporter un gène normal et fonctionnel. Pour transférer le gène, on utilise un vecteur qui est généralement un virus.

Suite à de nombreux échecs qui ont engendré dans certains cas la mort du patient, l’engouement des années 90 est vite retombé. Le fait de corriger directement une maladie au niveau des gènes confère à la thérapie génique une illusion de simplicité. Les évènements tragiques causés par les essais cliniques montrent qu’en jouant avec cette construction biologique complexe qu’est la génétique humaine, des conséquences imprévues peuvent découler. Après plusieurs années d’échecs médiatisés, de nombreuses équipes internationales continuent à travailler de manière plus discrète et plus réfléchie pour faire de la thérapie génique un outil supplémentaire dans la panoplie des traitements en médecine.

Epigénétique et thérapie cellulaire, une autre vision de la médecine

Depuis plusieurs années, on se rend compte de l’importance des mécanismes qui régulent l’expression des gènes, il s’agit de l’épigénétique. Toutes les cellules de notre corps possèdent exactement les mêmes gènes, pourtant, les cellules de nos yeux ne sont pas les mêmes que celles qui constituent notre langue. En fait, une partie seulement des gènes d’une cellule est exprimée et la partie diffère en fonction de la cellule concernée. L’épigénétique est donc l’étude de ce qui régule l’activité des gènes en facilitant ou en empêchant leur expression. Elle est fondamentale car elle permet une lecture différente d’un même code génétique. Toutes nos cellules sont différenciées, elles ont des rôles différents parce qu’elles n’expriment pas les mêmes régions de notre matériel génétique.

Il existe des cellules appelées cellules souches, qui gardent la possibilité de devenir l’une ou l’autre cellule. De nos jours, on comprend de mieux en mieux comment, à partir de cellule souches, on peut obtenir des cellules de foie ou de cerveau par exemple. Ces avancées scientifiques conduisent à ce qu’on appelle la thérapie cellulaire qui vise à soigner par l’apport de cellules, obtenues la plupart du temps à partir de cellules souches, pour remplacer des cellules défaillantes. Le nombre de pathologies ciblées par cette thérapie est important : Alzheimer, Parkinson, diabète, leucémie, etc. Elle pourrait également faciliter les greffes ou la restauration d’organes.

D’autre part, on se rend compte que notre environnement et notre comportement (l’alimentation, l’état psychologique, etc.) influent sur l’expression des gènes. Notre sort n’est donc pas tellement déterminé par les gènes que l’on hérite de nos parents. Le rôle de la médecine n’est donc pas uniquement de soigner ce qui est inévitablement marqué dans notre ADN, mais elle doit surtout comprendre l’influence de notre environnement sur l’expression des gènes, c’est-à-dire, prévenir les maladies en faisant attention aux comportements qui pourraient la mettre en péril.

On passe d’une médecine de soins à une médecine davantage de prévention, il s’agit d’une véritable révolution pour la médecine de demain.



Vous pouvez également retrouver ce dossier mis en page dans le pdf téléchargeable ici de la revue Ébullisciences nº354