Signaux de sécurité des médicaments et essais cliniques : comment les risques émergent

Signaux de sécurité des médicaments et essais cliniques : comment les risques émergent
vicky herrera mars, 19 2026

Un médicament qui sauve des vies peut aussi en prendre. Ce paradoxe n’est pas une exception : c’est la règle. Les essais cliniques, aussi rigoureux soient-ils, ne peuvent pas révéler tous les risques avant qu’un médicament ne soit mis sur le marché. C’est là que les signaux de sécurité entrent en jeu. Ce ne sont pas des alertes aléatoires. Ce sont des pistes concrètes, souvent subtiles, qui indiquent qu’un effet indésirable, jusqu’alors inconnu ou sous-estimé, pourrait être lié à un traitement. Et ces signaux ne viennent pas d’un laboratoire isolé. Ils émergent des milliers de rapports, des données des patients, des erreurs, des cas rares - et parfois, d’un simple changement dans la façon dont les gens prennent leur médicament.

Qu’est-ce qu’un signal de sécurité, vraiment ?

Un signal de sécurité, c’est une information qui suggère une nouvelle association possible entre un médicament et un effet indésirable. Ce n’est pas une preuve. Ce n’est pas un diagnostic. C’est une alerte. La définition officielle, reconnue par l’OMS et l’Agence européenne des médicaments (EMA), dit simplement : « Une information qui indique un effet indésirable nouveau ou déjà connu, qui mérite une investigation plus approfondie. » Ce n’est pas un mot compliqué. C’est une question : Est-ce que ce que nous voyons pourrait être lié au médicament ?

Les signaux ne surgissent pas du néant. Ils viennent de deux sources principales. La première, la plus grande : les rapports spontanés. Ce sont les médecins, les pharmaciens, les patients eux-mêmes qui signalent un effet indésirable. En 2023, la base de données FAERS de la FDA contenait plus de 30 millions de ces rapports, datant de 1968. La seconde source : les essais cliniques. Mais ici, la limite est claire. Un essai clinique typique inclut entre 1 000 et 5 000 patients. Ils sont jeunes, en bonne santé, surveillés de près, et ne prennent souvent qu’un seul médicament. La réalité, elle, est différente. Des patients âgés, avec plusieurs maladies, qui prennent cinq médicaments à la fois. Des femmes enceintes. Des personnes avec des antécédents de foie ou de rein. Ceux-là, on ne les voit pas dans les essais. Et pourtant, ce sont eux qui développent les effets indésirables rares - les vrais risques.

Comment les signaux sont-ils détectés ?

Il ne s’agit pas de lire les rapports un par un. C’est impossible. Alors on utilise des outils statistiques. Le plus courant ? L’analyse de disproportionnalité. Elle compare le nombre de rapports d’un effet indésirable avec un médicament donné, au nombre attendu. Si un effet comme une insuffisance hépatique est signalé 10 fois plus souvent avec un nouveau médicament que avec les autres, ça attire l’attention. Le seuil ? Au moins 3 rapports et un rapport d’odds supérieur à 2. C’est un début. Pas une preuve.

Les agences utilisent aussi des méthodes plus complexes, comme le BCPNN (Bayesian Confidence Propagation Neural Network) ou le PRR (Proportional Reporting Ratio). Mais ces outils ont un défaut majeur : ils produisent beaucoup de faux positifs. Jusqu’à 80 % des signaux détectés par les algorithmes ne sont pas réels. Un exemple célèbre ? En 2019, un signal a lié le canagliflozin à des amputations de membre inférieur. Le rapport d’odds était de 3,5. Une alerte rouge. Mais l’essai CREDENCE de 2020 a montré que le risque réel était de 0,5 % - une augmentation minime. Le signal avait été un bruit statistique.

La clé, c’est la triangulation. Les experts le disent : un signal crédible doit être vu dans au moins trois sources différentes. Un rapport spontané, une étude épidémiologique, un essai clinique post-commercialisation. Si les trois s’alignent, alors on prend la chose au sérieux. C’est ce qui a permis d’identifier le lien entre le dupilumab et les maladies de la surface oculaire en 2018. Un signal qui a été confirmé par des ophtalmologistes en Europe, et qui a conduit à une mise à jour des notices.

Quand un signal devient un risque reconnu ?

Ne pas confondre signal et risque. Un signal est une piste. Un risque, c’est une certitude. Pour qu’un signal devienne un risque reconnu, il faut quatre choses :

  • Replication : le même effet observé dans plusieurs bases de données. Cela multiplie par 4,3 les chances qu’il soit réel.
  • Plausibilité biologique : le mécanisme a-t-il un sens ? Par exemple, un médicament qui affecte la coagulation et qui est lié à des saignements - ça colle.
  • Sévérité : 87 % des effets graves ont conduit à une mise à jour des notices. Les effets bénins ? Seulement 32 %.
  • Jeunesse du médicament : un médicament de moins de 5 ans a 68 % de chances d’être modifié. Après 5 ans, ce n’est plus que 29 %. Les risques tardifs sont souvent ignorés - jusqu’à ce qu’il soit trop tard.

Le cas de la bisphosphonate et de l’ostéonécrose de la mâchoire en est un exemple tragique. Le lien a mis 7 ans à être reconnu. Pourquoi ? Parce que l’effet était lent, rare, et que les médecins ne le voyaient pas comme lié au médicament. Les patients ne le signalaient pas. Les données n’étaient pas assez nombreuses. Jusqu’à ce que des cas se multiplient dans les services dentaires.

Des professionnels de santé analysant des données médicales holographiques dans un centre de surveillance.

Les limites du système actuel

Le système de surveillance n’est pas parfait. Il est même fragile. Les rapports spontanés sont biaisés. Les effets graves sont signalés 3,2 fois plus souvent que les effets bénins. Les patients qui ne parlent pas anglais, qui n’ont pas accès à un médecin, ou qui ne savent pas qu’ils doivent signaler un effet indésirable ? Ils ne sont pas comptés. Les données manquent. Et les professionnels le disent : 68 % des responsables de pharmacovigilance citent la qualité des rapports comme leur plus grand défi. Des rapports incomplets. Des dates manquantes. Des médicaments mal identifiés.

Un autre problème : la lenteur. Il faut en moyenne 3 à 6 mois pour évaluer un signal. Pendant ce temps, des patients continuent de prendre le médicament. Même si l’effet est rare, il peut être mortel. L’Agence européenne a réduit ce délai à 48 heures grâce à l’intelligence artificielle. Mais ce n’est pas encore la norme. Et les systèmes des pays en développement ? Beaucoup n’ont pas de protocoles écrits. Pas de formation. Pas de logiciels.

Et puis, il y a les nouveaux médicaments. Les thérapies géniques, les anticorps monoclonaux, les traitements personnalisés. Ils ont des profils de sécurité complètement nouveaux. Les anciens outils ne les détectent pas. Un médicament qui modifie le système immunitaire peut provoquer des effets qui apparaissent des années plus tard. Le système actuel n’est pas conçu pour ça.

Que fait-on quand un signal est confirmé ?

Quand un risque est confirmé, les autorités agissent. Pas toujours vite, mais elles agissent. Elles peuvent :

  • Mettre à jour la notice du médicament pour ajouter un avertissement.
  • Restreindre l’usage du médicament (ex. : interdiction chez les patients âgés ou avec une insuffisance rénale).
  • Exiger des études supplémentaires.
  • Retirer le médicament du marché - comme le rosiglitazone en 2010, après que plusieurs études ont confirmé un risque accru de crise cardiaque.

Le plus souvent, c’est une mise à jour de la notice. Un petit paragraphe, en gras, dans la section « Effets indésirables ». Mais ce petit texte sauve des vies. Il permet à un médecin de poser la question : Est-ce que ce symptôme pourrait venir du médicament ? Il permet à un patient de dire : Je me sens mal, je vais consulter.

Une femme âgée tenant une boîte de médicaments, des fils lumineux reliant son traitement à des personnes invisibles.

Le futur : données, IA et surveillance en temps réel

Le futur de la sécurité des médicaments ne passe plus par les rapports papier. Il passe par les dossiers médicaux électroniques. La FDA a lancé son initiative Sentinel 2.0 en janvier 2023. Elle analyse en temps réel les données de 300 millions de patients. Si un effet indésirable apparaît soudainement chez 500 personnes dans 3 États différents, l’algorithme l’alerte. En 2027, 65 % des signaux prioritaires seront détectés grâce à ces systèmes intégrés - contre 28 % en 2022.

L’IA joue un rôle croissant. Elle filtre le bruit. Elle identifie des motifs invisibles à l’œil humain. Mais elle ne remplace pas les experts. Elle les aide. Un médecin qui sait reconnaître un cas d’insuffisance hépatique, et qui comprend le contexte du patient, est plus précieux qu’un algorithme. La technologie donne des pistes. L’humain donne du sens.

Le défi du futur ? S’adapter aux traitements complexes. Aux patients poly-médicamentés. Aux effets à long terme. Et surtout, à la diversité. Le système actuel a été conçu pour les Blancs, jeunes, masculins, et en bonne santé. Il ne fonctionne plus. La prochaine révolution ne sera pas technologique. Elle sera humaine : inclure les voix oubliées, les populations marginalisées, les personnes âgées, les femmes, les patients des pays à revenus faibles.

Les signaux ne sont pas des menaces. Ils sont des opportunités.

Chaque signal de sécurité est une chance d’améliorer la sécurité des patients. Ce n’est pas un échec du médicament. C’est la preuve que le système fonctionne. Les essais cliniques ne sont pas là pour tout prévoir. Ils sont là pour dire : « Essayons. » La pharmacovigilance est là pour dire : « Regardez. Apprenez. Ajustez. »

Le vrai danger, ce n’est pas de détecter un signal. C’est de l’ignorer. De le classer comme « bruit ». De penser que « ça n’arrive qu’aux autres ». Parce qu’un jour, ce « autre », c’est vous. Ou quelqu’un que vous aimez. Et la seule chose qui vous protège, c’est un système qui écoute - même les murmures.

2 Commentaires

  • Image placeholder

    Louise jensen

    mars 20, 2026 AT 01:42

    Le système de pharmacovigilance c’est un peu comme un détective qui fume sur son fauteuil en attendant que quelqu’un meure pour qu’il bouge un doigt.
    30 millions de rapports ? Et on les lit comment ? À la loupe avec un café froid ?
    On parle de signaux mais c’est du bruit ambiant avec une dose de paranoïa statistique.
    Les algorithmes sont bons pour les tableaux Excel, pas pour la vie réelle.
    Je veux bien croire en la triangulation mais quand ton « troisième point » c’est un gars qui a pris son médicament avec du gin, ça compte pas.
    Le vrai problème, c’est qu’on attend que quelqu’un perde une jambe pour ajuster une notice.
    Et puis, on parle de « patients marginalisés » mais personne ne parle de ceux qui ne savent même pas qu’ils peuvent signaler un truc.
    On est dans un système qui se prend pour un génie mais qui fonctionne comme un vieux radiateur qui claque.
    Et la faute ? Elle est toujours du côté du patient qui n’a pas osé parler.
    On a besoin d’un système qui sent, pas d’un système qui calcule.

  • Image placeholder

    Valentin Duricu

    mars 20, 2026 AT 08:32

    IA = contrôle total.
    Les gars de la FDA veulent surveiller tes selles maintenant.

Écrire un commentaire