Pouvez-vous faire confiance aux conseils médicaux des robots? Les médecins ne sont pas encore sûrs.

Babylon Health, dont la capitalisation est estimée à 2 milliards de dollars, propose un service de chatbot qui fournit des conseils médicaux en fonction des symptômes décrits. Il a été utilisé 1,7 million de fois. Cependant, les experts craignent que cela ne fonctionne pas exactement comme promis dans la publicité.



Hamish Fraser a rencontré Babylon Health pour la première fois en 2017, quand lui et un collègue d'un article dans Wired ont aidé à vérifier l'exactitude des diagnostics de plusieurs systèmes d'IA basés sur les symptômes conçus pour donner des conseils à quiconque possède un smartphone. Parmi les concurrents reconnus pour les maladies courantes, notamment l'asthme et le zona, le vérificateur de symptômes Babylon Health était le pire. Fraser, qui a ensuite travaillé comme inspecteur en informatique de la santé à l'Université de Leeds en Angleterre, a conclu que les entreprises devaient sérieusement améliorer leurs services afin de ne pas quitter le marché.

"À ce moment-là, je n'avais aucun préjugé pour aucun d'entre eux, et je n'en connaissais pas un seul, donc je n'avais aucun but de me venger même avec quelqu'un, et j'ai pensé: Nda, ce n'est pas un très bon résultat, - dit Fraser, qui travaille maintenant à l'Université Brown. "Je pensais qu'ils disparaîtraient." Mais je me trompais. "

Depuis la publication de cet article, beaucoup de choses ont changé. Depuis le début de 2018, Babylon Health, basée à Londres, est passée de 300 employés à près de 1 500. L'entreprise est évaluée à 2 milliards de dollars et prétend «fournir des services médicaux abordables et abordables à chaque personne sur la planète». En Angleterre, Babylon Health exerce le cinquième plus grand cabinet médical sous la supervision d'un système de santé national, principalement financé par le gouvernement, qui permet aux patients vivant près de Londres et de Birmingham de discuter par vidéo avec des médecins ou de se rendre à la clinique au besoin. La société affirme avoir traité plus de 700 000 consultations numériques de patients avec des médecins et prévoit de fournir des services similaires dans d' autres villes britanniques à l'avenir.

Babylon Health promet d'économiser de l'argent sur des services médicaux de plus en plus chers, en utilisant l'IA pour filtrer les patients, de sorte que le temps et les ressources ne soient donnés qu'aux personnes qui ont vraiment besoin d'une aide médicale. Babylon Health, en Angleterre et à l'étranger, affirme que son programme de dépistage des symptômes a été utilisé plus de 1,7 million de fois dans des endroits comme l'Angleterre, l'Union européenne, le Canada, l'Asie du Sud-Est et l'Arabie saoudite. Bientôt, Babylon Health prévoit de se développer encore plus et d'entrer aux États-Unis et en Chine.

L'expansion rapide peut être un problème car "une telle technologie - et non seulement des programmes de test des symptômes, mais aussi d'autres interventions numériques - peut être rapidement promue et modifiée", explique David Vaughn, qui donne des cours sur l'utilisation de l'IA dans les soins de santé à l'Université de Manchester en Angleterre, et travaillé avec Fraser pour tester de tels systèmes pour un article. "Cependant, ils peuvent potentiellement faire une grande différence", explique Vaughn, et en particulier, Babylon Health est "un exemple d'une entreprise qui a réussi à réaliser beaucoup de choses très rapidement."

Un tel développement rapide des événements soulève certaines questions d'experts affirmant que Babylon Health s'est empressé de pénétrer le marché sans preuves suffisantes de la santé de ses produits. Jusqu'à présent, il n'y a eu aucune évaluation d'experts de leurs services, avec des groupes de tests et de contrôle randomisés - des méthodes qui sont la référence en science médicale - qui montreraient à quel point l'IA fait face à de vrais patients dans des conditions réelles. Cependant, le programme de dépistage des symptômes de Babylon Health affecte déjà des milliers de personnes chaque jour - il reçoit l'approbation des autorités réglementaires des pays où il propose des services.



"Ils ont réussi à obtenir l'approbation du système de santé national sans même tester le produit sur de vrais patients, sans passer par des tests tiers - et cela n'arrête pas les régulateurs", a déclaré Margaret McCartney, médecin généraliste de Glasgow, en Écosse, et critique à Babylon Health . "Cela me semble incroyable."

Babylon Health prétend répondre aux exigences du système national de soins de santé et, dans tous les pays où le service opère, répond à toutes les exigences réglementaires. L'entreprise prétend également recruter des chercheurs universitaires pour organiser des essais de contrôle randomisés. «Nous avons pris des mesures importantes pour tester et valider la sécurité et l'efficacité de cette technologie», a déclaré Keith Grimes, directeur de l'innovation clinique, Babylon Health. «Ce n'est tout simplement pas sous la forme d'essais cliniques.»

Appeler un docteur Chatbot


Le vérificateur de symptômes de Babylon Health ressemble à un chatbot avec lequel les utilisateurs discutent via une application ou un site Web. Lorsqu'un utilisateur saisit ses principaux symptômes sous la forme d'une phrase ou d'une phrase courte, le vérificateur de symptômes pose des questions relatives à la présence possible de symptômes associés. En conséquence, le programme de vérification des symptômes identifie les causes possibles et recommande d'autres actions - une réserve pour une consultation vidéo avec un thérapeute ou une visite à l'hôpital.



La technologie qui sous-tend le programme de test des symptômes est connue sous le nom de graphique des connaissances et fonctionne comme une encyclopédie numérique de la médecine, dans laquelle la relation entre diverses maladies, symptômes et conditions est définie. La relation est représentée par des millions de points de référence provenant de centaines de sources médicales et est constamment mise à jour. Un programme de vérification des symptômes peut également gérer les enregistrements des dossiers médicaux - y compris les données collectées pendant que les utilisateurs travaillent avec le programme - pour identifier les associations possibles entre les maladies de différents utilisateurs.

Le graphique des connaissances peut être ajusté en ajoutant des données pour aider à évaluer la probabilité de diverses maladies dans certaines populations et zones géographiques.

Babylon Health crée «un modèle de médecine applicable non seulement au Royaume-Uni et aux États-Unis, mais dans le monde entier», explique Saurabh Johri, scientifique principal à Babylon Health. Il dit que le modèle devrait être personnalisable pour «refléter les spécificités locales de la maladie - de sorte que si un patient se plaint de vomissements, de fièvre et de diarrhée à Londres, il est moins susceptible d'avoir le paludisme que s'il vivait au Rwanda».

De nombreuses autres sociétés médicales utilisent la technologie d'apprentissage automatique, qui est populaire dans le domaine de l'intelligence artificielle, et son option, comme l'apprentissage en profondeur, pour former des logiciels pour analyser les données des patients afin de déterminer les symptômes et de poser des diagnostics. En passant au crible d'énormes quantités de données médicales brutes, ces systèmes peuvent parfois entraîner des logiciels à trouver des modèles et des relations cachés entre des points de référence dans des données que les gens et nos connaissances médicales manquent parfois. L'approche de Babylon Health n'est pas ainsi - ses estimations de l'IA reflètent directement les connaissances médicales actuelles des gens et la compréhension humaine de la relation entre les symptômes et leurs causes, sans s'appuyer sur des performances prometteuses, mais parfois inexplicables .

Jusqu'à présent, Babylon Health a utilisé l'apprentissage en profondeur pour interpréter les messages de discussion des patients avec un chatbot. L'IA utilise également l'apprentissage en profondeur pour accélérer la recherche de données exigeantes en termes de calcul dans la colonne des connaissances, où vous devez vérifier toutes les combinaisons possibles de symptômes, de maladies et de facteurs de risque qui conviennent au cas particulier. Mais en général, Babylon Health AI fonctionne principalement grâce aux connaissances médicales accumulées par les gens, ne faisant pas confiance à la machine pour travailler à l'établissement de relations logiques.



Cette approche peut présenter des avantages. L'un des inconvénients de la machine et de l'apprentissage en profondeur est qu'ils nécessitent d'énormes quantités de données de formation pertinentes et de puissance de traitement pour apprendre les modèles. Selon les pays et le système de santé, il n'est pas toujours facile d'accéder à toutes les données médicales pertinentes nécessaires à l'apprentissage des logiciels informatiques. Un autre inconvénient de cette approche est l'opacité. Les technologies d'apprentissage automatique ne permettent souvent pas aux experts humains de comprendre exactement comment le logiciel a connecté les différents points de référence dans les données.

L'approche de Babylon Health avec transparence est meilleure. La société utilise des modèles qui permettent aux médecins et aux programmeurs à plein temps de «regarder sous le capot», explique Johri, et de comprendre comment le programme de dépistage des symptômes est parvenu à une conclusion.

Les résultats sont dans le doute


Malgré tous les avantages, Babylon Health ne s'est pas encore avéré être un modèle avec un comportement responsable. L'entreprise a tenté de faire taire les critiques par des litiges et a été réprimandée par les régulateurs britanniques pour publicité "trompeuse". Dans une interview avec Wired UK et Forbes, les anciens employés de l'entreprise ont décrit une situation dans laquelle la culture d'entreprise entre en conflit avec la nécessité de tester rigoureusement la sécurité et l'efficacité de l'IA dans les soins de santé. Forbes a écrit: «Les entretiens avec les anciens et actuels employés de Babylon Health et les médecins indépendants montrent la grande inquiétude que l'entreprise a rapidement déployé des logiciels qui n'avaient pas été testés en profondeur, puis a exagéré son efficacité» (la société exprime une vive protestation contre ces déclarations).

Babylon Health s'est également impliqué dans les débats publics, faisant des déclarations que certains critiques ont par la suite qualifiées de trompeuses. Le 27 juin 2018, la société a attiré l'attention des médias, déclarant lors d'une émission en direct au Royal College of Medicine à Londres que son IA était capable de diagnostiquer des maladies courantes pas pire que les thérapeutes humains. Cette déclaration était basée sur une étude de l' entreprise comparant l'IA aux diagnostics posés par sept médecins. Toujours dans l'étude, le programme de test des symptômes a été testé sur certaines parties des questions d'un examen effectué pour obtenir un médecin généraliste en Grande-Bretagne, d'un examen d'adhésion au Royal College of General Practitioners et des documents historiques d'une étude indépendante de 2015 évaluant plusieurs programmes de vérification des symptômes.

Bientôt, cependant, les scientifiques et les organisations médicales ont commencé à montrer leur inquiétude. Le Royal College of General Practitioners , la British Association of Physicians et le Royal College of Physicians ont publié des déclarations contestant les allégations de Babylon Health, tandis que le Royal College of Physicians a organisé une présentation de la société et contribué à la réalisation de l'étude. Pour commencer, dans cette étude, l'IA n'a été testée que sur une partie des questions de l'examen, et le programme n'a pas été testé sur de vraies personnes en milieu clinique.

Fraser et Vaughn, les chercheurs qui ont aidé Wired UK à tester le programme de dépistage des symptômes en 2017, avaient également des questions pour cette étude car elle impliquait un petit nombre de médecins et n'avait pas été examinée par des experts indépendants. Le couple a décidé d'étudier cette étude de plus près. Dans un rapport publié dans le magazine The Lancet en 2018, ils ont conclu que l'étude Babylon Health ne fournit pas de preuves concluantes que leur programme de dépistage des symptômes «est capable de faire mieux que les médecins dans n'importe quelle situation réaliste, et il est plus probable qu'il ça va faire bien pire. "

Ces résultats affectent directement de vrais patients. «Si votre programme de dépistage des symptômes vous conseille de rester à la maison et de ne pas aller chez le médecin, une telle décision a des conséquences dans les cas où l'aide nécessaire est retardée ou n'est pas fournie», explique Enrico Coeira, directeur du Center for Medical Informatics de l'Université McUyra à Sydney, Australie. et l'auteur d'un ouvrage de 2018 publié dans le magazine Lancet.

Même avant une vague de critiques, Babylon Health a entamé des négociations préliminaires avec l'Université de Stanford pour mener des recherches pilotes supplémentaires, a déclaré Meghan Mahoney, Stanford Clinical Researcher, co-auteur de Babylon Babylon Health 2018.

"Apparemment, l'IA peut avoir un certain potentiel", explique Mahoney, expliquant que "nous avons une réelle responsabilité d'atteindre un nouveau niveau de rigueur dans l'évaluation de ce potentiel, car l'IA peut être vraiment utile pour soutenir et compléter les services médicaux" .

Mahoney a décrit la Babylon Health de 2018 comme «excellente pour la recherche interne». Malgré son optimisme, elle a averti qu'elle n'aurait jamais osé intégrer cette IA dans de véritables services de santé ou pratiques médicales, sur la seule base des résultats de cette étude.

Lorsque le magazine Undark a posé des questions sur les différends concernant ce travail, Babylon Health a répondu par une déclaration disant, entre autres, "Certains médias peuvent avoir mal interprété nos déclarations, mais nous restons avec nos premiers résultats et preuves scientifiques." Il a également été indiqué que le travail de 2018 est «préliminaire», et a comparé l'IA de l'entreprise avec un «petit échantillon de médecins». Babylon Health a également fait référence à la conclusion de l'étude: "Plus de recherches seront nécessaires en utilisant de plus grands groupes de personnes réelles pour comparer l'efficacité de ces systèmes avec des médecins humains."

Calculs: médecine du XXIe siècle


Même Babylon Health admet que la recherche préliminaire ne répond pas aux normes d'or de la recherche médicale. Cependant, cela n'a pas empêché la société - ou les autorités de réglementation - de donner aux patients l'accès à un programme de dépistage des symptômes.

Cette approche est comparable aux essais humains d'un nouveau médicament sans tests rigoureux, explique Isaac Cohan, chercheur en informatique biomédicale à la Harvard Medical School. Et il ajoute que les calculs "peuvent être considérés comme une médecine du XXIe siècle - alors traitons-les avec la même responsabilité".

Si Babylon Health organise des tests de contrôle randomisés, alors, selon Fraser, elle fera beaucoup pour établir la confiance dans son expansion sur les marchés américain et asiatique. La société prévoit d'envoyer un protocole de test à un magazine avec une revue préliminaire par les pairs des articles dans les mois à venir, a déclaré Johri, ajoutant: "Nous effectuerons ces tests en Grande-Bretagne, et nous discutons également de cette question avec des partenaires en Chine et aux États-Unis."

La réglementation actuelle de la Food and Drug Administration des États-Unis recommande la clémence dans les programmes de dépistage des symptômes basés sur l'IA, car les risques qui y sont associés sont inférieurs à ceux d'autres services de santé. La direction «a décidé de libérer les programmes de dépistage des symptômes - et les services similaires - de la supervision pour encourager l'innovation», explique Fraser. "Cependant, ils semblent avoir la possibilité de réglementer ce domaine beaucoup plus s'ils le souhaitent."

Jusqu'à présent, certains experts indépendants continuent de s'inquiéter de la version actuelle du programme de dépistage des symptômes de Babylon Health. Début septembre, un consultant indépendant du système de santé national britannique, critiquant souvent Babylon Health sur Twitter sous le pseudonyme Dr. Murphy , a démontré la présence d'un possible biais sexuel dans le programme de dépistage des symptômes de Babylon Health.

Une femme fumeuse de 59 ans qui se plaignait de douleurs thoraciques soudaines et de vertiges, le programme de dépistage des symptômes a diagnostiqué une dépression ou une crise de panique comme diagnostic probable. Pour le même patient, dont le profil indiquait le sexe masculin, le programme de traitement des symptômes a également indiqué d'éventuels problèmes cardiaques graves, recommandant une visite à l'hôpital ou appelant une ambulance.

Au lieu de contester ces allégations, comme c'était le cas auparavant, Babylon Health a choisi un ton de communication conciliant pour une réponse sur Twitter . Dans un article de blog ultérieur , Babylon Health a reconnu les préjugés dans les soins de santé, tout en plaidant pour l'efficacité d'un programme de vérification des symptômes.

Cela n'a pas convaincu le Dr Murphy veut que l'entreprise travaille sur des problèmes potentiels avec son IA: "Le plus dangereux de tous les médecins est quelqu'un qui ne voit pas leurs erreurs ou qui n'en tire aucune leçon."

Source: https://habr.com/ru/post/fr482810/


All Articles