Identifier les “ vilains canetons ” pour attraper un cancer de la peau plus tôt – Technoguide

Le mélanome est de loin la forme la plus meurtrière de cancer de la peau, tuant plus de 7000 personnes aux États-Unis rien qu’en 2019. La détection précoce de la maladie réduit considérablement le risque de décès et les coûts de traitement, mais un dépistage généralisé du mélanome n’est pas possible actuellement. Il y a environ 12 000 dermatologues en exercice aux États-Unis, et chacun aurait besoin de voir 27 416 patients par an pour dépister l’ensemble de la population à la recherche de lésions pigmentées suspectes (SPL) pouvant indiquer un cancer.

Des systèmes de diagnostic assisté par ordinateur (CAO) ont été développés ces dernières années pour tenter de résoudre ce problème en analysant des images de lésions cutanées et en identifiant automatiquement les SPL, mais jusqu’à présent, ils n’ont pas réussi à avoir un impact significatif sur le diagnostic du mélanome. Ces algorithmes CAD sont formés pour évaluer chaque lésion cutanée individuellement pour les caractéristiques suspectes, mais les dermatologues comparent plusieurs lésions d’un patient individuel pour déterminer si elles sont cancéreuses – une méthode communément appelée les critères du «vilain petit canard». Aucun système de CAO en dermatologie, à ce jour, n’a été conçu pour reproduire ce processus de diagnostic.

Désormais, cet oubli a été corrigé grâce à un nouveau système de CAO pour les lésions cutanées basé sur des réseaux neuronaux profonds convolutifs (CDNN) développé par des chercheurs du Wyss Institute for Biologically Inspired Engineering de l’Université Harvard et du Massachusetts Institute of Technology (MIT). Le nouveau système a réussi à distinguer les SPL des lésions non suspectes sur les photos de la peau des patients avec une précision d’environ 90% et, pour la première fois, a établi une métrique “vilain petit canard” capable de correspondre au consensus de trois dermatologues 88% du temps.

«Nous fournissons essentiellement un proxy mathématique bien défini pour l’intuition profonde sur laquelle un dermatologue s’appuie pour déterminer si une lésion cutanée est suffisamment suspecte pour justifier un examen plus approfondi», a déclaré le premier auteur de l’étude, Luis Soenksen, Ph.D., chercheur postdoctoral à le Wyss Institute qui est également Venture Builder au MIT. “Cette innovation permet d’analyser rapidement les photos de la peau des patients pour identifier les lésions qui devraient être évaluées par un dermatologue, permettant un dépistage efficace du mélanome au niveau de la population.”

La technologie est décrite dans Science Translational Medicine, et le code source du CDNN est ouvertement disponible sur GitHub (https://github.com/lrsoenksen/SPL_UD_DL).

Mettre au point les vilains canetons

Le mélanome est personnel pour Soenksen, qui a vu plusieurs amis proches et membres de sa famille souffrir de la maladie. «Cela m’a étonné que des gens puissent mourir d’un mélanome simplement parce que les médecins de soins primaires et les patients n’ont actuellement pas les outils pour trouver efficacement les« étranges ». J’ai décidé de résoudre ce problème en tirant parti de plusieurs des techniques que j’ai apprises de mon travailler dans l’intelligence artificielle au Wyss et au MIT », a-t-il déclaré.

Soenksen et ses collaborateurs ont découvert que tous les systèmes de CAO existants créés pour identifier les SPL analysaient uniquement les lésions individuellement, omettant complètement les vilains critères de canard que les dermatologues utilisent pour comparer plusieurs grains de beauté d’un patient lors d’un examen. Ils ont donc décidé de construire le leur.

Pour s’assurer que leur système puisse être utilisé par des personnes sans formation spécialisée en dermatologie, l’équipe a créé une base de données de plus de 33 000 images «grand champ» de la peau des patients comprenant des arrière-plans et d’autres objets non cutanés, afin que le CDNN puisse pour utiliser des photos prises à partir d’appareils photo grand public pour le diagnostic. Les images contenaient à la fois des SPL et des lésions cutanées non suspectes qui ont été étiquetées et confirmées par un consensus de trois dermatologues certifiés par le conseil. Après une formation sur la base de données et des améliorations et des tests ultérieurs, le système a pu distinguer les lésions suspectes des lésions non suspectes avec une sensibilité de 90,3% et une spécificité de 89,9%, en améliorant les systèmes publiés précédemment.

Mais ce système de base analysait toujours les caractéristiques des lésions individuelles, plutôt que les caractéristiques de plusieurs lésions comme le font les dermatologues. Pour ajouter les critères de vilain petit canard dans leur modèle, l’équipe a utilisé les caractéristiques extraites dans une étape secondaire pour créer une «carte» 3D de toutes les lésions dans une image donnée, et a calculé à quelle distance des caractéristiques «typiques» de chaque lésion étaient . Plus une lésion donnée était “étrange” comparée aux autres dans une image, plus elle était éloignée du centre de l’espace 3D. Cette distance est la première définition quantifiable des critères de vilain petit canard, et sert de passerelle pour tirer parti des réseaux d’apprentissage en profondeur pour surmonter la tâche difficile et fastidieuse d’identifier et d’examiner les différences entre toutes les lésions pigmentées chez un seul patient.

Apprentissage en profondeur vs dermatologues

Leur DCNN devait encore passer un dernier test: des dermatologues performants et vivants et respirants chargés d’identifier les SPL à partir d’images de la peau des patients. Trois dermatologues ont examiné 135 photos grand champ de 68 patients et ont attribué à chaque lésion un score de «bizarrerie» indiquant à quel point elle était préoccupante. Les mêmes images ont été analysées et notées par l’algorithme. Lorsque les évaluations ont été comparées, les chercheurs ont constaté que l’algorithme était en accord avec le consensus des dermatologues 88% du temps, et avec les dermatologues individuels 86% du temps.

«Ce haut niveau de consensus entre l’intelligence artificielle et les cliniciens humains est une avancée importante dans ce domaine, car l’accord des dermatologues entre eux est généralement très élevé, autour de 90%», a déclaré le co-auteur Jim Collins, Ph.D., a Membre principal du corps professoral de l’Institut Wyss et co-responsable de son initiative de bioanalytique prédictive, qui est également professeur Termeer de génie médical et de sciences au MIT. «Essentiellement, nous avons été en mesure d’atteindre une précision de niveau dermatologue dans le diagnostic des lésions potentielles de cancer de la peau à partir d’images pouvant être prises par n’importe qui avec un smartphone, ce qui ouvre un énorme potentiel pour détecter et traiter le mélanome plus tôt.

Reconnaissant qu’une telle technologie doit être mise à la disposition du plus grand nombre de personnes possible pour un bénéfice maximal, l’équipe a rendu son algorithme open-source sur GitHub. Ils espèrent s’associer avec des centres médicaux pour lancer des essais cliniques démontrant davantage l’efficacité de leur système, et avec l’industrie pour en faire un produit qui pourrait être utilisé par les fournisseurs de soins primaires du monde entier. Ils reconnaissent également que, pour être universellement utile, leur algorithme doit pouvoir fonctionner aussi bien sur tout le spectre des tons de peau humaine, qu’ils prévoient d’intégrer dans le développement futur.

“Permettre à nos scientifiques de nourrir leurs passions et leurs visions est la clé du succès du Wyss Institute, et il est merveilleux de voir cette avancée qui peut avoir un impact sur nous tous de manière si significative émerger d’une collaboration avec notre nouvelle initiative Predictive Bioanalytics, “a déclaré Don Ingber, MD, Ph.D., directeur fondateur de Wyss, qui est également professeur Judah Folkman de biologie vasculaire à la Harvard Medical School et au Boston Children’s Hospital, et professeur de bioingénierie à la Harvard John A. Paulson School of Engineering and Applied Les sciences.

Les autres auteurs de l’article comprennent Regina Barzilay, Martha L.Grey, Timothy Kassis, Susan T.Conover, Berta Marti-Fuster, Judith S.Birkenfeld, Jason Tucker-Schwartz et Asif Naseem du MIT, Robert R. Stavert du Beth Israel Deaconess Medical Center, Caroline C. Kim du Tufts Medical Center, Maryanne M. Senna du Massachusetts General Hospital et José Avilés-Izquierdo de l’Hospital General Universitario Gregorio Marañón.

Cette recherche a été soutenue par la Clinique Abdul Latif Jameel pour l’apprentissage automatique en santé, la Consejería de Educación, la Juventud y Deportes de la Comunidad de Madrid via le Consortium Madrid-MIT M + Visión et le programme People du septième programme-cadre de l’Union européenne, la subvention CONACyT du Mexique 342369/40897 et la subvention de formation du DOE des États-Unis DE-SC0008430.

.

Lire plus

A propos Technoguide

Voir aussi

Changer le régime alimentaire du ver à soie pour filer une soie plus forte – Technoguide

Des chercheurs de l’Université de Tohoku ont produit naturellement de la soie synthétisée en nanofibres …

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Défiler vers le haut