L’intelligence artificielle d’IBM doit encore faire ses preuves

L’intelligence artificielle d’IBM destinée à trouver des solutions afin d’optimiser au mieux les traitements cancérologie est pour l’instant pour le moins décevante, particulièrement en matière de diagnostics. Toutefois, cette technologie devrait faire ses preuves rapidement à grande échelle, dans un premier temps en imagerie médicale.
Depuis quelques mois, un géant de l’intelligence artificielle en santé faibli. En septembre, le site spécialisé Statnews a publié une recherche sur Watson, un programme de la société IBM qui est spécialisé dans ce domaine technologique, et ses solutions en oncologie. Depuis déjà plusieurs années, ce super ordinateur nous est présenté comme une star de l’intelligence artificielle dans le secteur de la santé, celui-ci permet aux soignants de passer moins de temps sur la littérature, et plus de temps pour prendre soin du patient. En effet, Watson propose aux hôpitaux des recommandations pour des diagnostic et traitements dans plusieurs cas de cancers. Cependant, ce serait un système qui ne crée pas de nouvelles connaissances et artificiellement intelligent dans le sens le plus élémentaire du terme, c’est ainsi qu’il est décrit dans l’enquête de Statnews. Le site souligne un certain assombrissement dans les suggestions de la machine, ainsi que des doutes sur leur pertinence.
Pour Laurent Stefani, directeur de l’intelligence artificielle pour Accenture Technology en France, ces confusion ne sont pas propre à la société IBM. Il juge que : “L’intelligence artificielle n’est pas mature dans la santé” . Alors, qu’elles barrières doivent être dépassées afin de sortir de son stade primitif en matière de santé? Premièrement : les biais de l’usage de l’intelligence artificielle pour le recueil et l’analyse des données scientifiques pour aider les médecins dans leurs prises de décisions. “On compte 700.000 articles en médecine par an. De plus en plus de publications n’ont pas de valeur, car des équipes publient pour publier, ce qui pollue énormément les résultats. La machine n’est pas capable aujourd’hui de faire la différence entre ce qui ne vaut rien et un article intéressant “ analyse le chirurgien Guy Vallancien également auteur de “La médecine sans médecin ?” (Gallimard).
Dans une étude qui synthétise des recherches qui ont été conduites auprès de scientifiques, la revue scientifique Plos One rapporte que 1,97% des scientifiques ont établis avoir “fabriqué, falsifié ou modifié des données ou des résultats au moins une fois” et “jusqu’à 33,7 % ont avoué d’autres pratiques de recherche douteuses”. Un autre problème est soulevé : les données médicales recueillis auprès des hôpitaux, et sur lesquelles la société IMB s’appuie aussi, peuvent former d’autres biais. Si ces dernières données sont issues d’hôpitaux des États-Unis, les analyses et les conseils seront sans doute façonnés par l’intelligence artificielle par rapport aux modèles de protocoles de soins américains.