Un Google 3.0 du cancer : est-ce possible ? | MU 01.03.2016

Avec Alain Livartowski, médecin à l’Institut Curie dans le Département d’oncologie médicale

Compte-rendu du Meetup réalisé à La Paillasse, le 01 mars 2016.

Trois questions à…

Qu’entendez-vous par Google du cancer ?

AL : L’ensemble hospitalier de l’Institut Curie dispose d’un dossier électronique complet depuis 15 ans mais ces informations, accumulées, conservées, archivées, sont peu utilisées pour la recherche. Un Google du cancer consiste à pouvoir poser n’importe quelle question depuis son poste et obtenir une réponse immédiate. Par exemple, obtenir une liste de dossiers qui répondent à certains critères cliniques ou biologiques, voire génomiques. Cela consiste à aller plus loin comme extraire des données structurées afin de faire des analyses statistiques de façon totalement anonyme. Pour cela, il faut évaluer la qualité des données extraites pour mesurer le bruit et les silences. Il faut pouvoir questionner les données recueillies pour ces patients en dehors de l’hôpital ou que le patient aura lui-même recueillies, voire pouvoir lancer la même requête vers d’autres hôpitaux. Évidemment, cela se fait par le biais d’une interface homme-machine conviviale, d’où la comparaison avec Google. Tout ceci dans le respect strict de la vie privée et en garantissant que cela n’aura aucune conséquence d’aucune sorte sur la personne malade. Simple !

Est-ce un rêve ?

AL : Le volume d’informations numériques collectées chaque jour dans les disques durs des ordinateurs est considérable. Pour autant, sommes-nous capables d’en extraire des données exploitables, de faire progresser nos connaissances pour améliorer la prise en charge des patients atteints de cancer ? Sommes-nous capables de fournir une information clinique exploitable aux chercheurs qui travaillent sur les voies de signalisation et les mécanismes de la cancérogenèse afin qu’ils puissent conforter leurs hypothèses sur des cohortes de patients ? La réponse est aujourd’hui négative et nous devons faire en sorte que la réponse soit positive, que ça ne soit plus un rêve mais un défi qu’il nous faut relever. C’est sûrement cela que l’on appelle big data, qui consiste à utiliser des technologies permettant de créer de la connaissance. Le projet Big Data de l’Institut Curie consiste à réussir l’intégration des données de sources multiples. Le projet consiste à modéliser la maladie cancéreuse basé sur des ontologies en tenant compte de la temporalité pour mieux organiser, exploiter les données et interagir avec d’autres. La construction d’une base de connaissance s’appuie sur les technologies du Web sémantique (Web 3.0). Pour analyser et échanger avec d’autres SIRIC ou d’autres Comprehensive Cancer Centers en France ou de par le monde, nous devrons utiliser des suites logicielles libres comme i2b2/tranSMART/Shrine.

Pourquoi ne pas coder les données à la source ?

AL : On peut coder les données à la source, dans certains cas. Par exemple, il a été démontré qu’il était possible de coder les comptes-rendus d’anatomo-pathologie. Les comptes-rendus textuels peuvent être remplacés par des comptes-rendus standardisés et structurés (CRSS). Mais en clinique, ce n’est pas toujours possible, même non souhaitable tant des données qui paraissent futiles seront en fait très utiles pour la prise en charge clinique. Le projet ConSoRe est l’acronyme de Continuum Soins Recherche, piloté par UNICANCER, sera déployé en 2016 dans plusieurs CLCC. Il consiste à réaliser une structuration des données médicales hospitalières et permettra de poser des requêtes, simples ou complexes, de naviguer dans les différents dossiers, d’extraire des données structurées, de les analyser et de les partager entre CLCC. À titre d’exemple, il permettra de mieux exploiter les spécimens conservés dans les Centres de ressources biologiques en les annotant de façon dynamique avec les données cliniques et celles issues des analyses de biologie moléculaire et du séquençage haut débit. Parallèlement, nous nous appuyons sur le projet OSIRIS piloté par l’INCa et coordonné par le SIRIC de Lyon et qui est un travail collégial dont l’objet est d’améliorer l’interopérabilité des systèmes, le partage des données cliniques et omics (NGS et CGH).

De nombreuses équipes travaillent à ces projets qui soulèvent des défis humains, organisationnels, techniques, scientifiques et éthiques. D’où des coopérations nécessaires, qui vont des mathématiques aux sciences sociales en passant par la médecine, la biologie, l’informatique, la bioinformatique et les problèmes juridiques. Une nécessité : la participation à la réflexion des citoyens et des malades.


Compte-rendu du Meetup

Introduction

C’est un vrai challenge de démontrer qu’un Google 3.0 du cancer est possible ; il est nécessaire de prendre en compte la vitesse à laquelle les choses changent.

Pourquoi le Google 3.0 du cancer ?

La première caractéristique de Google est la notion de simplicité et c’est aussi ce qui fait sa force : une seule barre de recherche et un fond blanc. Dans le projet ConSoRe (Continuum Soin-Recherche), qu’UNICANCER développe, et dont l’Institut Curie est le site pilote, on retrouve cette même volonté d’avoir un écran utilisateur simple et épuré : une ligne. Il s’agit d’atteindre la simplicité d’utilisation de Google.

Aujourd’hui, on est dans le web 3.0, dans le web des objets connectés et dans le web sémantique (ou web des données) avec la possibilité d’extraire les données stockées dans les ordinateurs pour en faire émerger de la connaissance.

Le web sémantique permet d’utiliser les technologies web, qui permettent d’être indépendant des systèmes d’information du fait notamment d’une universalité de langage et des technologies qui sont ainsi utilisables à large échelle, rendant possible une communication mondiale. De plus, il facilite aussi l’analyse des contenus. La plupart des informations étant des données textuelles, si l’on voulait tout structurer, on perdrait des informations. Par le web sémantique, il est possible d’utiliser l’information à partir de données non structurées.

Le Cancer

Par rapport à d’autres pathologies, l’étude du cancer comporte un énorme avantage : il y a toujours un diagnostic de certitude. Il n’est pas possible de traiter un cancer sans ce diagnostic de certitude : il faut un diagnostic anatomo-pathologique. Or, en médecine, il n’y a pas beaucoup de cas où ce type de diagnostic est possible.

Par exemple, on peut traiter les maladies infectieuses sans avoir la certitude de la bactérie avec un traitement probabiliste. En fonction des signes cliniques et éventuellement de l’épidémiologie, on peut décider d’un traitement. En cas d’absence totale d’information, il est possible de faire un traitement à large spectre.

L’autre exemple de diagnostic de certitude est la grossesse. Néanmoins, pour le cancer, le diagnostic de certitude connaît le début mais pas l’évolution. Pour la grossesse, on connaît la fin mais pas le début. Des collègues, qui étudient l’autisme, travaillent sur ces mêmes sujets, ce qui est infiniment plus difficile parce qu’on ne connaît pas forcément la bonne définition de cette maladie.

Un autre avantage du cancer, c’est que des données sont disponibles du fait de la prise en charge essentiellement hospitalière de la maladie. Toutefois, comme le traitement tend à se faire de plus en plus en dehors de l’hôpital, la question de la récupération des données extra hospitalières va se poser.

De plus, il y a eu des progrès considérables dans la prise en charge du cancer et dans le traitement. Par exemple, si on prend le cas du cancer du poumon, avant on parlait de deux types de cancer : le cancer à grandes cellules et le cancer à petites cellules. Il y avait donc deux traitements : un pour les petites et un pour les grandes cellules. Or il y avait des gens qui traitaient de la même façon petites et grandes en ayant le même résultat.

Aujourd’hui, le cancer du poumon c’est trente à quarante maladies différentes dont certaines sont des maladies orphelines. Si ce sont des maladies de plus en plus orphelines, on entrevoit la nécessité de coopérer, pas seulement dans un centre ou entre plusieurs centres mais à un niveau beaucoup plus large. C’est en partie là l’intérêt de ces technologies qui facilitent une collaboration internationale permettant de répondre à l’éclatement du cancer en une multitude de maladies orphelines.

Ces technologies, issues du web, changent les possibilités. Le problème n’est pas tant celui de la technique mais de l’accès aux données.

La définition du problème

Le problème est que l’on est au-dessus d’un océan de données. Par exemple, à l’Institut Curie il y a 400 000 patients. Cela correspond à 10 millions de documents, 400 millions de concepts. Il y a 500 000 prélèvements conservés dans les centres de ressources biologiques, des informations sur les images numérisées depuis 2004, des informations plus structurées sur les traitements, la chimiothérapie, un début d’information sur le génome, une possibilité de séquencer les tumeurs, … Or, lorsqu’on cherche à poser une question simple, c’est impossible. On rentre des données dans les ordinateurs, sans être capable de les faire ressortir.

Avec ce projet, il s’agit, dans le domaine du cancer, d’adresser à un moteur de recherche des requêtes simples et d’obtenir une réponse simple et rapide, comme avec Google.

Le problème initial est donc simple mais il peut se complexifier par la suite. Non seulement, il y a des données cliniques mais aussi des données génomiques qui ne sont pas forcément stockées au même endroit. Les données de la recherche et les données de l’hôpital devront pouvoir être utilisées indifféremment par les chercheurs et par les médecins.

Le cahier des charges pour ConsSoRe était le suivant : 3 questions auxquelles on ne savait pas et ne sait pas répondre. Par exemple, on a des patients ayant un mélanome de la choroïde, qui ont un risque génétique élevé et qui sont vivants sans événement métastatique à 5 ans, sur lequel on a des prélèvements qui sont congelés. Le médecin ou le chercheur voudrait poser cette question d’une façon aussi simple qu’il le fait sur Google : avoir une liste de patients et extraire des informations structurées sur l’ensemble des informations.

Le challenge adressé sur le plan de la médecine des données est multiple :

  • Pouvoir requêter toutes les informations enfouies dans la base de données ;
  • Pouvoir les consulter sur écran ;
  • Pouvoir les analyser de façon statistique ;
  • Extraire des informations ;
  • Partager ces données avec d’autres (les études mais aussi des données cliniques).

Or le big data pose plusieurs problèmes : il y a une quantité très importante de données, qui sont très hétérogènes, dont on ne contrôle pas nécessairement la qualité et, de plus, qui sont isolées dans des systèmes isolés les uns des autres.

Comment faire en sorte que ces données hétérogènes, isolées et de qualité inégale soient utilisables et utilisées ?

L’initiative d’UNICANCER : ConSoRe

Les objectifs

Les objectifs sont multiples. Il s’agit de :

  • Dire que, pour chaque patient atteint de cancer, on doit pouvoir structurer l’information afin de créer, par exemple, des cohortes de patients pour faire des analyses rétrospectives, mener une interrogation par centre et inter-centres par le Web, extraire une information stucturée ou non structurée des SIH (Système d’Information Hospitalier) ;
  • Assurer le lien entre les données cliniques, les images, les données génomiques, immunologiques, épigénétiques, etc ;
  • Adresser n’importe quelle requête : poser n’importe quelle question sur n’importe quel sujet (simple ou complexe, sur les données du centre ou d’autres, etc.) ;
  • Faire tout cela en un clic ;
  • Extraire les données structurées pertinentes et avoir la possibilité d’échanger avec d’autres.

Le cahier des charges est le suivant : avoir un écran de type Google, pouvoir faire une requête en un clic, obtenir le résultat en moins d’une seconde.

On constate qu’on est confronté aux mêmes problématiques que les chercheurs qui travaillent sur l’autisme, le cinéma, la musique, c’est-à-dire d’avoir des données (images, textes, structurées), de les ranger dans une base de données, de les analyser avec différents outils.

2013–2014 : la POC (proof of concept) ou V0

Ce projet souhaite utiliser des bases de données structurées (PMSI, BioBanques, Chimiothérapie, Démographie, Fiche tumeur) et des données complètement textuelles (dossier médical), soit 85% de données structurées et 15% de données non structurées.

Il y a quatre centres pilotes : l’Institut Curie (Paris-Saint-Cloud), le Centre Georges-François Leclerc (Dijon), l’Institut régional du Cancer (Montpellier), le Centre Léon Bérard (Lyon).

Aujourd’hui, on a pu tirer différents enseignements de la POC. Il est possible d’utiliser des données structurées et non structurées, et de structurer celles qui ne le sont pas, même si les SIH (Systèmes d’Information Hospitaliers) et les modèles de documents sont différents. De plus, il est également possible d’interroger à distance avec un temps de réponse immédiat. On a, dans le centre, des données nominatives et, quand c’est inter-centre, un comptage simple.

Ainsi, la V0 est plutôt une réussite technique mais un échec fonctionnel. La mise en place technique a été plutôt facile mais il y a trop de bruit, les interrogations possibles sont limitées et l’interface n’est pas encore conviviale.

Vers ConSoRe V1 et ConSoRe+

À partir de la POC, on a pu tirer différents enseignements :

  • Il faut une interface plus intuitive ;
  • Si l’on veut extraire de l’information structurée, il faut mieux modéliser la maladie et faire une extraction supervisée (connaître le fichier résultat que l’on veut avoir à la sortie) ;
  • Il est nécessaire d’améliorer la qualité des données (limiter le bruit, éviter les faux positifs) ;
  • Il faut orienter le projet vers les outils du Web sémantique pour pouvoir poser n’importe quel type de question ;
  • Il faut monter un consortium : réunir des gens et des compétences hors des centres de lutte contre le cancer, des chercheurs dans d’autres domaines qui sont confrontés aux mêmes problèmes.

Il est assez simple de modéliser le cancer. Il y a une tumeur initiale, les éléments qui arrivent avant la tumeur (antécédents, facteurs de risque, …), la tumeur locale, la phase de surveillance, la rémission, des récidives locales et, parfois, une maladie métastatique. Cela se complique quand on transforme cette modélisation avec les documents disponibles. Par exemple, dans l’événement tumoral initial, il y a beaucoup de choses qui se passent : diagnostics, prélèvements, radiologie, … Ainsi, avoir un système qui réponde en un clic, en moins d’une seconde, est compliqué.

Quelques sujets à explorer — des problèmes à résoudre

Les possibilités pour structurer l’information

Un des problèmes rencontrés est comment, à partir des données textuelles disponibles, dégager des données structurées pour pouvoir faire une analyse. Il existe plusieurs possibilités :

  • L’extraction simple et l’extraction supervisée : on prend un mot qu’on peut comparer avec un référentiel mais il y a la nécessité de gérer les synonymes, les approximations, la syntaxe, …
  • Créer des règles : par exemple, création de données inférentes ; regroupement ou suppression d’une entité.
  • Les cartouches sémantiques : à partir d’une expression syntaxique et des données structurées (pattern). Par exemple : cartouche de négation, antécédents, récidives, métastase.
  • La pondération et les seuils : les sources n’ont pas toutes les mêmes valeurs (poids) et présence ou non de “hotspots” statistiques (fenêtre dans le temps)
  • La traçabilité et la mesure de la qualité : mesurer les résultats afin de pouvoir adapter les règles, les pondérations, etc. et présence d’un indice de confiance (comparer à un échantillon ; le machine learning : va permettre une amélioration automatique).

Les outils d’échanges et de partage

Idéalement, pour l’échange, il faudrait avoir une interopérabilité technique, les ordinateurs se parlent et se comprennent (format d’échange commun, etc.), et une interopérabilité sémantique, les hommes se parlent et se comprennent (utilisation des mêmes terminologies, présence de standards communs, etc.). Néanmoins, ce n’est peut-être pas une nécessité. La force de ces technologies, c’est qu’au départ les choses ne sont pas interopérables. Certes, si on peut coder les informations à la source, c’est mieux ; par exemple : Sexe = 1 ; Sexe = homme ; Sexe = masculin. Toutefois, en parcourant un dossier, les ordinateurs savent très vite si l’individu est un homme ou une femme.

La sécurité, la confidentialité, la qualité des données

Tout cela pose énormément de problèmes de sécurité, d’éthique, de droit ; des problèmes d’acceptabilité par les médecins, les citoyens, le politique. Il y a quantité de problèmes sociétaux. Il faut traiter ces sujets en même temps que les problèmes techniques.

Par exemple, pour l’aspect éthique et réglementaire se pose le problème du consentement, de la validation par la CNIL, de la question de la confidentialité des données génomiques, de la propriété des données.

Il y a également la question de la qualité des données, qui est essentielle pour obtenir la confiance des utilisateurs. Il y a de nombreuses méthodes à explorer.

De ConSoRe à ConSoRe+

Consore est un projet inter-centres de lutte contre le cancer. Or cela a des inconvénients. C’est une initiative d’UniCancer, des centres de lutte contre le cancer, et cette initiative a boosté le projet. Il y a un financement collaboratif. Néanmoins, c’est limité aux centres de lutte contre le cancer en France. De plus, il s’agit d’un modèle propriétaire : fait par les centres, pour les centres. Enfin, il repose sur un moteur de recherche avec un nombre d’index limité (patient, tumeur, prélèvement) et des vues pré-déterminées.

ConSoRe+ tente de dépasser cela avec la volonté de ne pas rester entre centres, de ne pas avoir de limitation dans les requêtes, et avec une compréhension de la nécessité de s’ouvrir sur le monde et donc utiliser des technologies non propriétaires qui permettront certes d’échanger avec ces centres de lutte contre le cancer mais aussi avec d’autres centres académiques à travers le monde et éventuellement avec d’autres infrastructures dans le cadre des open data.

Les données de la ville

Aujourd’hui, on constate l’émergence de technologies qui donnent de l’information au patient.

L’application myCurie permet aujourd’hui au patient d’avoir des informations sur son smartphone à propos de ses rendez-vous, de ses traitements, etc., avec des informations personnalisées.

Dans un futur proche, le patient pourra peut-être mesurer, récupérer directement via son clavier, avec des systèmes d’alerte, par des objets connectés, etc., des informations de la ville.

Si on se borne aux informations strictement hospitalières, on va manquer quelque chose car il y a beaucoup d’informations qui peuvent venir des patients eux-mêmes. Il faut ainsi pouvoir intégrer les données hospitalières avec les données de la recherche mais également les données de la ville. C’est un véritable enjeu.

Conclusion

On est capable de créer des systèmes qui peuvent poser n’importe quelle question mais il faut que la donnée soit dans les ordinateurs, il faut que cela soit simple et intuitif, il faut qu’elle soit pertinente. Il faut qu’on puisse produire des données structurées car on aura besoin de données pour l’analyse statistique. Enfin, il faut pouvoir les partager entre structures de recherche.

Google 3.0 du cancer : pour quoi faire ?

D’abord, il s’agit de disposer d’une liste de patients, de tumeurs, de spécimens biologiques sur critères et de pouvoir en extraire une information structurée. Poser une question simplement et obtenir une réponse immédiate.

Un des gros enjeux, c’est la prédiction : pouvoir analyser toutes les données concernant un patient (génomiques, cliniques, les antécédents), regarder s’il y a des patients similaires dans l’hôpital ou à l’extérieur et examiner ce qui s’est passé. Calculer également le risque de récidive d’une tumeur à partir d’un grand volume de données pour, par exemple, ajuster la surveillance qui va être mise en place ou encore savoir s’il faut faire une chimiothérapie ou non.

Google 3.0 permettrait également d’aider la recherche, l’inclusion dans les essais ; d’aider le quotidien (préparation des RCP, synthèse automatique) ; d’aider le patient dans la vie (l’information sur la prédiction est très importante) ; de rendre possible la eSanté, le recueil des signes et des symptômes ; d’aider à la formation des médecins.


Échange avec le public

Illustration : Barbara Govin

Public : Retour sur l’analogie avec Google : Google a tué tous ses concurrents du fait de son algorithme de recommandation, de la pertinence de ses résultats de recherche. Avez-vous la même approche ?

AL : L’analogie avec Google ne concerne que l’interface homme–machine pour poser une question mais elle s’arrête là. Si l’on met un outil dans les mains des médecins et qu’en regardant les trois premières pages, ce qu’on fait avec Google, il y a 20% d’erreur, ce n’est pas acceptable. La confiance dans le système est primordiale. Il faut être capable de donner des données justes à 99% et non à 70%. 70% c’est acceptable pour la météo, pour une recherche sur Google mais pas en médecine.

Toutefois, c’est évident qu’il y a des données pour lesquelles on ne parviendra pas à un tel taux du fait de leur nature même. Par exemple, c’est le cas de la réponse au traitement. Même un médecin quand il lit un dossier médical, il ne comprend pas toujours, notamment du fait de l’interprétation des différents médecins qui sont intervenus. Mais pour d’autres informations, c’est possible.

Il faudra donner aux médecins une information sur la qualité de la donnée également. La POC, n’a pas été mise à la disposition des médecins car elle avait un taux d’erreur trop élevé. La qualité des données est cruciale.

Public : Sur la recherche, Google utilisait l’idée de recherche par mots clefs pour faire une bonne indexation mais des sites webs ont joué sur les mots clefs pour être référencés dans les premiers. Serez-vous capables d’avoir une rigueur scientifique pour mettre les mots clefs importants en tête de liste ou avec abstract pour mieux indexer les recherches scientifiques ? Y aura-t-il cette même demande pour les médecins et les laboratoires de recherche ?

AL : Oui mais on ne sait pas comment on va faire exactement. Par exemple, une information qui vient d’un dossier structuré dont on sait qu’il a été revu et a une importance plus grande et on pourra lui apporter une valeur informationnelle élevée. Par contre, à un compte-rendu de médecin mal tapé, etc., on ne lui donnera pas la même valeur. Pour pouvoir donner une information de qualité, on ne va pas utiliser les données de façon équivalente.

Public : Le deep learning ne vient-il pas en opposition avec un ordinateur qui apprend, avec une interaction, avec un modèle qui petit à petit créé lui-même une architecture, un raisonnement qui lui permet de trouver les bonnes solutions ?

AL : Depuis le début du projet ConSoRe, on déjà changé deux fois de stratégie et on sera peut-être obligé de changer à nouveau si l’évolution de la technologie permet de faire mieux. Pour cette raison, il est nécessaire de travailler avec des chercheurs en informatique et en mathématiques. Les choses vont extrêmement vite. Il faut être très réactif quant aux évolutions possibles.

Public : Comment procédez-vous quant à la désidentification de toutes les données ?

AL : La désidentification des données de l’hôpital est possible mais complexe. Cette désidentification est notamment nécessaire pour répondre au problème de l’accès aux données : il faut désidentifier les données car elles sortiront de l’hôpital.

De plus, la désidentification est fondamentale car il est possible d’être retoqué par la CNIL même si elles ne sont qu’indirectement nominatives.

Public : Avez-vous connaissance d’un projet équivalent à l’international et quel est son niveau de maturité par rapport à vous ?

AL : Oui, il y a un projet de ce type porté par Gustave Roussy qui travaille sur les mêmes sujets. Néanmoins, l’Institut Curie s’est débrouillé pour que, à part Gustave Roussy, les équipes qui travaillent dans ce domaine fassent parties du consortium. C’est nécessaire pour être plus fort sinon ce sont de très petites équipes face à un sujet très complexe. Il y a un intérêt à travailler ensemble. Quant à la dimension internationale, la France, même s’il y a des projets similaires dans le monde, a des atouts énormes.

Public : Même si les données sont agrégées, il est quasiment possible de les réidentifier. Que faire ?

AL : La CNIL est bien consciente du problème. Les nouvelles technologies qui apparaissent, par définition, n’existaient pas il y a cinq ou dix ans. Le problème est donc complètement différent aujourd’hui. Il n’est d’ailleurs pas que national. Les réponses doivent être internationales. Il faut discuter avec la CNIL pour essayer de trouver, avec elle, les bonnes techniques pour protéger chaque individu. Ce problème d’anonymisation complète n’est pas résolu aujourd’hui. Il va falloir le faire sinon le citoyen pourra refuser que ses données soient utilisées ou bien, le législateur l’interdira. Il faut établir les conditions de la confiance pour éviter le risque.

Par exemple, on peut imaginer qu’un assureur, utilisant des données personnelles, tombe sous le coup de la loi et ait à payer une amende importante et dissuasive. C’est la loi qui doit intervenir.

Public : En terme de calendrier, à quelle échéance le service sera-t-il disponible ?

AL : ConSoRe, la version d’Unicancer, est en cours de réalisation. ConSoRe V1 pour cinq hôpitaux est prévu pour fin 2016. ConSoRe+, pour l’Institut Curie uniquement, c’est également pour fin 2016 et, si cela fonctionne bien, il sera proposé à la communauté scientifique en 2017.

Public : C’est un projet qui va utiliser de la donnée mais qui va aussi en générer (requêtes, résultats donnés). Avez-vous prévu une sorte de feedbacks par rapport à la pertinence de certains résultats ?

AL : Quand cela sera mis en place et entre les mains des médecins et des chercheurs, et que les données seront ouvertes, que les procédés d’interrogation seront quasi infinis, je fais confiance aux utilisateurs pour imaginer la création de nouvelles entités. J’ai le sentiment qu’on va voir apparaître de nouvelles maladies car on pourra mieux identifier certaines maladies, dont on a aujourd’hui seulement l’expérience en tant que médecin. Il y aura création de nouvelles entités et de nouvelles maladies.

ConSoRe dispose d’un système back office qui enregistre et permet d’analyser les habitudes de recherche utilisateurs, les réponses produites. L’objectif est de pouvoir étudier les différentes recherches faites, les résultats produits et d’affiner tous les résultats qu’on obtiendra par la suite car on sait que la pertinence des résultats ne sera pas de 100% dans l’immédiat. On dispose d’un panel d’utilisateurs témoin qui n’est, aujourd’hui, pas suffisant pour pouvoir exploiter au mieux les résultats. Le système back office doit permettre de faire ça.

Rejoignez la communauté Meetup, Twitter & Facebook.

One clap, two clap, three clap, forty?

By clapping more or less, you can signal to us which stories really stand out.