News
Members
Publications
Software / Data
Job offers
Images / Videos
Collaborations
Conferences
Lab meetings: "Les partages de midi"
Practical information
Members Area
Next conferences we are in …
This is an old revision of the document!
C'est l'occasion pour les personnes de l'équipe de se retrouver autour d'une question scientifique (45 minutes), de discuter de la stratégie de l'équipe (15 minutes) tout en partageant un repas ensemble. La première partie doit nous retrouver tous. La deuxième partie est ouverte à tous, sans obligation de présence.
Un membre de l'équipe prépare une présentation scientifique de 30 minutes : travaux en cours, bilan sur une question, retours sur une conférence… Les interventions peuvent se faire en anglais. Les autres membres de l'équipe participent de manière bienveillante et constructive.
Quelques règles de vie :
Présenté par : Raphael Sznitman, head of the Ophthalmic Technology Laboratory (ARTORG Center, University of Bern, Switzerland)
From centimeter-sized observations visible in endoscopy to nanometer large intra-cellular structures discernible with Electron Microscopes, searching and locating objects of interest in images is a central problem in medical image computing. If anything, the need for efficient object detection techniques has never been higher due to the advent of cheaper and ever more sophisticated imaging devices, able of amassing unprecedented quantities of data. And while established search paradigms are showing their limits, faster methods capable of dealing with larger quantities of data are now indispensable. In this talk, I will present a computational framework for object detection with efficiency at its core. This framework, a Bayesian formulation of the traditional “twenty questions” game, considers a sequential strategy for evaluating different parts of the image data in order to locate the object effectively. In this context, we will see how dynamic programming and information theory can be used to characterize a provably-optimal search strategy that is both simple to compute and greedy in nature. Using these results, I will then show how this framework can be used to solve traditional object detection and tracking problems, as well as non-rigid registration of multimodal multi-scale image data, allowing for more accurate solutions and large problems to be tackled.
Présenté par : Ingerid Reinertsen, senior research scientist from SINTEF (Trondheim, Norway)
The presentation will focus on image guided interventions in the context of neurosurgery, laparascopic surgery, bronchoscopy and anaesthesiology. Related topics are software development, image processing and machine learning applications.
Présenté par : Bernard Gibaud
La présentation originale a été faite par Stefan Schulz (Graz, Autriche) durant les Journées Françaises sur les ontologies octobre dernier. Lien vers la présentation : http://user.medunigraz.at/stefan.schulz/presentations/2016_Ontologies_Formelles_Vices_et_Vertus.pptx Lien vers le site de l'auteur : http://user.medunigraz.at/stefan.schulz/
Discussion entre les membres de l'équipe
Présenté par : Olga Dergachyova
The present work aims at discovering which sensors and signals would facilitate recognition of low-level surgical activities, usually represented by the following elements: verb describing a performed action, surgical instrument and operated anatomical structure. We hypothesized that activity recognition does not require sensors for all three elements. We conducted a large-scale study using deep learning on semantic data of 154 interventions from four different surgical procedures. The results showed that the instrument and the verb encode similar information. Thus, only one is needed to be tracked, preferably the instrument. The anatomical structure provides some unique cues. Thereby, a sensor capturing it is indispensable. For all studied procedures, a combination of two elements, one being the structure, is sufficient to confidently recognize activity. To the best of our knowledge, this is the first study examining the importance of input signals and information to the process of low-level surgical activity recognition.
Présenté par : Javier Rojas Balderrama, PhD
Présenté par : Arnaud Huaulmé
Les événements indésirables (EIs) sont devenus une vraie préoccupation du monde médical, leur réduction étant recherchée pour assurer la meilleure sécurité possible pour les patients. Les événements indésirables sont, selon la HAS, ‘‘des situations qui s'écartent de procédures ou de résultats escomptés dans une situation habituelle et qui sont ou qui seraient potentiellement sources de dommages’’. Alors que les événements indésirables postopératoires sont étudiés depuis de nombreuses années, ceux ayant lieu au cours des opérations ne le sont que depuis récemment, comme le montre la récente classification des événements indésirables intraopératoires par Kaafarani et al. publiée en 2014. Cependant, la classification d'événements indésirables intraopératoires n'est que la première étape pour comprendre les comportements chirurgicaux qui les entraînent.
Dans cette thèse, nous présenterons des méthodes pour détecter l'apparition de déviations dues à l'apparition d'événements indésirables intraopératoires et pour identifier des comportements chirurgicaux à partir de modèle de processus chirurgicaux.
Ce travail a nécessité de concevoir et développer une modélisation formelle de la rectopexie et des événements indésirables qui sont associés à cette procédure chirurgicale grâce à la mise en place d'ontologies. Cette modélisation formelle nous a permis de bien appréhender le principe de cette opération et de fournir un vocabulaire permettant une annotation détaillée de vidéos endoscopiques de rectopexies, afin de créer des modèles de processus chirurgicaux en jeu.
Grâce à l'annotation des vidéos chirurgicales basée sur cette modélisation, nous avons développé une méthode de détection automatique des déviations dues à l'apparition d'événements indésirables. Cette méthode est basée sur un alignement temporel non linéaire multidimensionnel, que nous avons développé, suivi d'un modèle semi-Markovien caché que nous avons entraîné pour déterminer s'il existe des déviations par rapport à une chirurgie de référence et si celles-ci sont dues à des événements indésirables.
Cette détection de déviations dues aux événements indésirables est la première étape afin de comprendre les raisons de leurs apparitions. Nous émettons l'hypothèse que leurs apparitions peuvent être expliquées par une succession d’activités, c'est-à-dire un pattern. Pour répondre à cette hypothèse, nous avons mis en place une méthode de découverte de patterns permettant d'identifier les comportements chirurgicaux spécifiques à différents critères. Cette identification de comportements chirurgicaux est réalisée par une classification ascendante hiérarchique avec la mise en place d'une nouvelle métrique basée sur les patterns partagés entre les chirurgies. Afin de valider notre méthode, nous l'avons comparé à deux études mettant en évidence des différences de comportements chirurgicaux, par exemple entre différents sites chirurgicaux ou entre deux types de procédures de la même opération. Une fois la méthode validée, nous avons utilisé notre méthode afin de montrer s'il existait des comportements chirurgicaux spécifiques à des données préopératoires et à l'apparition d'événements indésirables.
Présenté par : Chantal Julliard
Présenté par : Jonathan C. Lau, MD, Neurosurgery Resident at Western University (London, Canada)
We are pleased to receive Jonathan C. Lau, MD visiting Rennes. Having a background in Computer Science and Biomedical Engineering, Jonathan is an active collaborator with the VASST laboratory of Terry Peters. His current research goals are to develop and validate image processing software for neurosurgical applications to facilitate improved characterization of neurosurgical illnesses using computational modeling techniques and the development of a framework for improved surgical planning and intra-operative neuronavigation.
Présenté par : Marie-Stéphanie Bracq
Marie-Stéphanie Bracq is a newcomer PhD student preparing a thesis in collaboration of CRPCC (Psychology Research Center, Cognition and Communication, University of Rennes 2) and MediCIS team, co-directed by Pierre Jannin and Estelle Michinov. Her thesis is about the assessment of scrub nurses non-technical skills in a collaborative learning virtual environment. Her PhD work lies in the context of SUNSET project (Scrub Nurse Non-Technical Skills Training System) which is the continuation of S3PM project (Synthesis and Simulation of Surgical Process Models). The objective of her current work is to measure acceptance of S3PM virtual environment by surgical scrub nurses before deploying it for training. Marie-Stéphanie will make a presentation introducing her thesis. The title of her talk is “Measuring the acceptance of S3PM by scrub nurses”. The idea of measuring the acceptance of the proposed training technology is to be able to predict its use intentions and understand possible brakes stopping from its application. She will also present 2 models: 1) TAM: Technology Acceptance Model by Dabis (1989), and 2) UTAUT: Unified Theory of Acceptance and Use of Technology by Vankatesh (2003, 2012), as well as inqueries used for expiriments with S3PM.
Présenté par : Professeur Makoto Hashizume (Université de Kyushu, Japon)
Nous avons le plaisir d'accueillir le Professeur Hashizume de l'Université de Kyushu. Il nous présentera la partie robotique d'un énorme projet national qui regroupe toutes les principales équipes de recherche japonaises de notre domaine, projet dont il est le porteur.
Présenté par : Professor Hideaki Haneishi (Center for Frontier Medical Engineering, Chiba University, Japan)
Interventional radiology (IVR) with catheter is a useful, less invasive procedure for diagnosis and treatment of diseases in thoracoabdominal organs such as liver. However, such organs are always moving due to respiration, which makes the catheter operation difficult. Patients breath holding is a solution but some patients including elder people sometimes cannot hold the breath. Image processing for visualizing high contrast vessel pattern without breath holding is highly desired in this field. Digital subtract angiography (DSA) is one of imaging methods using X-ray image and is commonly conducted to clearly visualize the vessels during intervention with a catheter. But DSA requires breath-holding. Thus, non-breath-hold DSA is very attractive.
Two methods for angiogram image processing are presented for catheter guidance in thoracoabdominal region. One is roadmap generation from angiogram motion picture. The other is respiration-synchronized real-time generation of angiogram from fluoroscopy images. Both methods utilize fluoroscopy and/or angiography motion pictures and generate blood vessel enhanced images to assist physician’s catheter control and guidance of catheter feeding. The first method was tested by 53 patient data and the second method was tested 12 patient data. Through the experiments with patient data, the effectiveness of the proposed methods was confirmed.
We present two methods of angiogram generation. One is roadmap generation from angiogram motion picture. The other is respiration-synchronized real-time generation of angiogram from fluoroscopy images. In terms of the first method, we use consecutive angiographic images including respiratory motion and heartbeat. The method consists of blood vessel enhancement and artifact removal. Robust principal component analysis (RPCA) is used to enhance blood vessel information from consecutive angiographic images. RPCA separates the consecutive images into a low-rank component and a sparse component. The information of contrast media is included into the sparse component. We applied the proposed method to 53 sets of angiographic images and confirmed that the proposed method using RPCA more effectively enhanced the blood vessels than the conventional subtraction method. In terms of the second method, a respiratory synchronized DSA generation based on a respiratory phase matching is performed. Pre-operative angiographic images under natural respiration and intra-operative fluoroscopic image under natural respiration during the operation are used. For each fluoroscopic image, the proposed method chooses an angiographic image in the most similar respiratory phase by a pattern matching technique in real time. We conducted two kinds of experiments to confirm that the proposed method can be used as the free breathing DSA and the respiratory synchronized roadmap. The result showed that the proposed method can produce fine DSA without breath-holding and the processing can be done in real-time.
Respiratory phase matching method was proposed for generation of free breathing DSA. Acceptable fine DSA could be obtained without breath-holding by using proposed method. We also have proposed a blood vessel enhancement method using consecutive angiographic images with respiratory motion and heartbeat. The proposed method is composed of robust principal component analysis and a deformation technique to extract blood vessel pattern from angiographic images. We applied the proposed method to 53 patient data. In most cases we confirmed that artifacts by difference between live images and mask images were reduced by the proposed method.
As future works for the first method, we will evaluate the clinical value. As future works for the second method we will apply the method to clinical data more and more and obtained feedback from physicians side so that the method will be improved for clinical practice.
Présenté par : Frederic Monge
Les gliomes sont des tumeurs cérébrales primitives représentant le deuxième cancer le plus fréquent chez l’enfant et la troisième cause de mortalité chez l’adulte jeune. Il a été démontré qu’une chirurgie d’exérèse tumorale permet d’augmenter la qualité et la durée de vie du patient, voir même dans certains cas, d’obtenir sa guérison. L’identification intraopératoire des résidus tumoraux permettrait au chirurgien de vérifier, in situ, la qualité de son geste d’exérèse. Une nouvelle modalité d’imagerie intraopératoire a été proposée comme solution pour détecter les tumeurs résiduelles. Elle se base sur l’utilisation d’une sonde nucléaire combinée à un système de localisation optique. Cette nouvelle modalité, appelée imagerie surfacique de positons (ISP), permet la génération d’images de la distribution surfacique d’un radiotraceur comme le 18F d’une zone d’intérêt scannée. L’ISP n’étant actuellement pas utilisée en clinique, nous proposons pour la première fois une étude de faisabilité de son utilisation pour l’optimisation de la chirurgie des tumeurs cérébrales. Nous montrons les limites de l’utilisation potentielle de l’ISP dans un contexte neurochirurgical par des études expérimentales en considérant des facteurs intraopératoires pouvant influencer la qualité des images générées par le système. Les contributions présentées se concentrent sur trois axes. Dans un premier temps, nous souhaitons obtenir des images fonctionnelles d’ISP avec un temps de calcul faible. L’application de modèles d’acquisition aux mesures permettent d’améliorer la qualité des images, au détriment d’un temps de calcul élevé. Nous suggérons un nouveau modèle d’acquisition dédié au contexte intraopératoire, permettant l’amélioration de la résolution et du contraste des images pour un temps de calcul réduit. Un deuxième axe est dédié à l’étude de l’impact d’une acquisition intraopératoire sur les performances du système. Nous proposons l’estimation des paramètres intrinsèques de la sonde nucléaire utilisée et de l’influence de la hauteur du processus de scan sur leurs valeurs. Le dernier axe est consacré à la validation de modèles d’acquisition dans le contexte intraopératoire. Nous présentons une étude comparative des performances de modèles d’acquisition en considérant l’impact potentiel de la vitesse de scan durant l’acquisition. L’ensemble de ces travaux a contribué à l’étude de faisabilité de l’utilisation d’un système d’ISP en intraopératoire, proposée pour la première fois en neurochirurgie.
Présenté par : Xiongbiao Luo
Da Vinci robotic prostatectomy that is increasingly performed for minimally invasive prostatic tumor resection uses stereoscopic laparoscopes to intuitively visualize the organ surface in the body and manipulate various surgical tools under the insufficient light sources and the relatively narrow field of view of the binocular stereoscopic laparoscope that usually limits the visualization on the organ being operated on and its anatomical surroundings. Surgical vision augmentation in accordance with non-uniform illumination correction, fast visibility-contrast fusion defogging, motion magnification, and surgical filed 3D reconstruction techniques to maintain and augment a clear field of in-situ direct vision in robotic prostatectomy is paramount not only for safety by preventing inadvertent injury, but also to improve precision and reduce operative time.
Présenté par : Guillaume Claude
Un environnement virtuel interactif à lui seul ne permet pas de répondre à tous les besoins liés à son utilisation. Dans le cadre de la formation par Réalité Virtuelle, un cadrage de l’activité de l’apprenant est important pour offrir une formation efficace. Le problème est le même dans les fictions interactives : seul, l’environnement n’offre qu’un intérêt limité. Nous nous intéressons ici au problème de la spécification du séquencement des actions dans un environnement collaboratif. Il s’agit de définir puis de contrôler ce qui peut ou doit se passer au cours de la simulation dans un contexte potentiellement multiutilisateur. Ceci passe, entre autres, par la spécification (puis l’exécution) d’un ensemble de scénarios possibles lors d’une session de simulation ainsi que par la distribution des actions réalisables entre les différents acteurs (réels ou virtuels) intervenant dans la simulation.
Cette présentation reprend les travaux de thèse de Guillaume, réalisée dans le cadre du projet de rechercheS3PM du labex Cominlabs.
Présenté par : Chantal Julliard
Chantal did her studies in Mechanical Engineering at the Karlsruhe Institute of Technologies in Germany focusing on Biomedical Engineering. In her Master’s thesis she worked on medical ontologies and during her PhD she will work on Modelling Surgical Gestures for a Man-Machine Collaborative Training. Within her presentation she will share her master project and explain why and how to design a good ontology, particularly for laparoscopic surgeries.
Présenté par : Olga Dergachyova
Le deep learning (apprentissage profond en français) est un ensemble de méthodes d'apprentissage automatiques tentant de modéliser avec un haut niveau d’abstraction des données grâce à un graph profond avec multiple couches de traitement composées de nombreuses transformations linéaires et non-linéaires. Ces tecniques ont démontré qu'elles étaient capables de produire d'excellents résultats pour différentes problématiques dans des champs d'application tels que la vision par ordinateur, la reconnaissance automatique de la parole et du langage naturel.
Dans ma présentation je vais me concentrer sur le réseau neuronal convolutif (CNN), le type de réseau de neurones le plus utilisé actuellement. Je vais introduire le concept général, parler de la structure du réseau et de son apprentissage. Ensuite je présenterai les problèmatiques et les directions de recherche les plus vives dans ce domaine, ainsi que des exemples d'application.
Présenté par : Pierre-Louis Hénaux
The talk will consist of three parts:
Présenté par : Emna Amdouni
Le National Institute of Health a souligné le besoin de définir un vocabulaire lié au domaine des biomarqueurs d’imagerie afin de lever les ambiguïtés qui affectent ce concept. Plusieurs initiatives en ce sens ont émané de la part de diverses communautés (recherche en imagerie, radiologie, génétique, gestion des connaissances, etc.). Toutefois, jusqu’à aujourd’hui, aucun de ces travaux n’a réussi à répondre parfaitement à cette question. Notre travail vise à proposer une nouvelle façon d’aborder ce problème de représentation des biomarqueurs d’imagerie fondée sur les technologies du web sémantique 3.0 et consistant à définir explicitement les entités du domaine à couvrir grâce à des ontologies. Dans notre travail, nous proposons une ontologie générique intitulée «Imaging Biomarker Ontology» (IBO) qui définit les trois principaux aspects liés au concept de biomarqueur d’imagerie et qui sont: la qualité biologique mesurée, l’instrument de mesure et l’outil d’aide à la décision. Cette ontologie est une extension d’autres ontologies provenant de l’«Open Biological and Biomedical Ontologies Foundry». Elle a été, également, utilisée pour représenter des biomarqueurs d’imagerie (quantitatifs et qualitatifs) employés dans le domaine des gliomes cérébraux. Actuellement, nous travaillons sur la représentation sémantique des structures pathologiques et anatomiques qui sont présentes dans les IRMs cérébraux. Pour ce faire, nous avons choisi comme référence la terminologie VASARI qui fait intervenir des scores qui décrivent des qualités qualitatives et quantitatives.
Présenté par : Sébastien Muller
Le but est l’identification de changements de phases chirurgicales lors d’interventions simples avec un nouvel ustensile (Multiguide) pour guider des injections et/ou biopsies. Les actions qui en découlent sont simplement de mettre à jour le système de navigation avec l’information la plus pertinente pour le chirurgien.Des atributs ont été définis basés sur des interventions simulées sur fantôme. Leur pouvoir de classification a été testé sur 25 séries réparties sur 5 opérateurs (3 chirugiens, 2 ingénieurs ayant connaissance de l’intervention). Nous avons testé la validité interne et externe des classifications. Des résultat préliminaires seront présentés.
Présenté par : Arnaud Huaulmé
Présenté par : Matthew Holden
Develop of a virtual training course with an objective evaluation is of a high importance for improvement of planning skills of trainees in DBS. The software measures the performance of trainee based on two criteria : quality of trajectory and planning process, and provides an useful feedback to guide the trainee towards a good trajectory and acquire more experience in trajectory definition.
Présenté par : Olga Dergachyova
ADCAS is a platform developed within the MediCIS team for detection of surgical workflow. The software is coded in C++ with use of Python scripts. Its pipeline includes 4 applications: data formatting, training, recognition and evaluation. The data formatting serves to process and transform the signals acquired in the OR in a appropriate and convenient format for the further use. It also creates two data sets: for training and for tests. The training application extracts features from input data in order to describe it and then learns a model of a chosen classifier to be able to distinguish surgical processes. The recognition application, the heart of the pipeline, predictes the workflow label of each test sample. The evaluation application allows to asses the performancies of the trained model and the choosen strategy. The whole platforme is highly modular based on a plugin system.
Présenté par : Valeria De Luca
Valeria is Postdoc researcher in Computer Vision Laboratory and ETH Zurich (Switzerland) working on machine learning in neurointensive care. The presented us her two projects: one made during her PhD thesis and one she is actually managing. The first project on liver ultrasound proposed generalized solutions for cancer treatments. The second project is for neurointensive care (ICU Cockpit) solution to specific clinical questions.
Présenté par : Sébastien Muller
Sébastien Muller vient du département de technologie médicale à la SINTEF et de l'institut de neuromédecine de l'université technologique NTNU à Trondheim, Norvège. Il est à Rennes afin de travailler sur de la modélisation de processus chirurgicaux dans le cadre d'une intervention appliquant un nouvel outil chirurgical pour guider des injections et biopsies. Le travail portera sur de la reconnaissance de gestes pour reconnaître les phases de l'intervention et mettre à jour le système de navigation avec l'information la plus pertinente pour le chirurgien. Durant son discours il nous a présenté le système de navigation CustusX et un outil développé à la SINTEF destiné à l’injection du toxine botulique dans un ganglion cervicale responsable de migraines fréquentes. Le défi est de reconnaître automatiquement les étapes principales de l’intervention afin de pouvoir mettre à jour la visualisation du navigateur selon les gestes du chirurgien.
Présenté par : Yulong Zhao
Formal language theory is concerned with the specification and manipulation of sets of strings of symbols, i.e., languages. Formal language theory is the heart of modern compiler architectures, regular expressions, parsers, web-scrappers, natural language processing (NLP), state machines based on markov chains, pattern matching.
Présenté par : Matthew Holden
To augment expert supervision during medical intervention training, the use of computer-assisted training systems has been proposed. To be an asset in the training process, such systems should provide feedback to the trainee in the form of either skill evaluation or context-sensitive instruction. In this work, we address a key challenge in providing context-sensitive instruction during an intervention: identifying which task in the intervention's workflow the operator is performing. To this end, we have developed an intervention-independent algorithm which determines the ongoing task in real-time for interventions with arbitrary task ordering and repetition. The algorithm has been validated on two intervention datasets: freehand lumbar puncture and ultrasound-guided epidural. Relative to expert observer consistency, the proposed algorithm exhibits a mean accuracy of 93%. We suggest that this algorithm has sufficient task identification accuracy for use within a system which provides automated instruction to augment expert supervision in the training process. The proposed algorithm is implemented within the open-source Perk Tutor training platform (www.perktutor.org) for image-guided intervention training.
Présenté par : Germain Forestier
The goal of Surgical Process Modeling (SPM) is to support surgery through the quantitative analysis and understanding of operating room activities. This field is in constant growth with the increasing amount of data acquired in operating rooms. In this talk, I will give an overview of the work we carried out in the past few years on using sequence analysis to exact knowledge from recordings of surgical activities. I will highlight how we used and adapted Dynamic Time Warping (DTW) algorithm to automatically identify and understand complex surgical behaviors. I will also present our recent work focusing on the prediction of surgical activities and surgical phases. Finally, I will briefly discuss my other research interests including ontology engineering and pathology image analysis using deep learning.
Présenté par : Guillaume Dardenne
La modélisation des procédures chirurgicales (Surgical Process Modelling, SPM) ouvre des perspectives extrêmement intéressantes tant sur la formation des chirurgiens, que sur l'assistance optimisée au bloc opératoire, ou bien encore la mesure d'indicateurs qualité pertinents associés à une procédure chirurgicale. Outre ces perspectives, l'utilisation de ces modèles en routine clinique ou pour la formation est encore timide. Ceci peut s'expliquer par la non-standardisation de ces modèles et le manque d'outils adaptés qui répondent réellement aux exigences et aux contraintes du milieu chirurgical. Il existe par conséquent tout un travail de recherche à mener sur la standardisation de ces modèles mais également sur le développement d'outils innovants utilisables dans le contexte chirurgical et s'appuyant sur des modèles à priori de chirurgie. Nous allons ici vous présenter la suite logicielle SurgeSuite développée au sein de l'IRT b<>com en collaboration avec l'équipe MEDICIS. Cette suite est composée des logiciels : SurgeTrack pour l'enregistrement et l'analyse de modèles chirurgicaux ; SurgePlan pour la préparation d'une chirurgie ; et enfin, SurgeLive pour l'assistance au bloc opératoire. Nous réaliserons une démonstration des logicielles SurgeTrack et SurgePlan en cours de test sur plusieurs sites ; et nous vous présenterons le concept associé au futur logiciel SurgeLive.
Présenté par : Olga Dergachyova
The operating room is a high-risk and dynamic environment. Thus, improved integration of high technology, along with enhancement of teamwork, and coordination between services are essential to improve patient safety and comfort, augment efficiency and reduce the cost of care. A new paradigm called Operating Room of the Future has been introduced into the clinical environment. It aims to extend the perception and action of surgical staff. The realization of the this concept requires a context-aware system which understands actions and events having place in OR and descover the surgical workflow. In this presentation we describe knowledge-based method for surgical wokrflow detection and propose novel metrcis adapted for assesment of systems performing wokflow analysis.
Présenté par : Pierre-Louis Henaux.
Non Technical Skills (NTS) in surgery can be assessed by external rating scales (NOTAS, NOTSS, NOTECHS). These scales seem to be well adapted to assess the interpersonal skills but incomplete to fully evaluate cognitive skills. Cognitive skills are indeed often non-verbalized and lack behavioral markers to decrypt them. Each surgeon has a different character and do not necessarily express orally all questions he may have during the intervention. Furthermore the emotional context and workload (mental readiness and workload distribution) of the surgeon may not be known by the team during the surgery. For example during an operation, the surgeon may have a family annoyance that will impact his mental readiness. It may be in a period of extreme fatigue or even himself having a disease (more or less severe) without be off work. Furthermore he may also have other professional events with deadlines to keep (teaching or research) forcing him to adapt his workload distribution and decreasing his mental readiness. Another example is interventions over a single day concatenation with a first intervention that goes wrong and a patient who has an adverse event (vital event or serious functional impairment) while the surgeon is performing a second surgery. All these factors can not be accurately described with simple generic scales. So it seems essential, for having a complete analysis of the NTS, to include a qualitative analysis of interviews with the surgeon after his intervention. A constructivist grounded theory study is an alternative to accurately analyze all these cognitive skills involved during the procedure.
Présenté par : Matthew Holden.
With the recent shift of medical education to a competency-based model, the use of objective measures of skill and automatic feedback systems has become increasingly important. This presentation will outline the Perk Tutor platform for image-guided intervention training (www.perktutor.org). The Perk Tutor is a free, open-source resource designed to facilitate medical education research and the development of image-guided intervention training curricula. The platform has been validated for both performance evaluation and automatic workflow analysis in a variety of applications, including spinal, central line, and prostate interventions.
Présenté par : Arnaud Huaulmé.
Une opération chirurgicale ne se déroule pas toujours comme escompté. Celle-ci peut être perturbée par les spécificités du patient qui viennent modifier le planning, mais aussi par des événements indésirables pouvant avoir de lourdes conséquences. A partir des modèles individuels des procédures de rectopexie (iSPM), nous essayerons de détecter ces éléments en combinant l'utilisation d'une méthode d'alignement de séquence non-linéaire (NLTS) et des modèles semi-markovien cachés (HsMM).
Présenté par : Javier Rojas Balderrama.
presentation_jrb_chemistry-inspired_adaptive_stream_processing.pdf
Présenté par : Frédéric Monge.
Geant4 is a toolkit for the simulation of the passage of particles through matter. Its areas of application include high energy, nuclear and accelerator physics, as well as studies in medical and space science.
GATE is an advanced opensource software developed by the international OpenGATE collaboration, based on Geant4 and dedicated to numerical simulations in medical imaging and radiotherapy. It currently supports simulations of Emission Tomography (Positron Emission Tomography - PET and Single Photon Emission Computed Tomography - SPECT), Computed Tomography (CT) and Radiotherapy experiments. Using an easy-to-learn macro mechanism to configurate simple or highly sophisticated experimental settings, GATE now plays a key role in the design of new medical imaging devices, in the optimization of acquisition protocols and in the development and assessment of image reconstruction algorithms and correction techniques. It can also be used for dose calculation in radiotherapy experiments.
Présenté par : David Bouget, Ph.D.
David nous a exposé l'intérêt du passage du CPU au GPU pour les calculs parallèles notamment en comparant leurs structures et capacités de calcules. La base et le modèle de programmation ont été également présentés. Les configuration d'exécution, navigation entre les threads, accès au mémoire et fonctions kernel ont été examinés.
Présenté par : Munenori UEMURA Ph.D., As.P.E.Jp. Center for Advanced Medical Innovation Kyushu University - Kyushu University Hospital, Fukuoka, Japan.
Présenté par : Cedric Penet, PhD.
Présenté par : Louis Collins, Prof. PhD. Montreal Neurological Institute - McGill University, Quebec, Canada.
Présenté par : Fabien Despinoy, Phd student LIRMM - Département Robotique, équipe DEXTER.
Présenté par : Barthélemy Serres, Phd - Post doc UMRS U930, Inserm/Université de Tours - “Imagerie et cerveau”.
Présenté par : Rina Zelmann, PhD The McConnell Brain Imaging Center Montreal Neurological Institute, McGill University, Quebec, Canada.
Présenté par : Bernard Gibaud.
Présenté par : Gregory Laheurte.
Présenté par : David Bouget.
Présenté par : Pierre Jannin.
Présenté par : Frédéric Monge.
Présenté par : Pierre-Jean Le Reste.
Présenté par : Bernard Gibaud.
Présenté par : Tristan Moreau.
Présenté par : David Bouget.
Présenté par : Pierre-Jean Le Reste.
Présenté par : Gregory Laheurte.
Présenté par : Bernard Gibaud.
Présenté par : Florent Lalys.
Présenté par : Tiziano D'Albis
Abstract: A first step towards a better understanding of clinical outcomes and side-effects of Deep Brain Stimulation (DBS) consists in the estimation of the volume of neural tissue affected by the stimulation. Since this estimation is currently experimentally difficult, computational models have been proposed to shade light on this topic. The problem can be subdivided in two steps: 1) modeling of the potential field generated by DBS electrodes within the patient brain and 2) modeling of the neural response to this field. In this talk I review the current approaches found in literature for solving these two problems, with particular enphasis on the modeling of the potential field.
Présenté par : Pierre Jannin.
“Secrétariat MediCis - L'administratif et vous”
Présenté par : Noémie Buisard
Présenté par : Tiziano D'Albis
Abstract: High frequency Deep Brain Stimulation (DBS) has been demonstrated as an effective minimally invasive surgical treatment for treating motor related diseases, e.g. Parkinson Disease, Essential Tremor, Tourette’s syndrome. The quality of clinical improvement, as well as the presence of side effects, strongly depend on the accuracy of electrode placement. Stimulation targets, however, are often difficult to localize from patient images and the choice of an optimal implantation trajectory is a time-demanding and tedious task. To support suregeons during DBS surgical planning we build patient-specific and generic models of anatomical and clinical data and automatically compute electrode trajectories from these models. In this talk I will give a general overview of our work on DBS surgical planning, focusing on the construction of an anatomical patient-specific model from multimodal images.
Présenté par : Frederic Monge.
Présenté par : Tristan Moreau.
Présenté par : Martin Ragot.
Présenté par : Lu ZHANG-GE, Doctorante, LISA - Université d'Angers
Présenté par : Giulio Gambarota, Professeur, LTSI - Rennes
Présenté par : Sophie Le Bris et Dominique Martin. Centre de Recherche en Économie et Management, Unité Mixte de Recherche du CNRS qui associe des chercheurs du CNRS, de l’Université de Caen Basse-Normandie, et de l’Université de Rennes 1. http://www.ecole-navale.fr/Sophie-Le-Bris.html
Présenté par : Daniel RACOCEANU. CNRS et Université Pierre et Marie Curie, Université Nationale de Singapour, Image & Pervasive Access Lab – IPAL, UMI CNRS, Singapour. http://ipal.i2r.a-star.edu.sg/
L’intervention proposée est structurée en 3 parties :
1. Présentation de l’Unité Mixte Internationale IPAL, basée à Singapour. URL : http://ipal.i2r.a-star.edu.sg/ 2. Exploration d’une lame virtuelle en utilisant une approche in vitro - in silico – in cognito. Application à la gradation du cancer du sein en histopathologie. Cadre : projet ANR TecSan MICO (Microscopie Cognitive) et plus récemment, le projet FUI FlexMIm URL : http://ipal.cnrs.fr/project/mico 3. Approches probabilistes avec a priori de formes, analyse 2D – synthèse 3D pour le suivi et la différentiation des cellules souches neuronales. Reconstruction 3D de neurites / neurones. Cadre : Système de microscopie intégré pour le suivi des cellules souche neuronales et pour les structures complexes 3D – Projets A*STAR (Agency for Science Technology and Research) URL : http://ipal.cnrs.fr/project/ivs4nsc
Dr. Shuo Li, Image Research Scientist, Project Manager, GE Healthcare, Adjunct Research Professor, Dept. of Medical Biophysics, Schulich School of Medicine and Dentistry, Adjunct Research Professor, Dept. of Medical Imaging, Schulich School of Medicine and Dentistry, University of Western Ontario.
Five-dimensional (5D) image processing has become a major challenge within the field of medical imaging. 5D images, i.e dynamic 3D images (4D) that are acquired at multiple times. A typical application in cardiac image analysis would include dynamic cardiac CT scans and/or gated cardiac MRI acquired at 3-monthly intervals and dynamic cell growth and shape change in weekly intervals. 4D images provide research a great assistance on analysis of the deformation and motion. The pattern of this deformation and motion can be used for recognition and diagnosis when another dimension is added. Another dimension usually comes from atlas, template, historical data and etc. After integrated with another dimensional data, the got the 5D we talk about. The correlations in 5th dimension (e.g. the pattern of deformation for dynamic cardiac CT) can be extracted for recognition, tracking and diagnosis. During presentation, a group of experiments and validation will be presented to demonstrate the strength of 5D processing in cardiac image analysis.
Dr. Hiroyuki ISHII, Takanishi-Lab, Waseda University, Dr. Takeharu HOSHI, Fujie-Lab, Waseda University.
Fujie-Lab has been developing new medical robots which are controlled using biomechanical properties of human, such as material mechanics, dynamics, thermo dynamics and fluid dynamics. This means that we transform experimental knowledge of surgeons into biomechanical quantitative properties. We will highlight some of the work carried out by us and will present how these new approach may help to improve surgical treatments.
Takanishi-Lab has been conducting research on robotic patient simulator for physicians training. We will present a new robotic simulator for suture/ligature procedures. This simulator with embedded sensors measures applied force during suturing/ligaturing and captures condition of the stitches to evaluate the performance scores for the suture/ligature process. We also will present a new humanoid for training of airway management. This humanoid mimics different kinds of patient’s motor functions in the TMJ (temporomandibular joint) and neck, where several sensors are implemented in the tongue and teeth of the humanoid to measure the applied force by trainee.
Pr. Nassir Navab : chair for Computer Aided Medical Procedures & Augmented Reality Institut für Informatik I16, TU Munich, Germany.