___________________

Séminaires 2014-2015

___________________

 

5 mai 2015

Boubaker Daachi (Chercheur au CNRS-AIST Japon et MCF-HDR au LISSI Université Paris Est Créteil)

Algorithmes de commande par la pensée de systèmes robotiques complexes

Extraire la pensée d’un opérateur humain dans le but de réaliser de nouvelles interfaces homme-machine est une thématique scientifique en plein essor avec des perspectives d’applications novatrices. Le principe consiste à interpréter les intentions de l’opérateur à partir des activités bioélectriques cérébrales que l’on enregistre via diverses technologies. Dans le cas des systèmes Brain Computer Interface (BCI) non invasifs, des électrodes sont installées sur le cuir chevelu d’un sujet. Les signaux à interpréter peuvent se distinguer selon deux catégories : spontanées et évoquées. Par exemple, lorsque le sujet utilise une interface visuelle pour stimuler la rétine, on parle de BCI évoquée. En revanche lorsqu’aucune stimulation n’est prévue et l’utilisateur pense normalement à des actions à appliquer au robot, on parle de BCI spontanée. La plupart des travaux proposés dans littérature développent des algorithmes de commande par la pensée avec des BCI évoquées. Un autre volet de la commande par la pensée concerne la robustesse de l’interprétation des patterns d’activités cérébrales. Dans cette optique, la technique neuro-feedback est employée pour entraîner la pensée du sujet humain et faciliter l’interprétation de ses intentions. Le neuro-feedback peut être défini comme l’entrainement du cerveau, de fait de sa plasticité, pour apprendre de manière flexible à switcher entre différents états d’éveil et de maintenir certains d’entre eux tels que les états d’attention et de repos. Il peut être vu comme la capacité du cerveau à s’autoréguler. Plusieurs séances d’entrainement sont nécessaires au cerveau pour atteindre un effet durable.

 

16 avril 2015

Nicolas Correia

Dans les entrailles des malwares

Cette présentation sera composée en plusieurs parties. Dans un premier temps, plusieurs notions en relation avec l'analyse de malware seront abordées afin que les personnes assistant à la présentation aient une bonne idée du fonctionnement d'un malware. Dans une seconde partie, je présenterais l'analyse complète du malware gouvernemental russe "CosmicDuke" découvert en 2014. Je finirais cette présentation en exposant les résultats de mes premières analyses sur des modules du malware "Equation".

 

9 avril 2015

Rémi Cozot (MCF-HDR à l'IRISA, Université de Rennes 1)

Vers plus de contrôle pour le créateur d’images de synthèse

La création d’image de synthèse s’effectue en plusieurs étapes : 1) définition de la scène 3D ; 2) simulation physique de la lumière dans la scène dont le résultat est une image des luminances ; 3) post-traitement et adaptation de cette image des luminances au dispositif de restitution. Avec les progrès de la recherche sur chacune des étapes, le créateur d’image a une plus grande capacité et liberté de création mais en contrepartie il fait face à une plus grande complexité pour définir, configurer et régler les données et les paramètres nécessaires à la réalisation de l’image. En résumé plus les outils deviennent performants, plus le créateur risque de perdre le contrôle sur ces mêmes outils. L’ensemble des travaux présentés durant ce séminaire visent à donner aux créateurs des outils afin qu’il puisse obtenir plus facilement l’image ou les séquences: 1) langage de création de mondes 3D; 2) outils de simulation de la lumière dans les milieux participatifs; 3) modèle d’attention visuelle pour les mondes 3D; 4) autofocus intelligent; 5) outils d’adaptation des gammes de luminance; 6) outils de la colorimétrie des images calculées et 7) un système d’optimisation des sources de lumière en fonction d’une esthétique cible.

 

26 mars 2015

Amal Oudni (Doctorant au LIP6, Université Pierre et Marie Curie)

Résumés linguistiques par extraction de motifs graduels contextualisés

Les résumés linguistiques constituent une représentation linguistique décrivant un ensemble de données numériques en phrases simples, compréhensibles et facilement interprétables. Cet exposé se concentre sur les résumés linguistiques sous une forme particulière, appelée "motifs graduels", exprimant des

corrélations de co-variations des valeurs des attributs : on peut les illustrer par un exemple du type "plus l’âge du père est avancé à la naissance des enfants, plus le risque d’autisme chez les enfants augmente". Lors de mon exposé, je présenterai trois types de contextualisation de ces motifs graduels. Dans un premier temps, je décrirai le problème de motifs graduels contradictoires et une nouvelle approche permettant d’éviter toute ambiguïté entre motifs validés. Je présenterai ensuite la caractérisation des motifs graduels qui permet de faciliter l’interprétation des motifs générés en grand nombre en introduisant une nouvelle clause linguistiquement introduite par l’expression "surtout si". Je terminerai par la présentation d’une contextualisation qualifiant le mode de dépendances graduelles, en introduisant la notion d’accélération par rapport aux autres attributs. Pour chacune des formes de motifs contextualisés extraits, je présenterai une formalisation de la sémantique et l’interprétation souhaitées, des mesures de qualité pour évaluer et quantifier la validité des motifs proposés, ainsi que des algorithmes efficaces d’extraction automatique de ces motifs maximisant les critères de qualité définis.

 

12 mars 2015

Sadok Ben Yahia (Professeur à l'Université de Tunis El-Manar, Tunisie)

Calcul efficace de la stabilité des concepts formels

Dans l'ère des données massives, l'alliance de la qualité avec l'efficience pour la sélection des concepts formels « intéressants » serait une condition sine qua non. Dans ce cadre, la mesure de stabilité, de concepts formels, indiquerait dans quelle mesure l'intention de ce concept est liée à la présence d'objets particuliers dans son extension. Un concept stable possède, ainsi, une existence d'autant plus « réelle » que son intention ne dérive pas fortuitement d'une description bruitée de ses objets. Ainsi, les concepts stables sont très intéressants à localiser dans beaucoup de domaines puisqu'ils sont résistants au bruit, e.g. détection de communautés stables, classification par des classes monothétiques/polythétiques. Cependant, le calcul de la stabilité serait très couteux, i.e. exponentiel en fonction de la taille de l'extension du concept. En effet, il faudrait explorer l'espace de tous les sous-ensembles de l'extension à la recherche qui restent fidèles à l'intention du concept formel. Dans ce séminaire, nous passons en revue les très peu nombreux travaux qui se sont intéressés au calcul de la stabilité des concepts formels (organisés sous forme de treillis ou non). Ensuite, nous présentons des travaux récents sur l'exploitation des propriétés de monotonie et d'anti-monotonie des éléments clés dans l'espace de recherche. Ainsi, la saturation des cliques maximales non génératrices permet de traiter des espaces avoisinant les 2^15000. Nous montrons aussi que les identités d'inclusion/exclusion servent au calcul efficace des stabilités des concepts formels organisés sous la forme d'un treillis.

 

5 mars 2015

Larbi Boubchir (MCF au LIASD, Université Paris 8)

Informatique biomédicale pour l’aide à la décision médicale assistée par ordinateur

L’évolution technologique a conduit à des acquisitions de données biomédicales de plus en plus volumineuses, hétérogènes et complexes qui nécessitent des systèmes efficaces et rapides pour les analyser et les traiter afin d’aider les médecins à définir des diagnostics et des pronostics appropriés en temps opportun. Les systèmes d’aide à la décision assistée par ordinateur basés sur l’informatique biomédicale sont devenus omniprésents dans les milieux cliniques. Dans ce contexte, nous présentons dans la première partie de cet exposé nos récents travaux sur la détection automatique des crises d’épilepsie chez les nouveau-nés à partir des données EEG. Dans la deuxième partie, et dans le cadre de nos travaux sur l’étude de la maturation cérébrale chez le fœtus et le nouveau-né, nous présentons une nouvelle approche de clustering non-supervisé des faisceaux de fibres nerveuses de la matière blanche à partir de l’imagerie de diffusion par résonance magnétique.

 

19 février 2015

Mustapha Lebbah (MCF-HDR au LIPN, Université Paris 13)

Vers de nouveaux défis pour la fouille de données massives

L’exposé est consacré à la fouille et à l’analyse de données massives provenant de différents systèmes d’information et pour lesquelles la représentation des variables a des limites. Il existe actuellement un nombre conséquent de méthodes de clustering mais elles ne s’adaptent pas toujours aux particularités de certains types de données: catégorielles, binaires, mixtes, séquences, flux, graphes et processus métiers. On distingue 2 grandes familles de modèles de classification non supervisée: les modèles probabilistes et les modèles "déterministes". L’exposé abordera aussi des travaux sur le clustering en utilisant le paradigme MapReduce/Spark. En plus des difficultés soulevées par ces nouveaux paradigmes, le développement des approches actuelles nécessite de relever différents défis, en particulier: (i) le traitement incrémental des flux de données, (ii) la robustesse sur les données aberrantes, et (iii) la visualisation.

 

5 février 2015

Kyis Essmaeel (Doctorant au Le2i, Université de Bourgogne)

Un système Multi-kinect pour la détection et l'orientation des personnes

La détection de personnes est un domaine de recherche très important dans le monde de la vision par ordinateur. Elle est utilisée pour une grande variété d’applications telles que la surveillance médicale, l’assistance à la conduite, la robotique ou bien l’analyse du comportement. La plupart des méthodes de détection de personnes existantes se basent sur les images couleur. L’essor ces dernières années des technologies de capture de la profondeur a ouvert de multiples perspectives. L’introduction d’une caméra 3D précise mais abordable, la kinect de Microsoft, a décuplé l’intérêt pour ces technologies. Nous travaillons sur l'élaboration d'une nouvelle méthode de détection de personne qui utilise un système multi-kinect. Construire un tel système implique de répondre à plusieurs défis comme la calibration, les interférences et la suppression du bruit. La plate-forme couvre la totalité de l’environnement de travail et donc la forme 3D du sujet dans son intégralité est reconstruite. Nous avons défini un descripteur 3d original qui, combiné avec un classifieur SVM permet de détecter les personnes dans les nuages de points et de trouver leur orientation. Ce travail va servir par la suite pour le suivi et l’analyse du mouvement humain.

 

4 décembre 2014

Sylvia Chalençon (MCF au LIASD)

Modélisation, Acquisition et Interaction 3D

Ce séminaire sera l’occasion de présenter les travaux de recherche de Sylvia Chalençon, depuis sa thèse de doctorat jusqu’aujourd’hui. Son travail de thèse a permis de fournir une modélisation topologique 3D de la structure d’un textile tricoté à partir de données métier usuelles pour les tricoteurs (type de liage et caractéristiques textiles à obtenir).

 

27 novembre 2014

Besma Khalfi (Doctorante au LIASD)

Fperceptory: Approche de modélisation conceptuelle des données spatiotemporelles imprécises

Depuis 2012, le laboratoire LIASD intervient dans le cadre d’un projet interne, intitulé "Projet Ville", sur la modélisation de l’évolution de la ville de Saint Denis du passé au présent dans l’objectif de tracer sa trajectoire urbaine future, en tenant compte de la nature de l’information disponible. L’objectif de ma recherche est de construire un Atelier de Génie Logiciel basé sur l’approche F-perceptory prenant en considération les imperfections et la spatio-temporalité de l’information exploitée. L’exposé porte sur la présentation de la première étape de cette recherche et sur les résultats obtenus: focalisation sur l’implémentation d’un module complet capable de: (1) modéliser un système flou utilisant l’approche F-perceptory, (2) mapper de la modélisation floue à celle d’UML, (3) déduire le modèle logique correspond au modèle UML et enfin (4) obtenir le schéma physique relationnel (SQL) du système initial flou.