___________________

Séminaires 2015-2016

___________________

 

15 mars 2016

Jacques Perconte (Artiste plasticien)

Images et informatique

Voyage dans la démarche plastique et technique de l’artiste dont l’oeuvre explore la nature et son expression dans les images en mouvement, faisant de la relation entre l’enregistrement et sa restitution une dimension fondamentale de son travail.

 

18 février 2016

Jean Marc Montanier (Chercheur post-doctoral à Barcelena Supercomputing Center, Espagne)

Auto-adaptation des systèmes multi-agent: application à la robotique et à la modélisation

L'étude des systèmes multi-agents s'intéresse à l'étude des interactions entre plusieurs entités autonomes. Ces phénomènes émergents sont intéressant aussi bien pour des problématiques de modélisation (biologie ou science sociales) que pour leurs applications à des domaines tel que la robotique. Les techniques misent en oeuvre font appelle aussi bien aux algorithmes d'apprentissage que à l'intelligence artificielle en essaim. Parmi les phénomènes étudiés, les problèmes d'auto-adaptation et de coopération constituent un enjeu crucial. Je présenterai mes travaux sur ces deux problèmes appliqués à deux scénario différents: la création d'algorithmes auto-adaptatifs pour la robotique, et la modélisation des changements culturels et commerciaux dans la Rome antique.

 

4 février 2016

Aline Hufschmitt (Doctorante au LIASD)

Approche générale pour la décomposition de descriptions de jeux en GDL

Nous présentons l’état de nos travaux sur la décomposition des descriptions de jeux en Game Description Language (GDL). Dans le domaine du General Game Playing, l’exploration des jeux décrits en GDL peut être simplifiée significativement par la décomposition du problème en sous-problèmes analysables séparément. Nous avons élaboré une technique qui permet de décomposer des descriptions de jeux avec n’importe quel nombre de joueurs en traitant le problème des actions simultanées. Cette approche permet d’identifier les sous-jeux parfaitement séparables, mais également de décomposer les jeux constitués de deux sous-jeux en série ou les jeux à actions composées, en évitant, contrairement aux méthodes précédentes, de s’appuyer sur des éléments syntaxiques qui peuvent être éliminés par une simple réécriture des règles GDL. Nous présentons les résultats obtenus sur un panel de 40 jeux. Nous identifions des questions nouvelles et difficiles posées par le problème de la décomposition et esquissons des pistes pour y répondre.

 

28 janvier 2016

Dan Istrate (Chercheur à l’UTC)

Chaire EBiomed: Objets biomédicaux connectés

Ce séminaire s’articule autour des thématiques de la chaire E-Biomed, un programme scientifique porté par l’Institut Universitaire d’Ingénierie en Santé de l’UPMC et ayant pour objectif d’accélérer la recherche en eSanté par le développement d’outils biomédicaux connectés et leur application dans divers domaines tels que: les maladies chroniques, le suivi de grossesse, le maintien à domicile des personnes âgées et la rééducation fonctionnelle.

 

17 décembre 2015

Kate Smith-Miles (Professor & Director of MAXIMA, Monash University, Australia)

Visualising the diversity of benchmark instances and generating new test instances to elicit insights into algorithm performance

Objective assessment of algorithm performance is notoriously difficult, with conclusions often inadvertently biased towards the chosen test instances. Rather than reporting average performance of algorithms across a set of chosen instances, we discuss a new methodology to enable the strengths and weaknesses of different algorithms to be compared across a broader instance space. Results will be presented on various combinatorial and continuous optimization problems as well as machine learning algorithms to demonstrate: (i) how pockets of the instance space can be found where algorithm performance varies significantly from the average performance of an algorithm; (ii) how the properties of the instances can be used to predict algorithm performance on previously unseen instances with high accuracy; (iii) how the relative strengths and weaknesses of each algorithm can be visualized and measured objectively; and (iv) how new test instances can be generated to fill the instance space and provide desired insights into algorithmic power.

 

3 décembre 2015

Mehdy Dref (Doctorant au LIASD)

Structuration, analyse et modélisation ontologique des connaissances : le cas de Twitter

Cette présentation a pour but de présenter les prémices de notre travail qui nous conduira au développement d’un système multi-agents ontologue visant à la structuration des connaissances produites par les utilisateurs sur Internet et plus particulièrement en ce qui concerne les données produites sur les réseaux sociaux en prenant l’exemple de Twitter.

 

26 novembre 2015

Riad Menasri (Doctorant à l’Université Paris Est Créteil)

Métaheuristiques pour la planification de trajectoire des bras manipulateurs redondants

La démarche de résolution proposée repose entièrement sur des algorithmes d’optimisation. L’appel aux techniques d’optimisation hiérarchique facilite le traitement de la redondance, qui est exploitée pour l’évitement d’obstacles et les singularités du robot. Vu la complexité des ces formulations, nous avons préconisé une démarche de résolution approchée, qui fait appel aux métaheuristiques d’optimisation, en particulier les algorithmes génétiques. La validation de la démarche proposée est faite sur le modèle du robot Neuromate.

 

5 novembre 2015

Meriem Dorsaf Bounneche (Doctorante au LIASD)

Reconnaissance de l’empreinte palmaire pour des applications civiles et criminalistiques

La sécurité biométrique connaît un engouement important pour la protection des données, des applications et des services nécessitant un contrôle d’accès. L’objectif des systèmes de reconnaissance biométriques est de déterminer et/ou de vérifier l’identité d’un individu à partir des traits physiologiques, comportementaux ou biologiques. Dans ce contexte, différentes modalités ont été étudiées et développées telles que: l’ADN, l’EEG, la signature, la démarche, la voix, le visage, l’iris, la rétine, l’empreinte digitale et bien d’autres. De part sa force discriminatoire, sa robustesse à travers le temps et son acceptabilité par les utilisateurs, l’empreinte palmaire qui s’appuie sur la texture de la paume de la main offre un supplément d’information permettant non seulement d’améliorer la reconnaissance mais aussi la rapidité des algorithmes dédiés. Plusieurs travaux de recherche ont opté pour l’exploitation de l’image palmaire complète pour l’identification et la vérification civile et particulièrement dans le domaine criminalistique. Nos recherches s’orientent vers ce type d’identification en exploitant des informations à partir d’image palmaire incomplète « latente ». Pour ce faire, notre présentation portera dans un premier temps sur l’architecture des systèmes de reconnaissance biométriques, puis dans un second temps sur une nouvelle approche de reconnaissance de l’empreinte palmaire à base d’imagerie multi-spectrale.

 

29 octobre 2015

Mécanisme de gestion de clés et d’agrégation sécurisée dans un RCSF à base de courbes elliptiques cryptographiques (ECC)

Elhanafi Teguig (Doctorant au LIASD)

Trouver des mesures défensives adéquates est souvent très difficile à effectuer. C’est un des challenges actuels pour la sécurité dans les RCSF dans lequel plusieurs méthodes traitant particulièrement la problématique d’établissement de clés cryptographiques ont été largement étudiées. L’utilisation de méthodes à base de cryptographie symétrique est très intéressante mais peut présenter des inconvénients pour la gestion des clés car la station de base est mise à contribution plusieurs fois ce qui peut provoquer des problèmes de synchronisations entre noeuds capteurs et engendrer des difficultés de gestion et de stockage d’un grand nombre de clés.

 

22 octobre 2015

Sur la détection de potentiels d’erreur en BCI et Neuro-feedback

Boubaker Daachi (Professeur à l’Université Paris 8)

Extraire la pensée d’un opérateur humain dans le but de réaliser de nouvelles interfaces homme-machine est une thématique scientifique en plein essor avec des perspectives d’applications novatrices. Le principe consiste à interpréter les intentions de l’opérateur à partir des activités bioélectriques cérébrales que l’on enregistre via diverses technologies. La technique neuro-feedback est employée pour entraîner la pensée du sujet humain et faciliter l’interprétation de ses intentions. Le neuro-feedback peut être défini comme l’entrainement du cerveau, de fait de sa plasticité, pour apprendre de manière flexible à switcher entre différents états d’éveil et de maintenir certains d’entre eux tels que les états d’attention et de repos. Il peut être vu comme la capacité du cerveau à s’autoréguler. Plusieurs séances d’entrainement sont nécessaires au cerveau pour atteindre un effet durable.