___________________

Séminaires 2016-2017

___________________

 

15 juin 2017

Mehdi Ammi (MCF-HDR au LIMSI, Université Paris Sud)

Internet des objets pour le bien-être et la santé à domicile

L’objectif du séminaire est de présenter les travaux menés au LIMSI-CNRS sur l’utilisation des objets connectés pour l’étude et la conception de services à la personne dans les bâtiments intelligents. Ces services vont de la gestion de l’énergie à la santé et le bien-être. Cette présentation abordera à la fois les problématiques de facteurs humains et les problématiques technologiques.

 

13 juin 2017

Amel Borgi (MCF à l'Université de Tunis El Manar, Tunisie)

Les systèmes de classification à base de règles floues

Les systèmes de classification à base de règles floues permettent de générer des règles floues et de mettre en œuvre des inférences floues pour les exploiter. Ils constituent une approche de classification supervisée très intéressante car ils permettent la conception de systèmes interprétables basés sur une modélisation explicite des connaissances. Dans ces systèmes, un nombre élevé d’attributs prédictifs conduit à une explosion du nombre de règles générées et peut affecter la précision des algorithmes d’apprentissage. Nous tentons de remédier à cette limite en proposant une méthode basée sur les ensembles d’apprentissage artificiel. L’idée est de fournir à chaque classifieur une projection différente de l’ensemble d’apprentissage : chaque classifieur n'utilise qu'un sous- ensemble des attributs initiaux, un sous-ensemble d'attributs corrélés, et aboutit à sa propre conclusion. Nous combinons ensuite ces opinions « individuelles » pour atteindre une décision finale. Cette approche, vérifiée expérimentalement, permet de garantir une réduction conséquente du nombre de règles sans trop altérer les taux de bonnes classifications.

 

27 avril 2017

Hicham Hadj-Abdelkader (MCF à l'IBISC, Université d’Evry)

Représentation 3D des images sphériques pour l’estimation dense de mouvements de rotation

Since a large field of view obviously bears important advantages, the use of omnidirectional images is becoming increasingly important in various computer vision and image processing applications. With this persistence, the appearance- based methods, in which the whole appearance of the omnidirectional image is represented by a global descriptor, could be a more attractive solutions for these images processing. Assuming that omnidirectional image data can be mapped onto the sphere firmly, one can make use of the variety of tools from spherical signal analysis. This work introduces a novel content mesh generation method that simultaneously reduces the number of the pixels and generates 3D mesh surface approximation for spherical image. Given such parameterization, we have proposed a direct method for 3D object rotation estimation using spherical harmonics representation with SVD decomposition and the ICP algorithm for estimation refinement. This is equivalent to estimating a 3D rotation of the camera. The approach is validated with experiments that proved the suitability and robustness of the method for large rotations and the comparison against four similar methods from the literature, the 3D rotation estimation results between spherical images are improved.

 

30 mars 2017

Nadjib Aït-Saadi (Professeur à l'ESIEE Paris)

From Sensors to Data Centers: Optimization of Deployment, Resource Allocation and Reliability

In this talk, I will summarize my research activity that has been carried out during the last six years. The main objective of my research work is to optimize the network in order to maximize the quality of service of end-users and revenue of providers. I have had the opportunity to address an end-to-end chain of networks starting from monitoring of the physical environment until reaching data centers in Cloud environment. In fact, I have studied the following problematic: i) deployment of wireless sensor networks, ii) resource allocation in 4G radio access network, Cloud’s backbone network and data center network, and iii) reliability in Cloud’s backbone network.

 

23 mars 2017

Wafa Birouk (Maître assistante à l'Université de Jijel, Algérie)

Le hachage perceptuel pour la sécurisation de la base des empreintes digitales

Avec une croissance considérable dans le domaine de la technologie multimédia et de la forte disponibilité des logiciels de traitement d'image, il est désormais facile de manipuler les images numériques. En même temps, il est devenu possible de réaliser des contrefaçons très élaborées, en laissant très peu de traces. Cela présente un problème de recherche d’une grande importance. Plusieurs techniques de sécurité ont été adoptées comme la technique de hachage perceptuel fortement inspirée des fonctions de hachage cryptographique. Elle se base sur l’aspect visuel des données à hacher permettant d’établir une correspondance perceptuelle entre l’image originale et l’image à authentifier ou à identifier. Cette technique est caractérisée par sa robustesse face aux manipulations acceptables (compression JPEG, bruit Gaussien, correction Gamma, ...). En revanche elle demeure sensible aux manipulations malicieuses (l’ajout de nouveaux objets, la suppression ou la modification majeure d’objets existants, ...). Cette approche a suscité l’intérêt de plusieurs chercheurs pour sécuriser les données multimédia et biométriques comme les empreintes digitales.

 

16 mars 2017

Ismahane Souici (MCF à l'Université de Jijel, Algérie)

Cryptage de données par métaheuristiques

Aujourd’hui, les réseaux informatiques sont complexes et les écoutes illégales possibles. Il se pose donc un réel problème quant à la sécurité lors de la transmission de données. Pour des raisons éthiques, le transfert des données délicates ne peut se faire avec un tel risque et doit donc se protéger. La protection la plus adaptée pour ce type de communication réside dans la cryptographie. Cependant et malgré toutes ses évolutions et ses mises en œuvre, elle est toujours entravée par quelques défauts citant en particulier la taille des clés et la résistance contre les attaques avancées.

Notre travail porte sur le développement de nouveaux algorithmes cryptographiques par exploitation des métaheuristiques constituant une partie importante des méthodes approchées et ouvrant des voies très intéressantes en matière de conception de méthodes heuristiques pour l’optimisation. Comme les métaheuristiques exploitent un aspect pseudo-parallèle durant les différentes étapes de leurs schémas opératoires, elles peuvent être très utiles en cryptographie.

 

23 février 2017

Amir Nakib (MCF-HDR au LISSI, Université Paris Est Créteil)

Design of metaheuristics based on machine learning

A multilevel decomposition of metaheuristics allows to have a unified vision on the design of metaheuristic algorithms. Indeed, these algorithms must be well set and the choice of each component of these algorithms must also be well chosen. In order, solve these problems, a layer based on machine learning can be added to take profit from the evolution of the algorithm to adapt it to the optimization problem. From the algorithmic point of view, the search procedure is dynamic and the algorithm switches between a set of strategies until the stopping criterion is satisfied.

Some applications of this new approach to solve real world problems will be exposed.

 

12 janvier 2017

Mohamed Chetouani (Professeur à l’ISIR, Université Pierre et Marie Curie)

Learning interpersonal human-robot interaction

One of the most significant challenges in robotics is to achieve closer interactions between humans and robots. Mutual behaviors occurring during interpersonal interaction provide unique insights into the complexities of the processes underlying human-robot coordination. In particular, interpersonal interaction, the process by which two or more people exchange information through verbal (what is said) and non-verbal (how it is said) messages could be exploited to both establish interaction and inform about the quality of interaction. In this talk, we will report our recent works on social learning for (i) detecting individual traits such as pathology and identity during human-robot interaction, (ii) task learning from unlabeled teaching signals. We will also describe how these frameworks could be employed to investigate coordination mechanisms and in particular when it comes to pathologies such as autism spectrum disorders.

 

15 décembre 2016

Otman Manad (Doctorant au LIASD)

Automatic construction of standard web corpus with noise minimization in NLP field

Over the last years, the role of the public has changed from simple consumer to producer of information. In particular, new web 2.0 applications called Rich Internet Applications (such as discussion forums, blogs, wiki, etc.) allow users to easily add personalized content. The heterogeneity of existing relationships

between individuals makes a collective view of their behavior impossible to be formed, so behavioral prediction must be individual. Given the large number of individuals present in the forums, the amount of data that arises from their interactions is immense. Therefore, a problem of scaling arises, so how to proceed out a separate extraction of dimensions based on the structure constitutes the web document, to extract only the relevant information.

 

8 décembre 2016

Nourredine Aliane (Doctorant au LIASD)

Les cartes auto-organisatrices de Kohonen (SOM) pour la segmentation sémantique de textes

Plusieurs extensions de SOM initiales ont été proposées dans la littérature, notamment GSOM (Growing SOM), ayant été développé pour surmonter

l'inconvénient de fixer la taille de la carte dans la version standard. Ce modèle est capable de découvrir automatiquement le nombre de clusters. Plusieurs

implémentations de ces variantes existent. Mais, beaucoup de ces algorithmes ne fonctionnent pas efficacement pour un volume important de données textuelles, représentées par des vecteurs creux de grande taille. Afin de pallier ces limites, nous proposons un modèle de SOM, bien adapté à ce type de données.

 

1 décembre 2016

Elhanafi Teguig (Doctorant au LIASD)

Mécanisme de gestion des clés et de l'agrégation sécurisée dans un RCSF via les courbes elliptiques cryptographiques

L'objet du séminaire est de détailler un protocole de sécurisation dans les réseaux de capteurs sans fil à base de courbes elliptiques. Sécuriser un RCSF revient à instaurer les différents services de sécurité tels que la confidentialité, l'intégrité et l'authentification des données. Tout capteur est caractérisé par une limitation en mémoire, en espace de stockage et en énergie. L'utilisation de la cryptographie à clé publique traditionnelle est trop coûteuse voire impossible. La consommation d'énergie doit être prise en compte dans toute stratégie de sécurité afin de maximiser la durée de vie du réseau.

 

20 novembre 2016

Abelhani Boukrouche (Professeur à l’Université de Guelma, Algérie)

On exploring a number problems : 1D, 2D, and 3D

The signals are assumed to be degraded by electronic linear systems, in which, parameters are slowly time-varying such as sensors or storage systems. Three distinctive aspects of this plenary will first, cover a number of deconvolution applications and their deployment in practice (safety, calorimetric, 1D and 2D medical signals, omnidirectional images), secondly, the problem of feature selection and classification for Biometrics is presented. Finally we will be focusing on the early diagnosis of osteoporosis via texture analysis on high resolution radiographic images of human trabecular bone, in particular, the methods of characterization of anisotropy on these radiographs.

 

20 octobre 2016

Rakia Jaziri (MCF à l’Université Paris 8)

Big data et machine learning

Les données volumineuses et de grandes dimensions sont au coeur des problématiques émergentes de la recherche. Ces données se manifestent généralement dans des structures complexes notamment des données de graphes, des données de cookies (navigations des internautes), des données images ? Chaque problème est porteur de sa propre originalité. Ainsi, la fouille des données complexes est présentée comme la recherche d’informations pertinentes pour l’aide à la décision. Elle met en oeuvre des techniques statistiques et d’apprentissage machine en tenant compte de la spécificité et la diversité de grandes à très grandes dimensions de données. Mes activités de recherche s’inscrivent dans le cadre de la fouille de données complexes et de grandes dimensions. Les modèles proposés répondent à plusieurs problèmes réels notamment pour la découverte de typologie des trajectoires, pour la prédiction des comportements des internautes ou même pour la détection des fraudes.

 

4 octobre 2016

Pablo Rauzy (MCF à l’Université Paris 8)

Méthodes logicielles formelles pour la sécurité des implémentations cryptographiques

Les implémentations cryptographiques sont vulnérables aux attaques physiques, et ont donc be soin d’en être protégées. Une attaque physique exploite l’implémentation matérielle du système qu’elle cible. Elle peut utiliser des grandeurs physiques comme la consommation de courant du système, ou agir directement sur celui-ci, par exemple en fautant dans la mémoire physique des valeurs de variables intermédiaires du calcul. Bien sûr, des protections défectueuses sont inutiles. L’utilisation des méthodes formelles permet de développer des systèmes tout en garantissant leur conformité à des spécifications données. Le premier objectif de ma recherche, et son aspect novateur, est de montrer que les méthodes formelles peuvent être utilisées pour prouver non seulement les principes des contre-mesures dans le cadre d’un modèle, mais aussi leurs implémentations, étant donné que c’est là que les vulnérabilités physiques sont exploitées. Mon second objectif est la preuve et l’automatisation des techniques de protection elles-mêmes, car l’écriture manuelle de code est sujette à de nombreuses erreurs, particulièrement lorsqu’il s’agit de code de sécurité. Les attaques physiques peuvent être classifiées en deux catégories distinctes. (1) Les attaques passives, où l’attaquant peut seulement lire l’information qui fuit par canaux auxiliaires (comme la consommation de courant ou les émanations électro-magnétiques). Et (2) les attaques actives, où l’attaquant perturbe le système pour faire en sorte de lui faire révéler des secrets via sa sortie standard. Par conséquent, j’ai poursuivi mes objectifs dans ces deux cadres en considérant : (1) une contre-mesure qui diminue les fuites par canaux auxiliaires, et (2) des contre-mesures contre les attaques par injection de faute.