Les Séminaires du L.I.A.S.D

Organisateur : Vincent Boyer

2, rue de la Liberté
93526 Saint-Denis Cedex - France
Tél : (+33) 1 49 40 64 04 - Fax : (+33) 1 49 40 64 10


Youcef Touati : Optimisation et fusion d'information multisources (Lundi 7 Avril 2008, 14h00 en A 148.)
  • Patrick Callet : Restauration virtuelle d'une sculpture médiévale polychrome de la basilique de Saint-Denis. (Mardi 26 Février 2008 à 14h00, A148)
      Résumé Nous présentons les derniers résultats d'une étude pluridisciplinaire, en cours à l'École Centrale Paris, portant sur la numérisation 3D, la simulation et le prototypage rapide d'objets du patrimoine. Ce travail s'inscrit dans le cadre d'une collaboration entre le Centre des Monuments Nationaux et trois laboratoires, ainsi que le Centre de prototypage Rapide Européen d'Assistance, de Transfert et d'Expérimentation (CREATE) de l'École Centrale Paris.

  • Max Silberstein : Formalisation des verbes psychologiques français (Lundi 5 Novembre 2007, 10h00, A148)
      Résumé NooJ est un environnement de développement linguistique utilisé pour formaliser les langues écrites et construire des applications de Traitement Automatique des Langues Naturelles (TALN). NooJ permet de formaliser des phénomènes linguistiques à divers niveaux : orthographe, morphologie, syntaxe et sémantique, en utilisant des machines adaptées (automates, transducteurs, Réseaux de Transitions Augmentées et machines de Turing) ; NooJ fournit aux développeurs des outils pour tester, déboguer, adapter et accumuler des données à chaque niveau linguistique, ainsi que pour enchaîner les différents niveaux d'analyse. Nous avons utilisé NooJ pour formaliser la morphologie et la syntaxe des verbes "psychologiques" du dictionnaire de (Dubois, Dubois-Charlier), e.g. "Luc (s'amuse + s'émerveille + s'agace) de cette affaire", puis nous avons appliqué la formalisation à un corpus journalistique. Nous en commenterons les résultats, ainsi que les applications en TALN.

  • Woo-Jun PARK : Design of a Notation & Go-games Review (Vendredi 22 Juin 2007, 15h00)
      Résumé Design of a Notation for Windows Beginners: Here, we discuss the needs of notation in order to describe the sequence of operations in multi-window environment, and suggest a new notation by utilizing variables, control-flows and basic operations which are adopted from programming languages. In addtion, we show how the documents for tasks can be transformed to easier documents by preprocessing in order for beginners to use the manual written with the suggested notation.

      Review of Man-machine Go-games: For the purpose of improving the level of computer-go program, we review two 9x9 and two 19x19 games between same human player and three computer-go programs: GoLois, SilverStar2006, MoGo with appropriate handicaps and komis. Through the analysis on the plays for defending of a group of stones and on the moves of ko-fights of the programs at the games, we show the possible improvements for the playing moves for caring life-and-death of stones and for ko-fights of the programs.

  • Philippe Dugerdil : Conception d'un processus de reverse-enginnering de système d'information basé sur le processus unifié (4 Décembre 2006, 10h30)
      Résumé Dans le cadre de reverse-engineering de système d'information "legacy", une partie importante du travail consiste à comprendre le code du système. En l'absence d'une documentation fiable et à défaut d'un accès aux développeurs du système, deux seules sources d'information restent disponibles: le code source et les utilisateurs. Par ailleurs, la reconstruction des modèles du système et en particulier de son architecture est une activité paradoxale: pour comprendre le système il faut connaitre sa structure et pour modéliser sa structure il faut comprendre le système. Pour sortir de cette situation, nous proposons de nous inspirer du processus unifié (UP). Tout d'abord, une architecture "hypothétique" est supposée à partir de la reconstruction des use-cases et du modèle métier, en suivant les recommandations de UP. Ensuite cette architecture est validée par une analyse du code exécuté en faisant "jouer" les use-cases et en tentant d'apparier les éléments conceptuels aux éléments tangibles. Au final, cette technique nous permet de reconstruire l'architecture du système d'information en nous basant sur les fonctionnalités métier implantées.

  • Pascal Jouxtel : Apports de la mémétique pour la modélisation de créatures culturelles non-biologiques (30 Octobre 2006, 16h30)
      Résumé La mémétique est une approche évolutionniste des codes qui se reproduisent dans le tissu interconnecté de la civilisation humaine. Elle cherche son chemin et sa place depuis 30 ans entre les sciences cognitives, l'IA, l'anthropologie et la philosophie. Entre autres travaux, Pascal Jouxtel et Charles Mougel cherchent à concevoir et modéliser des créatures culturelles "non-biologiques", correspondant à des comportements, des pratiques ou des usages.

  • Sylvain Peyronnet : Approximate probabilistic verification (06 Juin 2006, 14h00)
      Résumé Dans cet exposé, je présenterais une méthode de vérification approchée probabiliste basée sur l'échantillonage et le model checking de traces d'executions. Cette méthode permet de vérifier de gros systèmes (protocoles de communications par exemple) sans tomber dans le problème de l'explosion combinatoire de l'espace des états inhérent au model checking. Je présenterais également APMC, un outil qui implémente cette méthode dans un cadre distribué.

  • Rim Chaabane : analyse et optimisation de code - présentation du contexte (30 Mai 2006, 10h00)
      Résumé Le projet d'analyse et optimisation de code se fait au sein de la société Sungard finance qui commercialise l'outil GP (Global Portfolio) initialement développé pour VMS. L'outil a évolué de manière a ce qu'il soit porté sur des systèmes plus récents (Unix et Windows). Cette présentation a pour but de décrire l'architecture actuelle de l'outil GP, de présenter l es problèmes de performances détectés ainsi que les outils existants pouvant servir a l'analyse de code. Je finirais par donner des premières voies de mon travail de recherche.

  • Alain Bonardi et Isis Truck : Construction de règles floues dans un détecteur d'émotions (01 Février 2006, 15h00)
      Résumé Lors de ce séminaire, nous vous présenterons une méthode pour construire automatiquement des règles floues dans un FRBS (Fuzzy Rule-Based System : Système à base de règles floues) qui détecte des émotions dans une performance d'acteur lors d'un spectacle.
      L'idée est de collecter des données vidéo issues de plusieurs performances du même spectacle pour lequel on souhaite visualiser toutes les émotions et intentions, ou plus précisément, les "graphes d'intentions". Pour ce faire, nous analysons les données collectées en définissant des descripteurs de bas niveau convertis au moyen d'agrégations en caractérisations de haut niveau. L'étape suivante est de partitionner correctement les univers en classes selon les données collectées. Enfin, les règles floues construites à partir des classes sont utilisées pour labelliser les émotions détectées.
      Mots-clefs : Assistant, Règles floues, Intentions, Emotions, Détection, Performance.

  • Cedric Pionneau : La proteomique : principales techniques et outils informatiques dedies a l etude des proteines (15 Decembre 2005, 13h00)
      Résumé Le protéome désigne l’ensemble des produits fonctionnels des gènes d’un organisme vivant, c’est-à-dire l’ensemble des protéines exprimées par un organisme vivant. La protéomique est l’étude à grande échelle de ces protéines afin de comprendre notamment les mécanismes cellulaires responsables de maladies. Les principales techniques de protéomique sont l’électrophorèse bidimensionnelle pour la séparation des protéines, et la spectrométrie de masse pour leur identification. Des outils informatiques tels que les logiciels d’analyse d’images permettent la détection et la comparaison au niveau quantitatif de chaque protéine séparée par électrophorèse bidimensionnelle. Des algorithmes spécifiquement développés comparent les masses observées des fragments de protéines avec les masses théoriques afin d’identifier les protéines. Enfin, l’utilisation du calcul partagé permet la détermination des structures tridimensionnelles des protéines, caractéristique importante pour mieux connaître la fonction d’une protéine.

  • Jean-Francois Lucas : Verbes et Automates pour la planification sur grille (21 Novembre 2005, 13h00)
      Résumé
    • Production et transfert de savoir par des automates sur une grille. Avec un regard opportuniste de bionicien j'ausculte les verbes d'action du langage naturel : J'en viens a mettre des etres en situation sur une grille pour qu'ils planifient et simulent afin d'elaborer un savoir qu'ils transmettent a leurs descendants.
    • Retour sur les bases de l'I.A. Je travaille sur la representation formelle des transformations que l'univers subit quand des agents y effectuent des verbes d'actions (mouvements et deplacements d'objets). Je m'attache a montrer comment les verbes d'action servent d'articulation entre la logique classique (descriptive statique de l'univers) et les systemes sequentiels informatiques, plus aptes a modeliser les transformations de l'univers.
    • Refus de la mobilite des symboles. La logique classique, pour faire les representations intentionnelles, enchasse des predicats J'ai choisi de delaisser cette attitude lourde et riche. Je prefere les representations plus legeres des mondes de la vie artificielle et des jeux : Je m'interdis la mobilite des symboles ce qui m'amene a travailler dans des espaces simplifies : je place des automates sur une grille.
    • Bionique : Expliquer par l'I.A. certaines solutions de la nature Bionicien, je regarde les automates finis, qui, par nature, ne permettent pas la mobilite des symboles. Je les prolonge pour qu'ils traitent l'information et generent des comportements afin de se les transmettre entre generations. Ceci m'amene a justifier par des arguments informatiques certains resultats trouves par la nature : Je fais le lien entre des attitudes de l'I.A. (planification, apprentissage et simulation) et des attitudes de marquage, resultats trouves a la fois par les insectes sociaux (pheromones) et par les praticiens de l'IAD (drapeau).
    • Perspectives. Pour terminer, afin d'interesser les gens a mon travail j'envisage des prolongements plus spectaculaires : - Traiter des demarches intentionnelles sans attitudes propositionnelles. - Transmission d'information de generation a generation (par l'imitation).

  • Fares Belhadj : Modélisation de Paysages Fractals (11 Juillet 2005, 11h00)
      Résumé We present a new fractal based method of generating realistic models of natural landscapes. We describe a three-steps method that produces a terrain mesh using ridge lines and rivers drainage network. As opposed to previous methods that compute water erosion for a given terrain model --- Digital Elevation Map ---, our terrain mesh is generated constrained by a precomputed set of ridge lines and rivers network. A skeleton of a ridges and rivers network is computed and stored in a Digital Elevation Map (D.E.M.) as initial values. Then, the elevations data set is enriched using a novel interpolation method based on a Reverse Midpoint Displacement process. Finally, a midpoint displacement subdivision is applied to interpolate the remaining elevation coordinates. The resulting terrain's meshes provide naturalistic landscape models and our method seems to be very promising. Images produced by our model are presented.