Bases de données spatio-temporelles [Spatio-temporal databases]
La gestion des données localisées dans l'espace est devenue aujourd'hui une nécessité tant pour les organisations que pour les individus. Les domaines d'application sont nombreux : la cartographie, la gestion et aménagement du territoire, la gestion de réseaux de services (électricité, eau, transports, etc.), l'environnement, le géomarketing, les services géolocalisés (Location-Based Services ou LBS). De plus, la dimension géographique est souvent reliée a une dimension temporelle ou historique, c'est-à-dire que le système doit garder trace de l'évolution dans le temps des données contenues dans la base. Nos recherches visent à définir des modèles conceptuels permettant d'exprimer les aspects spatiaux et temporels des applications, ainsi que les mécanismes permettant la traduction automatique de ces spécifications dans les systèmes opérationnels. [Today, the management of data located in space is a necessity both for organizations and individuals. The application domains are numerous: cartography, land management, network utility management (electricity, water, transportation, etc.), environment, geomarketing, location-based services. In addition, the spatial dimension is often related to a temporal or historical dimension, which means that the systems must keep track of the evolution in time of the data contained in the database. Our research consists in defining conceptual models that allows the spatial and temporal aspects of applications to be expressed, and the mechanisms allowing the translation of these specifications into operational systems.]
Modélisation des réseaux ad-hoc [Modeling of indoor ad-hoc wireless networks]
Modélisation des réseaux ad-hoc déployés à l'intérieur des bâtiments: problématique de propagation et son influence sur l'interconnexion et la structuration des noeuds du réseau. [Modeling of indoor ad-hoc wireless networks: new models for indoor propagation and their integration in actual network simulators. Effect of the models on the network performance and structure]
Bases de données spatio-temporelles [Spatio-temporal databases]
La gestion des données localisées dans l'espace est devenue aujourd'hui une nécessité tant pour les organisations que pour les individus. Les domaines d'application sont nombreux : la cartographie, la gestion et aménagement du territoire, la gestion de réseaux de services (électricité, eau, transports, etc.), l'environnement, le géomarketing, les services géolocalisés (Location-Based Services ou LBS). De plus, la dimension géographique est souvent reliée a une dimension temporelle ou historique, c'est-à-dire que le système doit garder trace de l'évolution dans le temps des données contenues dans la base. Nos recherches visent à définir des modèles conceptuels permettant d'exprimer les aspects spatiaux et temporels des applications, ainsi que les mécanismes permettant la traduction automatique de ces spécifications dans les systèmes opérationnels. [Today, the management of data located in space is a necessity both for organizations and individuals. The application domains are numerous: cartography, land management, network utility management (electricity, water, transportation, etc.), environment, geomarketing, location-based services. In addition, the spatial dimension is often related to a temporal or historical dimension, which means that the systems must keep track of the evolution in time of the data contained in the database. Our research consists in defining conceptual models that allows the spatial and temporal aspects of applications to be expressed, and the mechanisms allowing the translation of these specifications into operational systems.]
Entrepôts de données [Data warehouses]
L'entrepôt de données, une évolution des bases de données traditionnelles, est devenu le moteur des nouveaux systèmes d'information des entreprises. Il contient une vue agregée et historique des informations opérationnelles de l'entreprise. La recherche est axée sur la conception des entrepôts de données en utilisant la modélisation conceptuelle et leur implantation dans des plateformes opérationnelles. [A data warehouse, an evolution of traditional databases, has become the basis of the new generation enterprise information systems. It contains an aggregated and historical view of the operational information of the entreprise. The research focuses on the design of data warehouses using the techniques of conceptual modeling and their implementation into current operational platforms.]
Web sémantique et Données Liées [Semantic Web and Linked Data]
Le web sémantique ou ''Web of Linked Data'' vise à permettre le partage d'informations structurées sur le web. De la même manière que HTML et les liens hypertextes sont utilisés pour publier de l'information dans le ''web de documents'' actuel, le modèle RDF associé aux liens RDF est utilisé pour publier de l'information structurée sur le web sémantique. Ceci permettrait de transformer le Web en une énorme base de données, dont la capacité à répondre à des requêtes structurés dépasserait les possibilités de recherche par mot-clés actuelles. Dans ce contexte notre recherche s'articule au tour de: - la gestion des ontologies, et en particulier sur la contextualisation, la modularisation, et la formalisation des aspects spatiaux et temporels dans les ontologies; - la conception de languages de requêtes pour le web sémantique; - le traitement efficace de ces requêtes. [The Semantic Web, also known as the Web of Linked Data, aims at enabling people to share structured information on the Web. In the same way as one uses HTML and hyperlinks to publish and connect information on the Web of Documents, one uses the RDF data model and RDF links to publish and connect structured information on the Web of Linked Data. This has the potential to turn the Web into one huge database with structured querying capabilities that vastly exceed the limited keyword search queries so common on the Web of Documents today. Unfortunately, this potential still remains to be realized. In this respect, our work revolves around several issues: - the management of ontologies, and especially in the contextualisation, modularization, and the formalization of spatial and temporal aspects in the ontologies; - the design of suitable query languages for the web; and - the design of efficient evaluation strategies for these query languages. ]
Bases de données scientifiques [Scientific databases]
La diversité et les grands volumes de données traitées aujourd'hui dans les sciences naturelles a conduit à une prolifération de bases de données scientifiques hautement spécialisées. Des exemples représentatifs dans le domaine de la biologie sont notamment Genbank pour les gènes, Swissprot pour les protéines, Go pour les descriptions fonctionnelles des protéines (entre autres), Omim pour les maladies génétiques et Pubmed pour les publications. Des nouveaux résultats de recherche sont obtenus par (1) la copie et la modification de données provenant d'autres bases de données scientifiques, (2) l'ajout de données recueillies au moyen d'expériences, et (3) l'analyse de ces bases de données scientifiques nouvellement construites avec des techniques sophistiquées. Une fois publiés en ligne, les résultats obtenus peuvent être librement copiés dans d'autres bases de données scientifiques, après quoi l'ensemble du processus se répète.La gestion de ces bases de données scientifiques a certaines exigences particulières. Tout d'abord, il y a la nécessité évidente de localiser et interroger efficacement les données pertinentes dans les bases de données disponibles. En outre, pour assurer la qualité et l'exactitude des données stockées, il est indispensable d'enregistrer les informations de provenance. Cette information décrit, par exemple, d'où une donnée a été copié, comment elle a été modifiée, ou par quels analyses et programmes elle a été générée. Pour éviter que des données incorrectes soient copiées, il y a aussi un besoin de méthodes automatiques pour détecter et, si possible, corriger des incohérences. En effet, il a été estimé que entre un et cinq pourcent des données stockées dans une base de données d'entreprise classique ne sont pas correctes. La même analyse s'applique aux bases de données scientifiques. Dans ce contexte, notre recherche se concentre sur des modèles appropriés pour la définition et le suivi automatiquement de la provenance, ainsi que sur les techniques d'amélioration de la qualité des données. [The diversity and large volumes of data processed in the Natural Sciences today has led to a proliferation of highly-specialized scientific databases. Notable examples from biology include Genbank for genes; Swissprot for proteins; Go for functional descriptions of proteins (among other things); Omim for genetic diseases; and Pubmed for publications. New research results are obtained by (1) copying and modifying existing data from other scientific databases; (2) adding data gathered through experiments; and (3) analysing the hence newly constructed scientific database with sophisticated techniques. Once published online, the obtained results can freely be copied into other scientific database after which the whole process repeats itself. The management of such scientific databases has some particular requirements. First of all, there is the obvious need to locate and efficiently query the most pertinent data across the available databases. Furthermore, to ensure the quality and correctness of the stored data, it is vital to record provenance information. This information describes, for instance, from which database a result was copied, how it was modified, or by which analyses and programs it was generated. To prevent incorrect data from being copied, there is also a need for automatic methods to detect and, where possible, correct inconsistencies. Indeed, it has been estimated that one to five percent of the data stored in a typical enterprise database is incorrect. The same analysis applies to scientific databases. In this context, our research focuses on suitable models for defining and automatically tracking provenance, as well as on techniques for improving data quality.]