page d'accueil   sommaire  

Dilshod IBRAGIMO


coordonnées


Dilshod IBRAGIMO
tel +32-2-650.27.62/ 31.85, fax +32-2-650.28.05, Dilshod.Ibragimov@ulb.ac.be
Campus du Solbosch
CP165/15, avenue F.D. Roosevelt 50, 1050 Bruxelles



unités de recherche


CoDE-WIT-Technologies de l'Information et Web [CoDE-WIT-Laboratory for Web and Information Technology] (CoDE-WIT)



projets


Business Intelligence, Data Mining, et Entrepôts de données [Business Intelligence, Data Mining, and Data warehouses]
Dans notre société de la connaissance, le fait que les entreprises réussissent ou échouent repose en grande partie sur la façon dont elles peuvent efficacement collecter, nettoyer, intégrer, explorer, analyser et surveiller leurs informations pour mieux prédire les tendances futures et prendre les bonnes décisions. De nos jours, la collecte et le traitement des informations sur les processus métier d'une organisation sont devenus aussi importants que les processus eux-mêmes. Sur la base de ces informations, les processus peuvent être optimisés et la flexibilité de l'organisation peut être accrue, conduisant à des avantages concurrentiels. L'informatique décisionnelle, ou Business Intelligence (BI) en anglais, se réfère à la capacité d'une organisation de recueillir et analyser les données internes et externes dans le but de générer des connaissances et fournir un aide à la décision au niveau stratégique, tactique et opérationnel. Depuis sa création il y a 20 ans, la BI a émergé comme un domaine industriel majeur qui ne cesse de croître rapidement. La Business Intelligence a initialement été basée sur une combinaison des entrepôts de données (le processus de stockage des données historiques dans une structure conçue pour un traitement efficace) et l'analyse de données en ligne, tels que traitement analytique (OLAP) et la fouille de données (les méthodes mathématiques et statistiques nécessaires pour transformer les données brutes en informations précieuses pour prendre des décisions).Cependant, la BI aujourd'hui fait l'objet d'une révolution majeure. En effet, comme indiqué par le cabinet de conseil Gartner, ''les informations nécessaires pour prendre de nombreuses décisions ne résident pas dans les bases de données mais proviennent d'un mélange complexe de sources, y compris les e-mails, les messages vocaux, l'expérience personnelle, les informations multimédias et les communications externes de fournisseurs, clients, gouvernements, etc.''. Pour extraire des informations utiles à partir de ces données non structurées nos recherches combinent la BI traditionnelle avec la recherche d'informations et l'analyse de texte, et plus généralement le analyse de contenu. En outre, nous nous intéressons à la combinaison de la BI avec la gestion des processus métier, conduisant à l'intelligence des processus. [In our knowledge society, businesses succeed or fail based largely on how effectively they can collect, clean, integrate, explore, analyse, and monitor their information to predict future trends and make the best decisions. Business Intelligence (BI) refers to the capability of an organisation for collecting and analysing internal and external data with the objective of generate knowledge and value to provide decision support at the strategic, tactical, and operational levels. Since its inception 20 years ago, BI has emerged as a major industrial domain and driver that continues to grow rapidly. Business Intelligence has historically been based on a combination of data warehousing (the process of storing historical data in a structure designed for efficient processing) and data mining (the mathematical and statistical methods necessary to transform this raw data into valuable information for making business decisions). Our lab is in both research fields.BI, however, is undergoing a major revolution. Indeed, as stated by technology advisory firm Gartner, ''the information required to make many decisions does not reside in anyconvenient databases but comes from a complex mix of sources, including e-mails, voice messages, personal experience, multimedia information, and external communications from suppliers, customers, governments and so on.''. To extracting useful information from such unstructured data our research combines traditional BI with information retrieval or text analytics, and more generally content analytics. In addition, we are interested in combining business process management and BI, leading to process intelligence.]

Gestion des Grand Données [Management of Big Data]
En informatique, le terme «grandes données» (Big Data en anglais) se réfère à des ensembles de données si vastes et complexes qu'il devient difficile de les traiter à l'aide d'applications traditionnelles de gestion des données.Des grandes données arrivent naturellement dans de nombreux environnements, y compris les sciences de la nature (génomique, expériences physiques complexes, la météorologie), l'informatique (recherche sur Internet), et dans la gestion et la finance (informatique décisionnelle ou business intelligence en anglais).Par exemple, l'expérience Large Hadron Collider du CERN contient environ 150 millions de capteurs fournissant des données 40 millions de fois par seconde. Il y a près de 600 millions de collisions par seconde. Après filtrage et le rejet de 99,999% de ces flux, il y a 100 collisions d'intérêt par seconde. En conséquence, seulement en travailler avec moins de 0,001% des flux de capteurs, l'expérience LHCproduit environ 25 pétaoctets de données par an.Parfois, les données sont générées à un rythme si rapide qu'il n'est pas possible de les stocker. Le développement de techniques de manipulation et de traitement des tels flux de données est très difficile. Généralement, on maintient des résumés du flux de petite taille qui permettent de répondre aux questions formulées sur l'ensemble du flux avec une précision garantie.Les grandes données ne sont pas seulement importantes en volume; ces données sont également peu structurées d'un point de vue informatique, et elles peuvent même être incohérentes. La gestion des grandes données entraîne la recherche et le développement de techniques nouvelles très efficaces pour la saisie, le nettoyage, le stockage, l'interrogation, la recherche et l'analyse de données non structurées et parfois incohérentes. [Management of Big DataIn computer science, the term ''big data'' refers to data sets solarge and complex that it becomes difficult to process them usingtraditional data processing applications.Big data sets naturally arise in many chanllenging environments,including the natural sciences (genomics, complex physicsexperiments, meterology), computer science (internet search),and business and finance (business intelligence).For example, the CERN Large Hadron Collider experiment containsabout 150 million sensors delivering data 40 million times persecond. There are nearly 600 million collisions per second. Afterfiltering and not recording more than 99.999% of these streams,there are 100 collisions of interest per second. As a result,only working with less than 0.001% of the sensor streams, the LHCexperiments produce about 25 petabytes of data per year.Sometimes the data is even generated at such a fast pace that it is no longerpossible to store the data. The development of techniques for handling andprocessing such data streams is very challenging. Usually small summariesare maintained over the streams that still allow to answer queriesformulated over the whole stream with guaranteed accuracy.Big data is not only large in volume; big data is also quiteunstructured from a computer science point of view, and it may even beinconsistent. Managing big data hence entails the development of newand very efficient techniques for capturing, curating, storing,querying and searching and analysing unstructured and sometimesinconsistent data. ]



disciplines et mots clés déclarés


Informatique administrative Informatique de gestion Informatique générale

business intelligence data mining entrepôt de données extraction d'information grand données modélisation conceptuelle text mining