Chasse aux étoiles binaires: une série de candidates identifiées

Lundi le 27-06-2016

Représentant environ 50% des étoiles de notre galaxie, les étoiles doubles jouent un rôle important si on souhaite comprendre l'évolution de l'ensemble des étoiles, pas seulement celle du Soleil. L'identification de la nature binaire d'un objet pourtant parfois vu comme simple est donc une première étape. Parmi les différentes techniques disponibles pour cette identification, celle qui combine astrométrie (i.e. mesure de la position des étoiles) et photométrie est la plus rarement employée car, d'une part, l'astrométrie est, en elle-même, deja rarement utilisée, mais l'astrométrie dans differents filtres photométriques l'est encore beaucoup plus rarement.

Le Sloan Digital Sky Survey offre la possibilité de mettre cette combinaison en oeuvre. Encore mieux, il dispose de telles combinaisons à différentes époques. Une série de candidates binaires ont ainsi été identifiées par une équipe belgo-américaine et ensuite confirmées pour certaines d'entre elles. Ces objets vont maintenant pouvoir faire l'objet d'observations complémentaires, y compris par la sonde Gaia pour laquelle une équipe de l'ULB dispose d'une place de choix.

Ce travail, réalisé par Dimitri Pourbaix, chercheur à l'Institut d'Astronomie et d'Astrophysique (Faculté des Sciences), et des collègues américains, a été publié dans Astronomy & Astrophysics. L'équipe avait déjà publié une étude du même genre en 2004 mais la version 2016 est plus complète et plus robuste car les chercheurs ont pu confirmer les détections d'étoiles binaires à partir d'observations répétées des mêmes objets. Originalité : le travail a aussi été réalisé avec l'aide des étudiants. Ainsi, une étudiante (M. Rigaux) a collaboré à cette recherche dans le cadre de son stage de BAC3 en physique et une élève de 6e secondaire du Collège Saint-Hubert (A. Rubbens) a participé lors d'un stage d'observation au laboratoire.

Robust detection of CID double stars in SDSS.
Pourbaix, Dimitri, Knapp, Gillian; Gunn, James E.; Lupton, Robert H.; Ivezic, Zeljko; Siopis, Christos; Rigaux, Morgane; Rubbens, Anne.
Référence Astronomy & astrophysics, 591, A96

Comment les caméléons capturent leurs proies avec un piège adhésif étonnant

Mardi le 21-06-2016

Sous une apparence nonchalante, les caméléons sont des prédateurs redoutables qui capturent leur proie en projetant soudainement leur langue avec une formidable précision. Ils peuvent même capturer des proies pesant jusqu'à 30% de leur propre poids ! Des chercheurs de l'Université libre de Bruxelles et de l'Université de Mons, en collaboration avec le Muséum National d'Histoire Naturelle de Paris se sont penchés sur ce piège adhésif étonnant. Leur étude paraît dans la revue Nature Physics.

Un caméléon est un animal fascinant présentant de nombreuses caractéristiques étonnantes. Ses mains comportent des doigts séparés en deux groupes opposables lui permettant, telle une pince, de s'agripper fermement aux branches. Ses yeux ont une mobilité indépendante lui assurant un vaste champ de vision. Sa peau change de couleur grâce à la modification de l'organisation de nanocristaux qu'elle contient dans certaines cellules. Mais sa caractéristique la plus emblématique est peut-être sa langue protractile lui permettant d'attraper des proies à distance.

Sous une apparence nonchalante, les caméléons sont des prédateurs redoutables laissant peu de chances à leurs proies qu'ils capturent en projetant soudainement leur langue avec une formidable précision. Durant une capture, leur langue peut être projetée avec une accélération allant jusque 1500 m/s² et s'allonger pour atteindre une longueur d'environ deux fois leur taille. De cette manière, ils sont capables occasionnellement de capturer des proies pesant jusque 30% de leur propre poids. Une adhésion suffisante entre la proie et la langue est donc nécessaire pour permettre la capture de telles proies.

Emmenés par Fabian Brau de l'Université libre de Bruxelles, ULB – Unité de chimie physique non linéaire, Faculté des Sciences – et Pascal Damman de l'Université de Mons – Laboratoire Interfaces & Fluides Complexes –, des chercheurs de l'ULB, l'UMONS et du Muséum National d'Histoire Naturelle de Paris viennent de montrer que le mucus secrété au bout de la langue des caméléons avait une viscosité 400 fois supérieure à celle de la salive humaine.

Une méthode originale a été employée pour mesurer la viscosité de ce fluide secrété en très petite quantité. Une lame de microscope, placée devant une proie pour inciter le caméléon à projeter sa langue, permet de récolter un film mince mucus. Cette lame est ensuite placée sur un plan incliné. Le mouvement d'une bille de métal roulant sur cette dernière est alors filmé avec une caméra rapide. Sous l'action combinée de l'accélération gravitationnelle et de la force visqueuse produite par le fluide, la vitesse de la bille se stabilise pour atteindre une valeur constante, comme lors de la chute d'un parachutiste. La mesure de cette vitesse caractéristique permet de calculer la viscosité du fluide.

Cependant, la viscosité seule ne permet pas de connaitre la force d'adhésion entre la langue et la proie. En effet, cette force résulte de la résistance à se déformer du film de mucus lors d'un étirement soudain. Il faut donc également connaitre la vitesse à laquelle le mucus, se trouvant entre la proie et le bout de la langue, sera étiré durant une capture pour connaitre cette force de résistance (la force d'adhésion). Des outils de mécanique combinés avec des mesures de la morphologie de la langue ont permis de développer un modèle dynamique de capture de proie. Il montre qu'au-delà d'une valeur critique de la taille de la proie, le film de mucus rompt libérant ainsi cette dernière du piège mortel. Cette taille critique, qui dépend de la taille des caméléons, décrit bien l'évolution des plus grandes proies capturées par ces prédateurs tout en étant supérieure. Ce « facteur de sécurité » permet aux caméléons de capturer leur proies même quand les conditions ne sont pas optimales (contact partiel avec la proie ou proie fermement agrippée à son support).

La déformabilité de la langue durant la projection, produisant une grande surface de contact entre cette dernière et la proie, combinée à la viscosité élevée du mucus constitue donc un piège adhésif particulièrement efficace.

Publiée dans la revue Nature Physics de ce 20 juin, cette étude interdisciplinaire fournit une nouvelle méthodologie pour l'étude de la capture des proies par d'autres prédateurs, comme les salamandres ou les crapauds, se nourrissant de cette manière.

Fabian Brau, Déborah Lanterbecq, Leïla-Nastasia Zghikh, Vincent Bels, and Pascal Damman

Dynamics of prey prehension by chameleons through viscous adhesion

Nature Physics 2016, Advance Online Publication June 20, 2016, DOI:10.1038/nphys3795

Regel massif d'eau de fonte et stabilité des ice shelves antarctiques

Mardi le 21-06-2016

Une étude internationale à laquelle ont contribué Morgane Philippe (PhD) et Jean-Louis Tison (co-directeur du laboratoire de Glaciologie), publiée dans la revue Nature Communications, a mis en évidence la formation de quantités massives de glace de regel (40 km3) au sein de la plateforme de glace flottante Larsen C en Antarctique.

Une plateforme de glace flottante (ice shelf, en anglais) est, comme son nom l'indique, une épaisse plaque de glace flottant sur l'océan, en bordure des grande calottes glaciaires (Groenland et Antarctique). Elle se forme lorsque la glace accumulée sur le continent s'écoule vers la périphérie sous l'effet de son propre poids et perd le contact avec le socle rocheux sous l'effet de la poussée d'Archimède, lorsqu'elle rencontre l'océan. Les plateformes de glace flottantes s'écoulent beaucoup plus rapidement que la glace en amont, puisque presque toute la friction avec le socle rocheux a disparu. Il existe cependant encore quelques points de contact avec les ilôts sous-marins où avec les rivages des baies, qui ralentissent leur course et contribuent à leur effet de freinage (backstress, en anglais) sur les glaces en amont. Toute diminution d'épaisseur (par exemple par fonte basale de la glace) ou remontée du niveau marin est susceptible de diminuer les surfaces de contact glace-roche et donc le backstress. Les glaces en amont peuvent ainsi s'écouler plus rapidement vers la côte et devenir flottantes à leur tour, contribuant alors à un relèvement du niveau marin. Les plateformes de glace flottantes peuvent donc être considérée comme les « robinets » des calottes glaciaires, contrôlant leur stabilité et le taux de remontée du niveau marin en période de réchauffement climatique. C'est pourquoi les ice shelves antarctiques sont aujourd'hui étroitement surveillés.

Ainsi, au cours des dernières décennies, plusieurs d'entre eux se sont désintégrés quasi totalement, perdant la majeure partie de leur masse en quelques mois seulement. Les plus connus sont le Larsen A (disparu en 1995) et le Larsen B (disparu en 2002), tous deux localisés dans le secteur de la Mer de Weddell en bordure de la Péninsule, la partie la plus chaude de l'Antarctique, qui a gagné près de 4°C de température moyenne annuelle en l'espace d'un demi-siècle. Le Larsen C, sujet de la présente étude, est l'ice shelf le plus septentrional suivant de cette série, avec une superficie d'environ deux fois celle de la Belgique (50000km2). Les trois ice shelves ont montré juste avant leur rupture ou montrent encore actuellement des signes accrus de fonte de surface en raison du réchauffement climatique récent. Il s'agit ici plus particulièrement des vents chauds et secs (Foëhn) qui dévalent les flancs Est des montagnes formant la Péninsule Antarctique (Graham Land). Dans les cas extrêmes, la fonte résulte en la formation d'une série de lacs de surface, alignés dans la direction de l'écoulement. La pénétration de ces eaux de fonte de surface dans les crevasses, contribuant à leur propagation jusqu'à l'océan sous-jacent, est considérée comme un des principaux responsables de l'accélération du démantèlement des Larsen A et B dans le passé.

Combinant l'utilisation sur le terrain de mesures radar et de mesures optiques dans des trous de sondage dans la glace, à des mesures satellitaires et à de la modélisation des processus de fonte-regel de la neige, l'étude a démontré, pour la première fois, une alternative au processus décrit ci-dessus. La formation intermittente des étangs de surface peut conduire, au cours des années, à la construction d'une quantité massive de glace de regel en profondeur, en lieu et place d'une transformation lente et progressive de la neige (densité de 300 à 500 kgm-3) en névé (phase de densité intermédiaire : de 500 à 830 kgm-3), puis en glace. Bien que de forme non régulière, les dimensions de cette couche de glace interne sont de quelques dizaines de kilomètres à la fois transversalement et dans la direction de l'écoulement, et d'une centaine de mètres d'épaisseur (40 km3). Les mesures dans les trous de sondage, à l'analyse desquelles l'équipe de l'ULB a plus spécifiquement contribué dans le cadre d'une collaboration de longue date (notamment à la base belge Princesse Elisabeth) avec le Professeur Bryn Hubbard (Université d'Aberystwyth, UK) a montré que cette glace est 10°C plus chaude et 170 kgm-3 plus dense qu'attendu à ces profondeurs.

Il est encore trop tôt pour évaluer quantitativement l'impact de cette masse de glace sur la dynamique et la stabilité de l'ensemble de l'ice shelf. On peut cependant évoquer le fait qu'une glace plus chaude se déforme beaucoup plus aisément, accommodant l'accumulation des contraintes et limitant ainsi la fracturation de l'ice shelf (stabilité accrue). A l'inverse, si cette glace s'écoule plus rapidement que les glaces environnantes, elle engendrera des gradients de contrainte accrus à ses limites, favorisant les fractures (instabilité accrue).

Ce phénomène à toutes les chances d'exister ailleurs en Antarctique, en particulier le long des côtes où la présence de lacs de fonte est de plus en plus répertoriée. C'est notamment le cas sur la Princess Ragnhild Coast, à proximité de la base belge Princesse Elisabeth, où les dernières expéditions conduites par le Laboratoire de Glaciologie de l'ULB (Frank Pattyn, Reinhard Drews) ont pu constater la présence de grandes quantités d'eau de fonte qui forment des lacs circulaires à la « racine » (ligne d'ancrage) de la plateforme de glace flottante Roi Baudouin, formant parfois de véritables « torrents » qui s'engouffrent dans les crevasses. Des mesures radars plus en aval ont également mis en évidence des masses de glace homogènes (non litées comme l'est habituellement le névé) qui pourraient bien constituer l'équivalent des masses de glace découvertes dans le cadre de la présente étude.

B. Hubbard, A. Luckman, D.W. Ashmore, S. Bevan, B. Kulessa, P.K. Munnele, M. Philippe, D. Jansen, A. Booth, H. Sevestre, J.-L. Tison, M. O'Leary and I. Rutt, 2016. Massive subsurface ice formed by refreezing of ice-shelf melt ponds, Nature Communications, 7, Article number: 11897, doi:10.1038/ncomms11897, Published 10 June 2016.

GGE3-Diagram2layered file_small format-2560x3072.jpg

Un nouveau modèle de compréhension de la transcription des gènes

Lundi le 20-06-2016

Les facteurs de transcription jouent un rôle fondamental dans la régulation des gènes. Toutefois, le modèle actuel confine ces protéines aux étapes précoces de l'expression des gènes, lors de la synthèse de l'ARN messager (étape de transcription). Jusqu'à présent, les protéines de la famille ERG (E-26 related gene) étaient considérées comme des facteurs de transcription prototypiques, contrôlant la transcription des gènes impliqués dans des processus fondamentaux, tels que la prolifération, la mort ou la différenciation cellulaire. Dans une publication dans la revue Nature Structural & Molecular Biology, des chercheurs belges et américains montrent que les facteurs ERG interviennent non seulement lors de la synthèse de l'ARN messager dans le noyau, mais également lors de sa dégradation dans le cytoplasme.

Les chercheurs ont identifié précisément les mécanismes moléculaires associés à cette nouvelle fonction : les facteurs ERG se lient à l'ARN messager via des protéines de liaison à l'ARN et recrutent ensuite le complexe CCR4-NOT, un complexe multiprotéique assurant la déadénylation des ARNs messagers, première étape du processus de dégradation chez les eucaryotes. Les chercheurs ont en outre fourni un contexte biologique à leurs observations en montrant que le contrôle coordonné de la synthèse et de la dégradation d'ARN messagers spécifiques par ERG était indispensable à l'accomplissement du processus de mitose (division du noyau) cellulaire.

À l'ULB, les membres de l'unité de Bioinformatique des génomes et des réseaux (Faculté des Sciences) ont contribué à cette étude en participant à l'analyse bioinformatique de toutes les interactions des ERG et à l'identification des ARNs messagers dégradés par ces facteurs. Le laboratoire de Biologie moléculaire du Gène (Véronique Kruys, Faculté des Sciences) a quant à lui apporté son expertise pour montrer les liens entre les facteurs ERG et la machinerie de dégradation des ARNs messagers et mesurer la dégradation de ces derniers au cours du temps.

Cette découverte remet en question le rôle des facteurs de transcription dans l'expression des gènes puisqu'elle montre que ces protéines interviennent également dans des étapes tardives du processus d'expression des gènes. Plus largement, ces observations suggèrent également qu'en accompagnant les ARN messagers de leur « naissance » à leur « mort », les facteurs de transcription joueraient un rôle de chef d'orchestre, permettant à la cellule de coordonner toutes les étapes de l'expression des gènes.

En biologie, ce nouveau modèle constituerait une avancée fondamentale puisqu'elle redéfinit le concept même de facteur de transcription. Il ouvre également un large champ de nouvelles perspectives thérapeutiques en recherche médicale, les facteurs de transcription étant impliqués dans le développement d'une multitude de pathologies, comme certains cancers.

The transcription factor ERG recruits CCR4–NOT to control mRNA decay and mitotic progression

Nature Structural & Molecular Biology (2016) doi:10.1038/nsmb.3243

Nouveau Master en Agroécologie

Vendredi le 13-05-2016

Circuits courts, production biologique, travail du sol sans labour, maraîchage en permaculture, agriculture urbaine, etc. Dans le domaine agroalimentaire, les nouvelles initiatives de transition ne cessent d'éclore. Le plus souvent, elles répondent aux associations et citoyens inquiets devant les crises planétaires (climat, biodiversité, énergie). Encore faut-il que les agriculteurs puissent être accompagnés par des professionnels disposant des compétences nécessaires pour concrétiser et crédibiliser les projets.

Le nouveau Master en Agroécologie interuniversitaire (ULg, ULB, Université Paris–Saclay, Agro Paris Tech), proposé dès la rentrée académique prochaine, tombe à propos. Son objectif: former des acteurs capables d'accompagner la transition agroécologique des systèmes de production alimentaire dans un contexte européen et tropical.

Ce modèle exige des approches interdisciplinaires qui permettront d'appréhender les systèmes de production et les systèmes alimentaires dans toute leur complexité. Ce changement est tel qu'il requiert qu'un nombre important d'acteurs tels que des conseillers techniques, des chercheurs, des enseignants soient formés pour accompagner cette transition agroécologique.

Le programme s'articule autour de 4 grands modules d'enseignement complété par des projets, des études de cas, des visites de terrain et des mises en situation permettant à l'étudiant d'être dans une posture active d'apprentissage. Le travail de fin d'études et le stage permettront à l'étudiant de découvrir de manière approfondie le monde professionnel de l'agroécologie. Enfin, un certain nombre de cours seront données en langue anglaise afin de plonger l'étudiant dans un contexte linguistique international favorable à son évolution professionnelle future.

Plus d'information:www.master-agroecologie.eu

Nouveau Master en Cybersécurité

Mercredi le 06-04-2016

Six établissements de l'enseignement supérieur proposent dès la rentrée prochaine un nouveau Master en Cybersécurité en codiplomation. Il s'agit d'une Première en Belgique.

Ce nouveau Master en Cybersécurité verra le jour à la rentrée prochaine. Il s'agira d'une codiplômation à six (quatre établissements d'enseignement universitaire : ULB, UCL, UNamur, École royale militaire et deux Hautes Ecoles : HEB et HELB) dont l'ULB est l'établissement référent.

« Cette nouvelle formation, souligne Yves Roggeman – professeur à la Faculté des Sciences et coordinateur du master pour l'ULB, répond à un besoin de société et vise à former des experts à même de répondre aux défis techniques, légaux et éthiques relatifs à la sécurité des systèmes informatiques et des réseaux de télécommunications. Les études de master en cybersécurité ont pour objectif principal, ajoute-t-il, de former des spécialistes de cette discipline pointue émergente. »

« Le nombre de système critiques et la quantité de données sensibles n'ont fait que croître au cours des dernières années, selon Olivier Pereira, coordinateur du master pour l'UCL. Ce nouveau Master en Cybersécurité formera des personnes qui pourront répondre aux demandes de sécurité crées par ces évolutions, pour les personnes, pour les entreprises, dans le secteur public. »

Le Master est structuré autour de quatre axes principaux : une formation multidisciplinaire, un stage en entreprise, la réalisation d'un mémoire de fin d'études et deux spécialisations présentant une finalité scientifique ou plus appliquée. Au-delà de connaissances académiques pointues, les étudiants seront également amenés à réaliser plusieurs projets collectifs. Cette pédagogie active s'appuiera sur des rapports structurés, critiques et argumentés démontrant tant la maîtrise des compétences transversales informatiques, scientifiques et managériales, que la capacité d'acquisition autonome de connaissances et de savoir-faire nécessaires dans des contextes nouveaux et évolutifs.

Les études du Master en Cybersécurité (master en 120 crédits) sont accessibles aux porteurs d'un Bachelier en informatique ou en ingénierie. De plus, vu l'objectif technique et fortement spécialisé de la formation, cette formation est particulièrement appropriée dans le cadre d'une reprise d'études ou comme spécialisation pour les étudiants déjà porteurs d'un Master en sciences informatiques ou d'un Master ingénieur civil en informatique. Dans ce cas, il est possible, dès l'admission, de valoriser jusqu'à 60 crédits. Pour les Bacheliers de type court, une admission personnalisée permettra de déterminer les valorisations ou compléments éventuels adaptés à leurs parcours.


"iNo": an index with diagnostic and prognostic potential in cancer research and the clinics

The RNA Molecular Biology Laboratory headed by Professor Denis Lafontaine (www.LafontaineLab.com) at the Université Libre de Bruxelles (www.ulb.be) has just published a study in Nature Communications revealing essential aspects of the regulation of the anti-tumor protein p53.

Because p53 protects us by killing cancer cells, it is considered a "good" protein. In normal cells, which of course don't need to be killed, p53 is scarce, because it is degraded all the time. Its stabilization in cancer cells leads to cell death. The level of p53 is regulated in many different ways. Some important up-regulators of p53 are to be found in the ribosome, an essential cell nanomachine responsible for the synthesis of all the proteins in all living cells. Certain ribosomal proteins can capture and sequester a p53-degrading protein, thus preventing p53 degradation.

At the heart of our cells lies an important factory called the nucleolus. This is where ribosomes are synthesized. For decades, the aspect of the nucleolus has been acknowledged as a good indicator of the health status of a cell. The shape, size, and number of nucleoli can vary greatly when a cell is stressed or diseased. Nucleolar abnormalities notably appear in cancer cells and virus-infected ones.

Although the nucleolus was discovered by the Italian scientist Fontana in 1774, these basic questions have not yet been answered. To address them, the researchers built a high-throughput screening platform: a robot microscope that can look into thousands of cells in a very short time, checking the morphology of their most intimate details and reporting it to a tailor-made computer algorithm.

The aim of the work was to answer the question which of the eighty ribosomal proteins is required for maintaining the structural integrity of the nucleolus?

In collaboration with Professor Christophe De Vleeschouwer of the Université catholique de Louvain (ICTEAM-ELEN), they developed an innovative index, coined the "index of nucleolar disruption", in short the "iNo score", which provides information about whether the nucleolar structure is damaged or not, and if it is damaged, how severe the damage is.

One conclusion of the work is that only a few among the eighty ribosomal proteins are required to maintain nucleolar structure. And the really astounding result is that the ribosomal proteins most essential to the structure of the nucleolus are precisely those which are important in regulating the p53 level. This was totally unexpected, and far more than we had hoped for. Basic research will always keep on surprising us.

This work has important biomedical research applications, as the iNo score has great potential for use in cancer research and clinical biology.

The study entitled "Involvement of human ribosomal proteins in nucleolar structure and p53-dependent nucleolar stress", published in Nature Communications DOI: 10.1038/ncomms11390, is available on-line at http://www.nature.com/ncomms/2016/160606/ncomms11390/full/ncomms11390.html


MIT Technology: une ulbiste primée

Chaque année, depuis 1999, la prestigieuse revue MIT Technology révèle une nouvelle génération de chercheurs/innovateurs de moins de 35 ans, travaillant sur des thématiques globales pouvant changer notre façon de vivre. Cette année Allison Derenne, chercheuse au Laboratoire Structure et Fonction des membranes biologiques (SFMB) de la Faculté des Sciences, a été sélectionnée parmi 8 autres nominés pour sa volonté d'accélérer le développement et la production de biopharmaceutiques grâce à la spectroscopie infrarouge.

Depuis 2013, la chercheuse élabore des méthodes innovantes pour analyser la structure et la composition des protéines thérapeutiques, sur la base de l'expertise et des compétences développées depuis plus de 10 ans au laboratoire SFMB. Actuellement, Allison monte une spin-off nommée Spectralys Biotech, dont l'objectif est d'offrir des services et méthodes analytiques rapides, fiables et innovants aux entreprises biopharmaceutiques, en tirant parti de son expertise en spectroscopie infrarouge : la technologie développée par la chercheuse permettrait d'analyser plusieurs paramètres des protéines simultanément, sans calibrer les instruments à chaque fois, et de manière beaucoup plus rapide que les techniques actuelles.


Summer School of Mathematics

Organisée chaque année au mois d'août à l'Université libre de Bruxelles, la Brussels Summer School of Mathematics (ou BSSM) consiste en une semaine de séminaires sur différents sujets en mathématique (algèbre, analyse, géométrie, géométrie différentielle, logique, probabilité, statistique, topologie, physique mathématique...).

Les cours sont donnés soit en français soit en anglais, et les orateurs sont tantôt des mathématiciens confirmés de réputation internationale, tantôt des jeunes chercheurs (doctorants ou postdoctorants).

Il y a une grande diversité de sujets abordés, l'emphase étant mise sur des problèmes importants possédant des solutions courtes et enthousiasmantes. L'objectif de cette école d'été n'est pas de proposer une formation sur telle ou telle théorie, mais plutôt de montrer la beauté et la diversité des mathématiques. Les exposés sont accessibles à quiconque possède une formation de base en mathématique. Il ne s'agit pas d'une conférence réservée aux seuls spécialistes, ni d'un exercice de vulgarisation : la BSSM entend être à l'intersection de ces deux formes de communication scientifique fondamentales en présentant au public intéressé une introduction accessible à la recherche en mathématique.

Visitez le site de l'événement pour le programme et le formulaire d'inscription


Les ApoLs, régulateurs de l'inflammation

La réaction immunitaire est un mécanisme complexe, impliquant de nombreuses cellules. Dans cette réaction immunitaire, les cellules dendritiques jouent le rôle desentinelles: lorsqu'elles détectent la présence d'un pathogène, elles vont alerter les autres cellules immunitaires et créer d'un contexte inflammatoire pour éliminer rapidement le plus possible de pathogènes. Ce contexte inflammatoire peut être toxique pour les cellules saines: le processus doit donc être soigneusement régulé.

Dans un article du European Journal of Immunology, Sophie Uzureau et ses collègue de l'UR en Parasitologie moléculaire (Etienne Pays - Faculté des Sciences) montrent qu'une famille de protéines appelées apolipoprotéines L (ApoLs) interviennent dans la régulation de l'activité des cellules dendritiques. En collaboration avec le laboratoire d'Immunobiologie (Faculté des Sciences) et le CMMI (Centre de Microscopie et d'Imagerie Moléculaire - Biopark Gosselies), les chercheurs ont démontré que les ApoLs sont synthétisées dans les cellules dendritiques à la détection d'une présence virale et interviennent dans le processus de mort cellulaire, mettant fin à l'activité des cellules dendritiques.

Cette découverte pourrait être importante dans le contexte des dysfonctionnements du système immunitaire liés à une durée de vie trop longue des cellules dendritiques activées, comme l'autoimmunité ou les maladies inflammatoires.


Virus H5N1 : le point

Même si elle ne fait plus l'actualité, la grippe aviaire H5N1 sévit toujours dans un certain nombre de pays d'Asie (Bangladesh, Indonésie, Chine, Vietnam) et d'Afrique (Egypte, Nigeria, Cameroun, Ghana). Dans ces régions, elle a un impact économique et sanitaire important sur le secteur de la volaille. La circulation du virus dans la populations aviaire s'accompagne occasionnellement d'infections humaines parmi les personnes aux contact de volaille infectieuse avec une forte mortalité parmi les personnes infectées. Récemment, lors de l'hiver 2014-2015, on a pu constater une augmentation inquiétante du nombre des cas humains en Egypte, avec 165 cas recensés, dont 48 décès. Ces chiffres étaient particulièrement préoccupants, puisque depuis l'apparition du virus en 1997, ce nombre représentait le plus grand nombre de cas recensés sur une telle durée.
 Il était dès lors important de faire une étude descriptive de l'épidémiologie de ces cas, de manière à identifier si certaines caractéristiques du virus pouvaient avoir changé, ce qui aurait pu se traduire par des caractéristiques épidémiologiques différentes et détectables.

Une équipe internationale composée de chercheurs du « China Center for Disease Control » de l'université de Southampton et Marius Gilbert, LUBIES (Lutte biologique et écologie spatiale), Ecole interfacultaire de bioingénieurs (Faculté des Sciences et Ecole Polytechnique de Bruxelles) fait le point sur l'épidémiologie des infections humaines par le virus d'influenza aviaire H5N1 et publie cette semaine un article de synthèse dans la revue The Lancet Infectious Diseases.



Cet article se penche sur l'ensemble des 907 cas humains recensés depuis l'émergence du virus. L'équipe de chercheurs s'est en particulier intéressé à la distribution géographique et temporelle des personnes touchées, la distribution des cas par classe d'âge et de sexe, le risque global de décès des cas recensés (53.3%), aux délais de prise en charge, ainsi qu'à la fréquence d'un certain nombre d'antécédents d'exposition des cas à différentes sources d'infection (volailles, marché).
Ces analyses sont effectuées à l'échelle globale d'une part, et séparément pour les pays d'Asie et d'Afrique du nord d'autre part. Les résultats montrent une tendance à la diminution des cas en Asie au cours du temps et une augmentation de ceux-ci en Egypte. L'analyse de ces données permet de montrer qu'à l'exception de l'âge des personnes infectées, les caractéristiques des cas humains recensés en Egypte en 2014/2015 sont similaires à celles des autres cas recensés précédemment. Les causes de l'augmentation du nombre de cas restent donc obscures, mais sont probablement liées à un accroissement de la circulation de la maladie dans les élevages et à une baisse de la sensibilisation des personnes exposées. En effet, la transmission à l'homme se fait fréquemment lors de la manipulation de la volaille achetée vivante sur les marchés, plus précisément lors d'étapes d'abattage, de plumage et de nettoyages réalisés à domicile. Une bonne sensibilisation au risque de transmission lors de ces étapes et des mesures simples qui peuvent être prises pour empêcher celle-ci (hygiène, masque) permet de réduire drastiquement le nombre de cas, mais cette sensibilisation doit être répétée pour rester efficace.

Au cours des 6 derniers mois, des foyers de virus H5N1 ont été dans des élevages d'Egypte, du Nigéria, du Ghana et de Côte d'Ivoire. Ces infections s'accompagnent d'une mortalité massive des volailles infectées et ont donc un impact socio-économique important dans un contexte ou l'élevage avicole peut représenter une source importante de revenu et de subsistance alimentaire. Cette publication nous rappelle que les épidémies causées par le virus H5N1 dans le secteur aviaire continue à représenter une menace de santé publique qu'il y lieu de prévenir et de surveiller de près.

Global epidemiology of avian influenza A H5N1 virus infection in humans, 1997-2015: a systematic review of individual case data Cited in Scopus: 0 Shengjie Lai, Ying Qin, Benjamin J Cowling, Xiang Ren, Nicola A Wardrop, Marius Gilbert, and others The Lancet Infectious Diseases

 

Clin d'oeil

A vos agendas !

  • Les activités de l'Expérimentarium de Physique