Quantcast
Channel: Flux Université de Lorraine - Articles
Viewing all 1675 articles
Browse latest View live

Un fusil de la 1ère guerre mondiale rénové grâce aux technologies 3D

$
0
0

Le Lorraine Fab Living Lab® (laboratoire ERPI et ENSGSI) est partenaire du Laboratoire d’archéologie des métaux du musée de l'Histoire du fer (LAM) dans le cadre du projet de rénovation du monument aux morts de Létricourt.

Cette statue a connu des préjudices de la seconde guerre mondiale et un démontage « violent » en 2014. Le fusil de la statue du soldat a été particulièrement dégradé et il ne lui restait que la pointe et sa baïonnette.

Avec le concours d’un binôme d’étudiants de l’EXIA.CESI en stage, l’équipe du LF2, a réalisé une copie numérique en 3D d’un fusil d’époque pour reconstituer cette partie. Grâce au prêt d’un fusil modèle Lebel 1886 par le Musée de la Guerre de 1870 et de l’Annexion de Gravelotte et à l’utilisation du Scanner Artec EVA du Lorraine Fab Living Lab®.

Après la numérisation et le traitement des images, le fusil a été fabriqué par impression 3D (technologie FDM au LF2L). L’objet imprimé a été ensuite peint pour donner un aspect similaire à la statue originale.

Le modèle imprimé a également servi de base pour réaliser un coulage en bronze permettant d’avoir une pièce plus adaptée à l’extérieur et réaliser ainsi une rénovation finale plus résistante.

Ce projet a ainsi permis de créer une expertise commune LF2L / LAM en numérisation et impression 3D de pièces historiques métalliques de grandes envergures et à la formation de deux élèves ingénieurs.

 

Fusil Lebel modèle 1886 et la partie restante de la statue
Photo de la statue du soldat du monument de Létricourt
Numérisation au Lorraine Fab Living Lab®
Modèle numérisée du fusil
De haut en bas, la statue, le fusil de modèle et la pièce final reproduit par impression 3D
L'équipe de rénovation, lors du dévoilement de la statue
Statue du poilu de Létricourt
Statue du poilu de Létricourt
Statue du poilu de Létricourt
Statue du poilu de Létricourt
Statue du poilu de Létricourt
Statue du poilu de Létricourt

Entre changement climatique et croissance économique, des liens très étroits

$
0
0
Economie et climat : une fois de plus la preuve est faite qu'un bon dessin vaut mieux qu'un long discours. Rémi Malingreÿ.

Olivier Damette est professeur au Bureau d'économie théorique et appliquée (BETA). Pour lui, les économistes ont leur rôle à jouer aux côtés des climatologues dans l’analyse et la gestion du changement climatique, mais ils doivent d’abord perfectionner leurs modèles. C'est pourquoi il contribue au projet IMPACTHydrogène sciences et technologies (ULHyS) dans le cadre du défi énergies du futur et transition énergétiquede l'initiative Lorraine Université d'Excellence (LUE).

Le récent prix de la Banque de Suède (l’équivalent du Nobel d’économie) attribué à William Nordhaus, a remis en lumière, à l’heure où le GIEC met une nouvelle fois en garde la planète sur les risques du réchauffement climatique, l’intérêt d’étudier l’impact du changement climatique du point de vue de la science économique.

Dans un article récent du réputé Journal of Economic Perspectives, Solomon Hsiang et Robert E. Kopp démontrent que les économistes doivent accompagner, plus qu’on pourrait le croire, les climatologues dans l’analyse et la gestion du changement climatique. Mais que disent les chercheurs en sciences économiques sur les effets du climat ?

File 20181107 74772 13vzfd0.jpg?ixlib=rb 1.1

Selon une étude, un degré Celsius supplémentaire se traduirait par 8,5% de croissance en moins. Sima / Shutterstock

Jusqu’à présent, les économètres analysaient les séries statistiques climatiques (températures par exemple) et tentaient d’établir des liens avec des indicateurs économiques pour bâtir des prévisions. Quant aux travaux normatifs – controversés – de Nordhaus et aux analyses de type IAM (integrated assessment model), ils visaient à évaluer le bienfait de certaines politiques d’atténuation (mitigation en anglais) en matière de bien-être économique.

Interrogations dès le XIVe siècle

Récemment, au-delà de ces travaux, s’est développée une nouvelle littérature économique du climat. Cette new climate economy literature a été popularisée par un article de Melissa Dell, Benjamin F. Jones et Benjamin A. Olken publié en 2014 dans le Journal of Economic Literature. Les auteurs font le point sur les travaux empiriques qui examinent le lien entre températures, précipitations ou évènements extrêmes (tempêtes, etc.) et les variables économiques. Il est à noter que Nordhaus lui-même, dès les années 1970, regrettait l’absence de travaux empiriques permettant de mettre en avant les effets des aléas climatiques sur la croissance notamment.

Longtemps, les économistes ont pensé que les éléments géographiques n’étaient pas des déterminants significatifs de la croissance (sauf éventuellement dans certains cas spécifiques). Selon les études empiriques recensées, il ne fait pourtant aucun doute que les chocs climatiques constitueraient bel et bien une entrave à la croissance. C’est au moins le cas pour les pays tropicaux dont les écarts de températures enregistrés engendreraient une volatilité forte des revenus agricoles ou encore du tourisme.

On soupçonne depuis des siècles le climat d’être corrélé négativement au revenu (voir par exemple les écrits de l’historien arabe Ibn Khaldoun au 14e siècle ou encore ceux du philosophe des Lumières Montesquieu sur l’excès de chaleur). Il a cependant fallu attendre 2014 pour que les économistes disposent d’un véritable article de référence sur la question et recensent les preuves empiriques des chocs climatiques sur la croissance.

Un degré Celsius supplémentaire, 8,5 % de croissance en moins

Les premières études économétriques en coupe (qui comparent un échantillon à différents instants donnés), menées notamment par Jeffrey D. Sachs au début des années 2000, montraient déjà des effets de températures élevées sur le revenu par habitant, la productivité agricole et la santé. À partir d’un échantillon mondial, Dell, Jones et Olken indiquent, eux, qu’un degré Celsius supplémentaire se traduirait par 8,5 % de croissance en moins.

Selon les travaux menés par Nordhaus en 2006, 20 % des différences de PIB entre les pays africains et les régions les plus riches de la planète s’expliqueraient par des variables géographiques dont la température, les précipitations (via leurs effets sur la qualité des sols) et la productivité agricole. Récemment, une étude de Marco Letta et Richard Tol insiste sur ce point : elle souligne que le changement climatique va accroître davantage les inégalités entre les pays riches et les pays du Sud, ces derniers étant plus vulnérables (forte part du secteur agricole impacté de facto par le changement climatique, accès restreint aux énergies, etc.).

Les études le plus récentes menées en panel (permettant de prendre en compte des effets conjugués et dynamiques à la fois dans le temps et l’espace) comme celles de Dell et coll. en 2012 montrent d’ailleurs que des températures élevées handicapent en premier lieu les pays pauvres (1,4 % de croissance en moins pour un degré Celsius supplémentaire).

Aller plus loin : non-linéarité et hétérogénéité spatiale

Ces études en panel ont permis d’améliorer la robustesse des effets identifiés, mais elles reposent souvent sur une estimation de l’impact de la température ou de la quantité de pluie sur une variable économique. Elles peinent donc à prendre en compte les effets asymétriques et non linéaires du climat sur l’économie. Bien évidemment, les sécheresses ont un impact négatif sur la croissance, via leurs effets sur les rendements agricoles. Mais alors qu’une augmentation des pluies est bénéfique pour les terres jusqu’à un certain seuil, son effet s’avère néfaste en excès (voir l’exemple des intempéries dans l’Aude en France, mi-octobre 2018). Des modèles non linéaires sont donc nécessaires pour capter ces phénomènes, comme l’ont très bien compris Marshall Burke, Solomon Hsiang et Edward Miguel.

Enfin, il est nécessaire de se demander si les périodes considérées dans les études ne sont pas sont trop restreintes et si les individus ne peuvent pas s’adapter au changement climatique sur très longue période ; c’est ce que fait Maria Waldinger, de la London School of Economics, en s’intéressant aux effets de long terme du climat sur la productivité agricole lors la période du petit âge glaciaire.

À présent, le défi pour les chercheurs en économie est d’aller encore au-delà. Outre la prise en compte de la non-linéarité, les recherches récentes visent à améliorer la qualité des variables climatiques. Les données utilisées, comme la température moyenne ou la quantité de pluies, s’avèrent en effet largement insuffisantes : quel point commun y a-t-il entre Lille et Marseille en termes de climat ? Aucun, et pourtant ils font partie d’une seule et même observation pour la France entière dans les études statistiques.

L’émergence de données spatiales et d’indicateurs climatiques plus synthétiques (utilisés par exemple par les économistes Cécile Couharde et Rémi Generoso dans de récents travaux) devraient permettre aux approches empiriques de gagner encore en crédibilité. Les économistes pourront ainsi aider au mieux les climatologues et les ingénieurs en sciences environnementales dans la bonne gestion future des effets du réchauffement climatique.

The Conversation

Olivier Damette, Professeur des Universités en Sciences Economiques, Laboratoire BETA, Université de Lorraine

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Portrait de Véronique Lemoine-Bresson, didacticienne

$
0
0
© L. Gobert | ATILF
"Depuis l’âge de 8 ans, j’ai toujours voulu être maîtresse !"

© L. Gobert com ATILF

Originaire de Lorraine, Véronique Lemoine-Bresson est née en 1966. Après 17 ans à Metz, elle s’est dirigée vers le bassin minier de Lens et surtout quelques décennies à Lille, jusqu’en 2015. Après ses études initiales en allemand Littérature et Civilisation, option espagnol et hongrois, elle a travaillé deux ans en Allemagne à Augsburg en Bavière à la Bundespost. C’est en 1988 qu’elle a passé le concours d’Instituteur, par vocation.

Admise dans l’Académie et Lille et dans l’Académie de Rouen, elle a choisi de rester dans le Nord pour suivre les deux années de formation à l’École normale de garçons de Douai. D’abord, enseignante en école primaire, elle a consacré une douzaine d’années de sa carrière aux élèves de secteurs dits défavorisés, en Zone d’Éducation Prioritaire (ZEP) à Roubaix dans le quartier du Cul-de-Four. Chaque année, Véronique Lemoine-Bresson prenait plaisir à "tester" un autre niveau de classe ou à s’investir dans les niveaux multiples dont personne ne voulait ! Au bout du compte, elle a enseigné dans tous les niveaux de classes … sauf le CP.

> Dolto, tout un roman

Très fan de Françoise Dolto, elle a lu tous ses ouvrages qui l’ont beaucoup inspirée dans son rapport aux élèves de ses classes. Dans son livre sur l’échec scolaire en 1990, elle avait bien noté que "l’être humain n’est pas un objet à conformer au désir d’autrui".

Ces années d’enseignement ont aussi été marquées par la conduite de nombreux projets avec des partenaires sociaux et éducatifs à Roubaix et à Mönchengladbach en Rhénanie du Nord-Westphalie. Ensuite, pendant une quinzaine d’années, Véronique Lemoine-Bresson a été conseillère pédagogique, d’abord généraliste à Roubaix (toutes disciplines scolaires), puis spécialisée langues vivantes à la Direction des services départementaux de l’éducation nationale à Lille. Ce temps lui a permis de mieux comprendre en quoi consistait la politique des langues dans une académie de très grande taille géographique et de fortement collaborer avec les collègues IA-IPR* du second degré, notamment dans la création d’un protocole d’évaluation du niveau A1 du CECRL* pour les élèves de l’académie de Lille. Pendant cette période, elle a été également formatrice associée en formation initiale d’enseignants, d’abord à l’IUFM devenue ESPÉ* Lille Nord de France.

Vers le chemin de la thèse

Cette association l’a poussée naturellement à reprendre des études en 2008 à l’université de Lille 3, avec une entrée en Master 2 par une VAP*. Elle a validé dans un premier temps un Master 2 professionnel en didactique professionnelle qui lui a permis d’interroger les notions de conseil, d’accompagnement et de médiation en formation de formateurs. À l’époque, il lui importait essentiellement de se sentir légitime d’un point de vue académique vis-à-vis des formés à l’ESPÉ, à savoir avoir un BAC +5 et compléter ses savoirs d’expérience.

Puis, sollicitée par Bertrand Daunay, son directeur de mémoire, à une poursuite en thèse de doctorat, Véronique Lemoine-Bresson a embrayé sur un Master 2 recherche en didactiques au laboratoire CIREL-Théodile à Lille 3 axe "Enseignements Apprentissages Didactiques". En juillet 2014, elle soutenu s thèse intitulée "Diversités franco-allemandes : pratiques interculturelles et autonomisantes en didactique des langues" sous la direction de Bertrand Daunay et Fred Dervin. Ces années resteront pour elle ce qu’elle appelle dans son discours de soutenance "une révolution intellectuelle".

Maître de conférences, une nouvelle aventure

Après une qualification en sciences de l’éducation par le Conseil national des universités, Véronique Lemoine-Bresson a été recrutée en tant que maitre de conférences par l’université de Lorraine notamment l’ESPÉ en 2015. Au regard de la première et longue partie de sa carrière "côté ’employeur éducation nationale", s’investir pleinement à l’ESPÉ lui convenait parfaitement. Aujourd’hui encore elle reste très attachée à l’enseignement et en même temps, elle est passionnée par ses objets de recherche qui touchent aux problématiques interculturelles en éducation.

Elle est particulièrement intéressée par les mises en scène de soi, pour reprendre un terme de E. Goffman*, par les discours des personnes pour se dire, pour dire la rencontre de soi et de l’autre, par l’usage d’éléments culturels pour expliquer, se défausser, s’excuser voire séduire l’autre, par le rapport aux contenus culturels prescrits et enseignés en classe.

À l’ESPÉ, elle apprécie particulièrement l’implication des étudiants dans ces thématiques et leur engagement pour mener ensemble un parcours réflexif et critique autour de la notion d’interculturalité. Innovante pour rompre la monotonie du cours magistral, elle aime beaucoup travailler à partir du court métrage French Touch de Xiaoxing Cheng | 20’ | 2015 | Line Up Film. Elle ose ! elle teste !

D’ailleurs, en cours, quand les étudiants utilisent (trop) fréquemment des expressions comme "le choc des cultures", "la rencontre des cultures" qui sont souvent des "coquilles vides", Véronique Lemoine-Bresson prend plaisir à leur souffler "Cultures don’t meet. People do"* qui est sa base pour construire le cadrage théorique de l’interculturalité, que ce soit pour ses enseignements ou ses recherches.

Côté Recherche

Elle travaille étroitement avec Stéphanie Lerat, aussi maître de conférence à l’ATILF rattachée à l’équipe Didactique des langues et sociolinguistique et Virginie Trémion, maître de conférences à Paris. Elles mènent depuis deux années un projet autour du développement des compétences interculturelles des étudiants niveau Licence et de Master à l’issue de cours à et par l’interculturalité, projet DIPERLANG*. Elles sont accompagnées par Marie-José Gremmo, professeure émérite anciennement en poste à l’UL, rattachée au LISEC.

Elle a également encore ouvert ses horizons de recherche en 2017 par l’entrée dans un projet franco-brésilien conduit par Sophie Bailly et Juliana Assis, une collègue de l’université à Belo Horizonte. Ce projet (CAPES-COFECUB) touche aux questions de littéracies. C’est un sujet pas vraiment fortuit dans la mesure où elle avait bénéficié d’une initiation aux thématiques de l’écriture de recherche dans son ancienne équipe à Lille 3 (travaux de Delcambre, Daunay, Lahanier-Reuter, Reuter).

Elle avait également été engagée dans un projet avec le Brésil en 2014-2015 (Consortium IBrasil). Dans ces deux cas de collaboration professionnelles, elle apprécie particulièrement les échanges constructifs et la facilité d’avancer dans un projet avec Stéphanie Lerat, la générosité de Sophie Bailly, chercheure-experte et son accompagnement dans des tâches nouvelles pour elle comme l’actuelle coordination de la revue RIPES*. Ces recherches sont très intéressantes tant scientifiquement qu’humainement. Il y a exactement un an elle s’apprêtait à aller travailler avec les collègues brésiliens avec d’une part Cynthia Nevesà Campinas et d’autre part avec Juliana Assis et toute son équipe à Belo Horizonte. Elle avait pour mission de faire deux conférences. Elle a proposé un premier travail rétrospectif et projectif à partir de l’étude menée dans le cadre de I.Brasil alors qu’elle était doctorante au laboratoire Cirel-Théodile à Lille 3. Le second travail touchait aux questions de l’entrée en recherche pour les étudiant.e.s de Master MEEF à partir d’une réflexion sur la Self Identity des étudiant.e.s et les trois identités sociales en interconnection qui font leur contexte d’écriture du mémoire. Le projet avec le Brésil touche à sa fin. Sophie Bailly clôturera les travaux au Brésil en décembre 2018. Pendant ce temps-là, avec Guillaume Nassau, elle accueillera trois collègues brésiliennes : Juliana Alves qui co-pilote le projet avec Sophie Bailly, Fabiana Komesu et Inês Signorini.

Une rencontre-conférences est projetée dans les cours dispensé à l’ESPÉ ... avec les mêmes étudiant.e.s qui participent aux premiers ateliers de conversation impulsés par le centre de documentation Michel Dinet du laboratoire.

=> Lire l’article dédié à l’atelier de conversation sur Factuel, sur le site de l'ATILF

=> Consulter sa page personnelle

Portrait corédigé par V. Lemoine-Bresson et D. Barbier-Jacquemin

Dernière mise à jour et © : 12/11/2018 | communication ATILF


Nbp par ordre alphabétique :

*CECRL : cadre européen commun de référence pour les langues

*"Cultures don’t meet. People do" : Citation issue des travaux de Unni Wikan, professeure d’anthropologie sociale à l’université d’Oslo.

*DIPERLANG : Diversité des personnes et des langues

*ESPÉ : école supérieure du professorat et de l’éducation

*IA-IPR : inspecteur académique - inspecteur pédagogique régional

*RIPES : Revue internationale de pédagogie de l’enseignement supérieur

*VAP : validation des acquis professionnels

*Erving Goffman est sociologue américain (1922-1982) qui a enseigné à Berkeley. Il a consacré ses recherches aux questions de l’interaction en face à face. Ses travaux sur la face, l’image de soi, c’est-à-dire l’identité que soi et l’autre revendiquent dans une situation donnée et un contexte spécifique sont intéressants pour interroger les problématiques interculturelles.

Véronique Lemoine-Bresson, didacticenne

Béton, ciment : de nouvelles pistes pour mieux recycler les déchets du bâtiment

$
0
0
Dessin de presse de Rémi Malingreÿ

Romain Trauchessec est maître de conférences à l'Institut Jean Lamour. Avec ses collègues, dans le cadre du projet européen Seramco (Secondary Raw Materials for Concrete Precast Products), il travaille sur le recyclage de déchets issus du BTP pour produire bétons et ciments. En partenariat avec le cimentier Vicat, ces travaux bénéficient d’essais à l’échelle industrielle à la cimenterie de Créchy.

File 20181109 34102 ox10eb.jpg?ixlib=rb 1.1

En 2014 en France, le secteur du bâtiment et des travaux publics a produit à lui seul près des deux tiers des déchets du pays. Cela représente plus de 211 millions de tonnes de matériaux (l’équivalent de 3 tonnes par habitant).

Ces reliquats sont issus des travaux de construction, de démolition et de déblaiement. On les qualifie d’« inertes » : ce sont des déchets minéraux qui ne se décomposent pas mais ne sont pas susceptibles de subir ou d’entraîner des réactions dangereuses pour l’environnement ou la santé.

Beaucoup de déchets non recyclés

Dans ce secteur, une grande part des déchets (23 %) est réutilisée directement pour les besoins des chantiers, comme les opérations de terrassement par exemple. Une autre partie (20 %) est envoyée vers des installations et plates-formes de recyclage. En résulte la production de granulats recyclés essentiellement réutilisés dans les travaux publics, pour la réalisation des sous-couches des chaussées notamment.

Le reste de ces déchets peut être utilisé pour la réhabilitation des carrières (14 %), remis à des collecteurs agrées (13 %), des déchetteries (7 %) ou encore envoyé directement dans des installations de stockage de déchets inertes (12 %) où des millions de tonnes de déchets inertes sont définitivement éliminés sans être valorisés.

Afin de répondre aux besoins des chantiers de construction tout en préservant les ressources naturelles, il devient indispensable de consolider les filières existantes, voire d’en créer de nouvelles qui permettront de mieux valoriser ces déchets et d’éviter leur enfouissement.

Vidéo présentant le potentiel du recyclage du béton. (Actu environnement/YouTube, 2014).

Réutiliser les granulats dans le béton

L’utilisation de ces déchets du bâtiment pour la fabrication de bétons est une voie intéressante qui permettrait de diversifier les voies de recyclage existantes.

Au cours des dernières années, l’utilisation de granulats recyclés comme matière première pour la fabrication de béton a fait l’objet de nombreux projets et travaux de recherche, notamment en France. Ils ont permis d’étudier les procédés de production, de traitement, de caractérisation des granulats recyclés, ainsi que les performances des nouveaux bétons contenant ces ressources secondaires.

Les normes ont aussi évolué, permettant d’incorporer dans certains bétons des granulats recyclés en proportions définies. Une norme autorise ainsi depuis 2014, jusqu’à 50 % de gravillons recyclés dans les bétons selon la classe d’exposition du béton et la qualité du granulat recyclé.

L’utilisation de ces gravillons présente toutefois certaines difficultés : des granulats en trop forte proportion, particulièrement poreux ou contenant des impuretés, affectent parfois les propriétés des bétons, modifiant leur maniabilité, leur résistance ou encore leur durabilité.

À Saint-Ghislain (Belgique), plate-forme de recyclage permettant de concasser, cribler et laver les granulats issus du recyclage.Romain Trauchessec, Author provided

Le ciment, un autre moyen de valorisation

Pour ces granulats recyclés de moindre qualité, une voie alternative de recyclage a été développée : la fabrication du ciment Portland.

Mélangé à de l’eau, ce ciment est un liant hydraulique qui assure la cohésion des granulats contenus dans le béton. Ce ciment a été découvert il a près de 200 ans, notamment grâce aux travaux de l’ingénieur français Louis Vicat. La production annuelle de ce ciment s’élève actuellement en France à 16 millions de tonnes par an, et atteint plus de 4 milliards de tonnes à l’échelle mondiale.

Obtenu par cuisson de calcaire et d’argile à 1450°C, le ciment Portland est ainsi à l’origine de 5 % des émissions mondiales des gaz à effet de serre.

Afin de réduire cet impact environnemental, des combustibles de substitution (résidus d’huile, pneus, etc.) sont de plus en plus utilisés pour la cuisson du ciment Portland, en substitution des combustibles fossiles traditionnellement utilisés (charbon, coke de pétrole).

Dans les cimenteries, de nombreux matériaux alternatifs (sable de fonderie, terres polluées, etc.) sont aussi utilisés pour partiellement remplacer les matières premières traditionnelles (calcaire, marnes, etc.). Les granulats recyclés trouvent donc naturellement leur place dans ce processus de valorisation.

Renforcer la qualité des ciments recyclés

Dans dans ce contexte que le projet européen Seramco (Secondary Raw Materials for Concrete Precast Products) a été développé.

Il s’intéresse au recyclage des déchets de bonne qualité dans l’industrie des produits préfabriqués en béton – parpaings, dalles, blocs de coffrage – et à celui des produits de moindre qualité pour fabriquer du ciment.

Dans le cadre de ce projet, les chercheurs de l’Institut Jean Lamour travaillent sur la caractérisation chimique des matériaux recyclés ainsi que sur leur variabilité spatiale ou temporelle, afin de définir les conditions de synthèse optimale associées au taux d’incorporation et à la température de cuisson. Ces travaux sont menés en partenariat avec le cimentier Vicat, permettant ainsi la réalisation d’essais à l’échelle industrielle à la cimenterie de Créchy.

Les performances et la durabilité des ciments « recyclés » obtenus sont comparées à celles du ciment Portland traditionnel, à la fois en laboratoire et sur des produits types préfabriqués. En 2020, ces produits seront testés sur trois sites pilotes – Seraing en Belgique, Saarlouis en Allemagne et le long d’une route départementale de Moselle en France –, ce qui permettra de démontrer la viabilité de ces ressources secondaires pour la création de nouveaux éléments préfabriqués en béton.

Cimenterie de Créchy (Allier) où sont conduites des recherches sur le recyclage des déchets.Groupe Vicat, Author provided

Le projet Seramco permet au béton et aux déchets mixtes (brique, céramique, maçonnerie, etc.) d’être recyclés pour refaire du béton. Ainsi, les déchets du BTP peuvent-ils entrer dans les boucles vertueuses de l’économie circulaire.

Il faut rappeler qu’au-delà des bonnes pratiques permettant d’assurer la fiabilité des bétons et des ciments recyclés, l’utilisation des déchets du BTP dépendra fortement du contexte économique local – demande en granulats, disponibilité des ressources primaires (naturelles) et secondaires (recyclés) – mais également des politiques publiques mises en œuvre (marché public, fiscalité, etc.) et de l’acceptabilité sociale de ces produits.

The Conversation

Romain Trauchessec, Maître de conférences, chercheur à l’Institut Jean Lamour, Université de Lorraine

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Participez à Jardinbiodiv : Il y a de la vie dans nos sols urbains

$
0
0

Apolline Auclerc est maître de conférences en écologie des sols au Laboratoire sols et environnement (LSE). Elle est à l'initiative de l'observatoire participatif Jardinbiodiv qui invite chacun à prendre le temps de baisser les yeux au sol, de soulever un caillou, un bois mort... Et à observer et photographier tout petit organisme pour contribuer à la recherche. Elle signe cet article avec Anne Blanchart, doctorante en sciences agronomiques et urbanisme, dont la thèse porte sur le thème « Vers une prise en compte des potentialités des sols dans la planification territoriale et l’urbanisme opérationnel ».

File 20181113 194491 1v7u1c6.jpg?ixlib=rb 1.1

Au même titre qu’un homme présente des caractéristiques distinctes d’un autre, il existe une large diversité de sols. Ressource vivante aux propriétés physiques, chimiques et biologiques en constante évolution, les sols contribuent largement à la viabilité des sociétés humaines. À condition que celles-ci en prennent soin.

Entre autres services rendus, les sols hébergent un quart de la biodiversité de la planète. La taille des organismes qui l’habitent varie de quelques microns pour les microorganismes (bactéries, champignons) et la microfaune (tardigrades), à plusieurs mètres pour la macrofaune (certains vers de terre).

Un seul gramme de sol peut contenir des milliards de microorganismes, et un mètre carré de sol forestier peut accueillir mille espèces d’invertébrés !

Une biodiversité méconnue

Une grande partie de cette biodiversité demeure pourtant méconnue. On estime par exemple que les 7 000 espèces de vers de terre identifiées ne correspondent qu’à 23 % de celles qui existent effectivement.

De nombreux invertébrés vivant dans les sols et à leur surface sont en effet de petite taille. En soulevant cailloux, bouts de bois mort ou feuilles, on découvre un monde merveilleux, composé d’araignées, de vers de terre, de cloportes, de mille-pattes, de carabes…

Cette faune du sol, dite « pédofaune », participe à la décomposition de la matière organique – en l’ingérant en tant que source de nourriture et en la transformant en nutriments directement utilisables par les plantes pour croître –, à la structuration du sol (régulation des flux d’eau et de gaz) et à la régulation des populations (biocontrôle, prédation, activation des micro-organismes comme les bactéries activées par passage dans l’intestin d’un ver de terre).

Nos sols urbains, vivants eux aussi ?

L’artificialisation des milieux, liée à l’urbanisation des sols, induit des défis environnementaux auxquels les aires urbaines tentent de répondre. Les villes accordent, par exemple, une importance croissante à la création d’espaces verts : parcs publics, jardins privatifs et partagés, arbres d’alignement ou toitures végétalisées. Des espaces de vie qui constituent, pour bon nombre d’organismes, des habitats idéaux.

Compte tenu de la variété d’usages des terrains en milieu urbain, les sols subissent des modifications plus ou moins profondes : imperméabilisation, tassement après le passage de machines, pollution… Les conséquences de ces multiples pressions sur la survie des organismes qui y vivent demeurent peu connues.

Prise de conscience environnementale

Contre toute attente, nous sommes en ville dans une constante interaction avec la biodiversité. Parfois, cette rencontre se réduit à l’élimination par le citoyen du petit invertébré, jugé à tort gênant, voire répugnant.

À l’inverse, certains citoyens prennent conscience de l’importance de ces organismes. Jardiniers, maraîchers urbains, ou personnes engagées pour la défense de l’environnement, ils développent des méthodes participant à protéger la pédofaune, tout en tirant profit des services qu’elle peut leur rendre – comme la régulation du cycle des nutriments et de la fertilité du sol par apport d’engrais naturels aux plantes, la régulation de ravageurs par prédation, l’aération du sol…

Du fait de cette diversité, la ville est un lieu passionnant à étudier, qui questionne les écologues : combien d’invertébrés ont-ils su s’adapter à la vie urbaine ? Quels impacts a l’activité humaine sur cette biodiversité urbaine ?

Un outil de partage sur la vie des sols urbains

C’est dans ce contexte que l’outil numérique et participatif Jardibiodiv a été créé à l’été 2017 grâce aux recherches conduites sur l’écologie et la biologie des invertébrés des sols au sein du Laboratoire sols et environnement.

Les sciences participatives, qui établissent des collaborations durables entre la communauté scientifique et la société civile, offrent une approche particulièrement pertinente en milieu urbain.

Outil ludique, Jardibiodiv permet à tout citadin de découvrir les organismes présents dans les sols urbains et leurs rôles. En introduisant un verre en plastique – « pot piège » – dans le sol de son jardin et en y ajoutant du vinaigre blanc, on peut capturer au bout de sept jours les organismes présents dans le sol (actifs principalement au printemps et en automne).

L’utilisateur de Jardibiodiv compte et associe un nom à chaque organisme récolté, grâce à une aide en ligne simple, sous forme d’images et de clés de détermination. Il les partage ensuite via le site Internet, ce qui aide les chercheurs dans leurs travaux.

Une adaptation plus « éthique » de la méthode, sans utilisation du vinaigre, a été mise au point : par dépôt d’un coton humidifié au fond du verre, elle permet de conserver les organismes vivants tout en récoltant de la même manière des données utilisables par les scientifiques.

Un outil numérique pour que les citoyens découvrent la biodiversité des sols urbains.

La construction d’une base de données

Les connaissances produites dans le cadre de ces recherches citoyennes permettent notamment de créer des bases de données, encore trop rares aujourd’hui : il s’agit par exemple d’établir des seuils d’abondances (pour répondre à la question « Ai-je beaucoup ou peu d’invertébrés dans mon sol, par rapport à la moyenne, pour lui permettre un fonctionnement durable ? »), des données sur la diversité ou encore des atlas de biodiversité communale.

La constitution de tels référentiels pourra permettre, par exemple, d’intégrer la trame « brune » (réseau formé de continuités écologiques entre les sols) dans les stratégies du développement urbain, en prenant en compte des corridors pédologiques – ces liaisons entre des habitats importants pour les organismes du sol.

Depuis son lancement, une centaine de pots pièges ont été installés, donnant lieu au recensement de plus de 6 000 individus répartis dans 28 groupes d’invertébrés par les habitants grâce à Jardibiodiv. Les participants, de tous horizons, sont des jardiniers amateurs, des citoyens engagés, des élèves, des parents cherchant des activités nature à partager avec leurs enfants, des maraîchers bio, ou encore des étudiants en agronomie.

Cloportes et fourmis

La France compte plus de 160 espèces de cloportes ; il en existe plus de 3 000 dans le monde.Apolline Auclerc

Les premiers résultats mettent en avant la dominance des cloportes et des fourmis dans les jardins urbains ; un gradient d’urbanisation semble se confirmer : la biodiversité serait plus importante dans les milieux plus verts en périphérie des villes que dans les centres urbains, plus minéraux.

Plus les citoyens participeront, plus les résultats de ces études seront rigoureux. Ils permettront ainsi à terme de définir des pratiques offrant une meilleure gestion et protection de la biodiversité des sols.

The Conversation

Apolline Auclerc, Maître de conférences en écologie des sols, Université de Lorraine et Anne Blanchart, PhD Student, Université de Lorraine

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Tout comprendre de l’automatique : conversation avec Dragan Nesic, Prof@Lorraine

$
0
0

Dragan Nesic est professeur d’automatique à l’université de Melbourne en Australie. Ses recherches portent sur la commande des systèmes dynamiques et ses applications dans divers domaines de l’ingénierie et des sciences en général. Romain Postoyan, chargé de recherche CNRS en automatique au Centre de recherche en automatique de nancy (CRAN), a profité de la visite de Dragan Nesic dans le cadre du dispositif Professor@Lorraine pour recueillir son éclairage sur l'automatique, un domaine disciplinaire au coeur de nombre d'avancées technologiques.

File 20181114 194494 onyzz8.jpg?ixlib=rb 1.1


Romain Postoyan : Le grand public l’ignore souvent, mais l’automatique est au cœur de nombre d’avancées technologiques majeures au cours des derniers siècles.

Dragan Nesic : En effet, l’automatique a joué un rôle clef dans la plupart des grandes innovations technologiques et ce dès la révolution industrielle de la fin du XVIIIe siècle. Il est de notoriété publique que la machine à vapeur ouvrit la voie à la production de masse dans les usines tout en révolutionnant les transports terrestre et maritime.

Locomotive à vapeur.hpgruesen/pixnio.com, CC BY

On ignore souvent en revanche qu’un dispositif de commande, qui régulait la vitesse de rotation des machines (le régulateur à boules de Watt), fut essentiel pour leur mise en œuvre.

Le premier vol habité effectué par les frères Wright un siècle plus tard aurait été impossible sans un système de commande approprié. Des centaines de réussites similaires de l’automatique jalonnent l’histoire de nos avancées technologiques. De nos jours, nous vivons dans un monde où les organes de régulation sont omniprésents, ce qui est rendu possible par des millions de contrôleurs conçus à l’aide des techniques de l’automatique.

R.P. : Qu’est-ce que l’automatique ?

D.N. : L’automatique est une branche de l’ingénierie qui développe des techniques de commande pour des systèmes conçus par l’homme ou naturels, afin que ceux-ci se comportent de la manière souhaitée sans intervention humaine.

Prenons l’exemple d’un pilote automatique dans un Airbus A380. Celui-ci peut maintenir la vitesse, l’altitude et le cap désirés sans intervention du pilote. Un autre exemple est un drone qui peut identifier une fuite de gaz dans une usine et envoyer son emplacement exact à un centre d’expédition. Dans les deux cas, ce qui permet à l’avion et au drone de voler de la façon désirée est un algorithme appelé contrôleur ou régulateur, généralement implémenté sur un microprocesseur.

La couverture de Time réalisée avec des drones.

Cet algorithme connaît le comportement souhaité du système. Il collecte ensuite des mesures provenant des divers capteurs, puis traite ces données afin d’orchestrer les actionneurs qui agissent sur le système à piloter, à l’instar des moteurs électriques des drones et des moteurs à réaction de l’avion. Ainsi le système répond aux attentes, et ce malgré d’éventuelles perturbations imprévues.

R.P. : De nos jours, les données sont souvent transmises via des réseaux de communication numériques, comment cela impacte-t-il les contrôleurs ?

D.N. : Une grande partie de mon activité de recherche actuelle concerne les systèmes de commande dits en réseau dans lesquels le contrôleur communique avec les capteurs et les actionneurs via un réseau de télécommunication.

En raison du réseau, les signaux ne sont pas toujours transmis de manière fiable, ce qui peut fortement dégrader le fonctionnement du contrôleur.

Alors que nous nous dirigeons vers des systèmes hautement interconnectés et complexes, ce type d’architectures deviendra de plus en plus commun. Un exemple est celui des pelotons de véhicules sans conducteur, qui doivent se déplacer de manière autonome sur une route très fréquentée. Ceux-ci sont équipés de capteurs qui mesurent leur vitesse mais aussi leurs actions de contrôle. Ces signaux doivent être communiqués via un réseau de communication sans fil aux autres véhicules pour que le peloton conserve sa distance inter-véhicules dans des marges acceptables tout en roulant à la vitesse voulue.

Dans mes recherches, j’étudie l’interaction de l’algorithme de contrôle, des protocoles de communication et du calcul distribué au sein du système. C’est aussi le motif principal de ma collaboration avec le Centre de recherche en automatique de Nancy.

R.P. : Quels sont vos travaux actuels ?

D.N. : Nous travaillons sur de nouveaux modèles basés sur le réseau appelé FlexRay, qui est de plus en plus utilisé dans l’automobile. Il permet aux dizaines de contrôleurs présents dans une voiture de communiquer, à l’instar des systèmes de contrôle moteur et de direction ou d’arrêt. Cette avancée a ainsi permis de diminuer le poids des véhicules (réduisant ainsi la consommation de carburant) tout en offrant de meilleures performances.

En collaboration avec des chercheurs du CRAN, nous avons d’abord développé des modèles mathématiques fidèles aux systèmes pilotés via un réseau FlexRay.

Le modèle obtenu nous a permis d’analyser mathématiquement le comportement du système, ce qui a conduit au développement de techniques de conception de contrôleurs adaptés. Pour ce faire, nous utilisons des outils mathématiques de systèmes dits hybrides et de la théorie de la stabilité de Lyapunov afin de respecter les contraintes de communication imposées par le réseau tout en exploitant les flexibilités de conception offertes par le réseau FlexRay.

R.P. : Comment envisagez-vous le futur de l’automatique ?

D.N. : L’automatique permettra le développement d’avancées technologiques que l’on ne peut envisager que dans les films de science-fiction aujourd’hui. La recherche en automatique est tout à fait passionnante pour cela car de tels rêves nous forcent à aborder des questions de plus en plus complexes et, point important, multidisciplinaires.

Par exemple, la vie privée et la sécurité contre les attaques de logiciels malveillants et l’éthique commencent à influencer la recherche en automatique. Les voitures sans conducteur communiquant sans fil entre elles et avec leur environnement sont ainsi vulnérables aux attaques malveillantes qui peuvent corrompre les données échangées et provoquer des accidents.

La conception d’algorithmes de contrôle qui garantissent tous les objectifs fixés malgré de telles attaques attire actuellement l’attention de la communauté et requiert une collaboration étroite avec les informaticiens, les ingénieurs en télécommunication et les mathématiciens. Ceci n’est qu’un exemple de la nécessité d’une recherche multidisciplinaire. Les interactions avec la biologie et la médecine, avec la physique et la chimie, la finance et l’économie fourniront des idées nouvelles et de nouvelles problématiques permettant à terme le développement de sciences et de technologies fascinantes.

The Conversation

Romain Postoyan, Chargé de recherche CNRS, Université de Lorraine

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

3 questions à Leila Messaoudi, professeure émérite en sciences du langage et Docteure Honoris Causa de l'Université de Lorraine

$
0
0

Leila Messaoudi, professeure émérite en sciences du langage à l'Université de Kenitra (Maroc) recevra les titre et insignes de docteure Honoris Causa de l'Université de Lorraine lors d'une cérémonie qui se déroulera le 10 décembre à Metz. Cette cérémonie sera suivie d'une conférence de Leila Messaoudi :Les défis sociétaux de la sociolinguistique aujourd'hui.

Quelles sont vos relations avec l'Université de Lorraine?

Mes rapports sont très anciens et ont débuté à Nancy du temps du TLF à l’INalf (Institut national de la langue française) dirigé par le professeur Bernard Quémada. A l’époque, j’étais responsable du département de Bases de données lexicographiques (BD-LEXAR), à l’Institut d’Etudes et de recherches pour l’arabisation, sous la direction du professeur Lakhdar Ghazal. Et nous avions des échanges avec l’INalf notamment concernant l’informatisation lexicographique.

Ces premiers échanges ont été renouvelés entre 2005 et 2007, avec des linguistes de Nancy (mais aussi avec le LDI de Paris 13) à l’occasion de deux colloques internationaux organisés à Kenitra, consacré l’un à « La journée marocaine des dictionnaires » et l’autre à « dictionnaires, terminologie et technolectes ».

Suite au colloque sur le thème « Interpréter selon les genres » organisé par le professeur Driss Ablali, à Marrakech en avril 2013, j’ai commencé à m’intéresser aux travaux du CREM, grâce à mes échanges avec le professeur Driss Ablali et j’ai pu participer à une HDR parrainée par lui. Les travaux publiés par la revue Pratiques, développés à Metz depuis plus de 40 ans ont souvent nourri mes réflexions de linguiste d’abord, de sociolinguiste ensuite, et enfin de sociolinguiste intéressée par les questions didactiques. Non sans oublier de rappeler les travaux de la revue Questions de communication, une revue certes en info-com mais dans laquelle plusieurs linguistes publient, notamment les thématiques que la revue développe sur les questions du discours dans ses perspectives sociétales.

Par ailleurs, j’ai eu des échanges avec d’autres chercheurs de l’Université de Lorraine comme Guy Achard Bayle et Laurence Denooz.

Que représente le titre de Doctore Honoris Causa de l'Université de Lorraine pour vous ?

C’est une distinction qui m’honore et ce, d’autant qu’elle émane d’une université française réputée et reconnue grâce ses chercheurs et à leurs nombreuses productions scientifiques, grâce aussi au dynamisme de ses structures aussi bien à Nancy qu’à Metz. C’est une belle reconnaissance des pairs qui montre une fois de plus que les frontières n’existent pas dans les domaines de la recherche scientifique et que l’échange et le partage des savoirs et des connaissances peuvent se faire au-delà des continents, au-delà des différences culturelles et au-delà de l’appartenance sexuée ! Car il ne faut pas oublier que je viens d’un pays du Sud (le Maroc) et que je suis une femme !

Quels sont vos projets de recherche et en particulier ceux que vous développez avec le CREM ?

  • la politique linguistique et éducative au Maroc et au Maghreb en général
  • les technolectes: du mot au discours
  • la communication en milieu professionnel
  • la littérature orale (contes et proverbes)
  • les mots et les femmes : entre stéréotypes et harcèlement
  • la question des genres aussi bien dans son acception sexuée que discursive.

 

 

 

 

Monter l'exposition MAGNETICA : une expérience humaine à la frontière des arts et des sciences

$
0
0
MAGNETICA, une expo attirante.

Hélène Fischer est maître de conférence dans l'équipe nanomagnétisme et électronique de spin de l'Institut Jean Lamour. En portant le projet d'une exposition consacrée au magnétisme, elle souhaite faire sortir les labos de leur tour d'ivoire et partager la science avec les jeunes et le grand public.

Affiche de l'exposition MAGNETICA, une expo attirante.Qu’il s’agisse de garder à l’œil la liste des courses, le dessin du petit dernier ou les photos des dernières vacances, les magnets ont colonisé les portes de bien des réfrigérateurs… C’est loin d’être la seule application du magnétisme comme l’ont découvert les premiers visiteurs de l’exposition expérimentale « MAGNETICA, une expo attirante » attendue en novembre 2019 au Palais de la Découverte. Où trouve-t-on du magnétisme ? Comment expliquer ce phénomène ? Quelles en sont les applications ? Quels rôles joue le magnétisme dans un ordinateur ? Autant de questions auxquelles répond cette exposition en présentant de multiples maquettes expliquant les propriétés magnétiques de la matière, et illustrant la présence du magnétisme dans nos vies quotidiennes : moteurs, éoliennes, ralentisseurs électromagnétiques, chauffage par induction, transformateurs, antivols magnétiques, clefs magnétiques, cartes bancaires, écriture stockage et lecture de l’information sur un disque dur, capteurs magnétiques, etc … Surtout, pour les chercheurs de l’Institut Jean Lamour, concevoir une exposition est un moyen de partager certains résultats des recherches menées dans l’un des plus importants laboratoires européens en science des matériaux. Pour y parvenir, il a fallu réunir scientifiques, élèves créateurs et élèves ingénieurs. Une expérience humaine à la frontière des arts et des sciences.

Une expérience humaine avec des chercheurs en sciences des matériaux

Initier une activité de recherche en médiation scientifique, pour partager la démarche du chercheur et quelques résultats avec le grand public, n’est pas commun au sein d’un laboratoire de recherche fondamentale. Or, la démarche, par essence transverse aux actions de recherche, est extrêmement enrichissante pour chacun de ses acteurs volontaires, et fédératrice pour le laboratoire. En effet, le rapprochement de chercheurs de communautés différentes, réunis par le désir commun du partage de la science, engendre les synergies nécessaires pour innover et créer des actions de qualité, au contenu scientifique garanti, capables d’attirer une audience de plus en plus sollicitée. Ainsi, les chercheurs ancrent la science dans l’actualité et peuvent partager leurs pratiques, leurs vécus, leurs questionnements, et leurs passions avec le public : ce sont des acteurs indispensables de la médiation scientifique. Soulever une telle dynamique de médiation au sein d’un laboratoire tel que l’Institut Jean Lamour, est une aventure scientifique et humaine du plus grand intérêt. 

Une expérience humaine avec les élèves des Mines, d’Arts et de Design

Des compétences complémentaires non scientifiques semblent nécessaires aussi au développement d’une médiation scientifique adaptée à la société actuelle. La récente implantation de l’Institut Jean Lamour au sein du campus ARTEM (acronyme issu des mots art, technologie et management), construit en écho au mouvement Art Nouveau que fut l’Ecole de Nancy, offre la possibilité d’explorer une nouvelle déclinaison de la médiation scientifique en exploitant la richesse des synergies émanant du rapprochement de l’art et des sciences dures.

Les ateliers ARTEM, réunissant des élèves de Mines Nancy et de l’ENSAD, contribuent à ce rapprochement. Pour les élèves, la démarche menée au sein de l’atelier MAGNETICA a débuté par une triple immersion, l’une dans l’histoire portée par l’exposition, afin d’en expliquer le sens physique, l’autre dans l’univers d’un laboratoire de recherche, l’Institut Jean Lamour, et la dernière dans la difficulté et l’exigence de la médiation de terrain, sur un stand expérimental consacré au magnétisme lors de la fête de la science.

L’atelier MAGNETICA s’est ensuite poursuivi par le travail de conception proprement dit. L’échange fut enrichissant pour tous, les élèves de l’ENSAD observant ceux de Mines Nancy dans leur processus de conception de maquettes et les questionnant sur les phénomènes physiques illustrés, afin de s’approprier les bases nécessaires à leur travail créatif.

Cette longue maturation a été nécessaire pour harmoniser le design des maquettes, et pour créer, par la scénographie et le graphisme, un univers cohérent et original adapté à la pédagogie scientifique, dans le respect des contraintes propres liées à l’itinérance de l’exposition. C’est ainsi qu’a émergé l’esthétique si attractive et appréciée du public de l’exposition. Le design de l’exposition trouve son sens dans la symbolique de la transparence, illustrant ainsi l’objectif de la démarche de vulgarisation scientifique qui est de rendre la science accessible à tous, donc transparente. L’exposition est cristalline, toutes les expériences sont montées sur panneaux transparents qui semblent léviter au-dessus du vide, marquant ainsi l'intemporalité du savoir. Tous les éléments techniques sont visibles. Les cartels explicatifs sont eux-aussi transparents, donc peu lisibles en l’état ; illuminés, leur sens jaillit et illustre la lumière de la connaissance.

Le fil directeur de ce long cheminement fut l’écoute, le respect mutuel, l’ouverture d’esprit, la curiosité intellectuelle, l’intérêt pour une culture différente de la sienne, tout en conservant l’exigence scientifique, chacun ayant compris que la logique scientifique devait primer sur la liberté de création individuelle.

Une expérience humaine avec les acteurs de l’atelier technique du laboratoire

La réalisation des maquettes et de l’infrastructure de l’exposition a été assurée par le Centre de Compétences Héré (CC Héré), soutenu pour l’occasion par le Centre de Compétences en magnétisme, toutes deux des structures d’appui à la recherche de l’Institut Jean Lamour, avec la collaboration de l’Ecole Nationale d’Ingénieurs de Metz (ENIM). La force du CC Héré réside dans sa pluridisciplinarité puisqu’il associe des compétences en électricité, électronique, mécanique et conception, indispensables pour créer les synergies propices à l’innovation. Là-aussi, souplesse, écoute, ouverture d’esprit furent les maîtres mots pour comprendre les choix esthétiques et les réaliser malgré leur complexité. Toutes les productions, des maquettes jusqu’aux sources d’éclairages ou aux supports à cartels, sont des prototypes développés au sein du CC Héré, tous respectant la symbolique de la transparence.

Au-delà de la prouesse technique et du travail réalisé, ce projet atypique fut extrêmement fédérateur et valorisant pour le personnel technique du laboratoire de recherche. Ce fut une aventure humaine formidable qui créa du lien entre personnel technique et chercheurs au sein du laboratoire.

Une expérience humaine avec le public

MAGNETICA, c’est aussi de multiples moments, toujours extraordinaires, de partage avec le public, une histoire à reformuler à chaque visite pour s’adapter à chaque type d’auditoire, une relation extrêmement forte toujours dictée par l’enthousiasme, la passion du chercheur, qui vit sa démarche et emporte avec lui le public avide de découvertes.

« MAGNETICA, une expo attirante » sera présentée du 25 janvier au 25 mars 2019 au Musée du Fer de Jarville la Malgrange, puis en avril-mai 2019 à l’Université de Nantes. Elle est programmée de novembre 2019 à mai 2020 au Palais de la Découverte à Paris. 

« MAGNETICA, une expo attirante » est une exposition ouverte à la location et destinée à l’itinérance. La surface minimale nécessaire pour l’accueillir est de l’ordre de 250m2.

Pour plus d'informations :

Voir le teaser de l'exposition

Quelques images de l'exposition


Crise de l’imagination : l’inventeur du web prend ses responsabilités, et vous ?

$
0
0
Un jeune homme mange un burger sans prêter attention à une manifestation contre un réseau social devenu hégémonique. Simon & Emilie/Mediaentity, CC BY-SA

Dans le cadre du projet needle, des étudiants et des personnels partagent les résultats de leurs recherches documentaire ou de leurs veilles au moyen d'un service de navigation web contributive développé au Centre de recherche sur les médiations (CREM). La phase de bêta-test est désormais ouverte - sur invitation - aux personnes extérieures à l'Université de Lorraine. Porteur du projet, Julien Falgas (chercheur associé au CREM) l'inscrit dans le mouvement actuel de ré-invention web face à la domination exercée par les GAFA.

Sans lui, le web n’existerait pas. Tim Berners-Lee voulait aider les gens à travailler ensemble, à commencer par ses collègues du CERN. Pour son inventeur, le web a toujours eu la vocation d’être contributif : à chacun de l’enrichir en contenus et en liens. Cet idéal est plus que jamais menacé par le duopole que constituent Google (qui n’a rien d’un service public) et Facebook (qui n’a rien d’un média comme un autre), cela n’a pas échappé au principal intéressé.

Tim Berners Lee, l’inventeur du web.Wikipedia, CC BY

L’inventeur du web a annoncé qu’il interrompait ses activités au MIT ainsi qu’à la tête du W3C pour prendre la direction technique d’une startup, Inrupt, vouée à soutenir la diffusion et le développement d’un logiciel open source sur lequel il travaillait depuis quelques années avec son équipe : Solid. L’ambition de ce projet : nous redonner la maîtrise de nos données. En créant son POD (Personnal Online Data Store), chacun pourra choisir où seront stockées ses données personnelles et décider quelles applications auront accès à quelles données… à condition d’opter pour des applications conçues pour ce nouvel écosystème. Par leur initiative, Tim Berners-Lee et ses collaborateurs espèrent contribuer à provoquer le sursaut d’imagination : comme l’affirme désormais l’association Framasoft, dégoogliser Internet ne suffit pas.

La tragédie du web : notre imagination est en panne

« La tragédie du web c’est qu’il est difficile de trouver des réponses à des questions que l’on n’a pas imaginées, tandis que faire preuve d’imagination est devenu de plus en plus difficile à mesure que moteurs de recherche et réseaux sociaux nous offrent une version lourdement filtrée du web. »

Voilà ce qu’écrivait début 2017 Nick Nguyen, vice-président de la fondation Mozilla, dans un texte intitulé « votre téléphone n’est pas une télévision » et qui trouve écho jusqu’en 1995. Tim Berners-Lee affirmait alors son « rêve » que le web soit moins une chaîne de télévision, qu’une mer dédiée au partage des connaissances. Nous avons surfé un temps sur cette mer de contenus publiés par ceux qui avaient acquis quelques rudiments de code HTML. Autour de 2005, l’idée d’un web 2.0 s’est popularisée avec la promesse d’offrir à chacun le pouvoir de produire et de publier ses propres contenus sans compétence technique particulière. Mais en 2018, alors que le web fêtait ses 29 ans, Tim Berners-Lee a souligné la double menace qui pèse sur son invention : « le mythe que la publicité est le seul modèle commercial possible pour les entreprises en ligne, et le mythe selon lequel il est trop tard pour changer le mode de fonctionnement des plates-formes ».

C’est donc bien à une crise de l’inspiration que nous faisons face aujourd’hui du fait de l’action des GAFA (Google, Apple, Facebook, Amazon), si comme les contributeurs de Wikipedia on entend l’inspiration au sens d’une « affluence d’idées stimulant l’imagination et la créativité ».

La mascotte de Firefox face au coucher de soleil sur la forêt.Fondation Mozilla

Accéder à la masse des médias, une affaire de moyens

Sous l’égide de Google, la navigation a cédé le pas face à l’usage croissant du moteur de recherche. À mesure que les liens ont acquis une valeur marchande au regard de ses critères de référencement, ils ont perdu leur pertinence pour l’internaute. Le réseau a été confisqué par les acteurs qui disposent des ressources pour en négocier et en organiser les liens dans l’intérêt de l’accès à leurs propres contenus. Avec l’arrivée de Facebook et des réseaux sociaux numériques, tout-un-chacun est encouragé à partager des liens sans saisir la moindre ligne de code, ni même le moindre contenu original – souvent sans même avoir lu ou réfléchi à ce qu’il partage – en contrepartie d’une gratification sociale immédiate qui occulte la portée éphémère des échanges.

Avec Google puis Facebook, on a cessé de surfer sur le Web, pour y accéder par un entonnoir. Le duopole nous enferme dans ses conceptions de la réputation : le lien et le like. Pis, la multiplication des dispositifs et des interfaces, loin de déboucher sur une forme de pluralisme, atomise les audiences sous couvert de personnalisation. L’internaute de la fin du XXième siècle pouvait, de lien en lien, accéder à des contenus bien plus diversifiés que l’internaute d’aujourd’hui dont l’expérience dépend de sa plate-forme de prédilection (Facebook, Twitter, Snapchat, Instagram, YouTube…) et de ses bulles informationnelles. Les productions individuelles et originales sont confinées dans l’espace de partage qui les a vues naître. Seules les superproductions transmédia des industries culturelles disposent des ressources nécessaires pour circuler d’une plate-forme à l’autre dans ce nouvel espace médiatique. L’accès à la masse des médias n’est plus qu’une affaire de moyens, dont on sait la répartition de plus en plus inégale.

Vision utopique d’un environnement numérique contributif.David Revoy/Framasoft

Encourager les initiatives, retrouver la voie de l’inspiration

Dans sa contribution à l’ouvrage La Toile que nous voulons, le sociologue Dominique Cardon résume la situation en ces termes :

« Les usages actuels du web sont très en deçà des potentialités qu’il nous offre. Nos imaginations et nos initiatives ne sont pas à la hauteur de ses possibles. Il ne fait pas de doute que les moyens financiers, l’attention des internautes et leur créativité sont aujourd’hui aspirés par une économie numérique qui se préoccupe avant tout d’élargir son empire et de se monétiser. Mais il serait aussi maladroit de considérer que le développement du marché des grandes plates-formes interdit ou empêche de faire autre chose, autrement et selon d’autres principes. Le web se ferme par le haut, mais toute son histoire montre qu’il s’imagine par le bas. Sa trajectoire est émaillée de ces initiatives audacieuses, originales, curieuses et en rupture. Il n’y a aucune raison de penser que cette dynamique doive s’arrêter ou qu’elle soit complètement entravée par la domination des GAFA. Cependant, plus que jamais, il appartient aux chercheurs, aux communautés, aux usagers, aux pouvoirs publics aussi, d’encourager les initiatives qui préservent cette dynamique réflexive, polyphonique et peu contrôlable que les pionniers du web nous ont confiée. »

Nous sommes quelques-uns à expérimenter actuellement l’une de ces initiatives à l’Université de Lorraine. Résultat des réflexions inspirées par ma thèse de doctorat, needle est une extension qui ajoute un bouton à votre navigateur grâce auquel indexer les pages web qui nous inspirent. Lorsque nous contribuons à notre propre fil sur needle, cela nous ouvre l’accès à de nouvelles sources d’inspiration le long des fils de celles et ceux que nous croisons : la navigation devient contributive. Si vous souhaitez rejoindre le bêta-test public, un formulaire est à votre disposition pour solliciter une invitation après avoir installé l'extension (personnels et étudiants de l'Université de Lorraine peuvent se connecter grâce à leurs identifiants sans invitation préalable).

Présentation du concept de navigation contributive à la base du projet de service de navigation web contributive libre, ouvert et distribué, « needle ».

The Conversation

Julien Falgas, Chercheur associé au Centre de recherche sur les médiations, Université de Lorraine

La version originale de cet article a été publiée sur The Conversation.

[Parution] Patrimoine géologique - 10 ans de travail !

$
0
0

Pour évaluer les richesses du sous-sol de la France, le ministère en charge de l'environnement a lancé en 2007 l’inventaire national du patrimoine géologique. Ce travail est aujourd'hui réalisé, comme le montre l’ouvrage "Patrimoine géologique. Inventaire national" qui présente une centaine de sites, un par département. Au-delà d'un simple catalogue, l'objectif majeur est la connaissance et la valorisation de notre patrimoine géologique national.

Cet inventaire a été élaboré par les commissions régionales du patrimoine géologique, dont la présidence du territoire lorrain est actuellement assurée par Fabrice Malartre, enseignant-chercheur à l'ENSG et rattaché au laboratoire GeoRessources. Le travail de collecte des données, de discussions, de rédaction des fiches, de choix des sites a été assuré par nombre de chercheurs en activité ou en retraite du laboratoire GeoRessources. Le travail final a été validé par le Museum National d'Histoire Naturelle.

Préfacé par Nicolas Hulot, l'ouvrage est disponible auprès des éditions "EDP Sciences" : https://laboutique.edpsciences.fr/produit/1049/9782759823208/Patrimoine%20geologique

[RETOUR] Journée d'études de l'IRENEE - "Lutter efficacement contre le terrorisme"

$
0
0
Journée d’études "Lutter efficacement contre le terrorisme"

Dans le prolongement des activités scientifiques de l’IRENEE, il a été organisé le 16 novembre 2018 au sein de cet Institut, la traditionnelle journée d’études des doctorants qui avait pour thème : « Lutter efficacement contre le terrorisme : quelles mutations de l’action publique ? ».

Cette manifestation a été l’occasion pour les participants de débattre avec les communicants de questions relatives au terrorisme, abordées sous le prisme de différentes disciplines du droit public (droit administratif, droit européen et droit international). En effet, confrontés de manière permanente au terrorisme, les États sont amenés à adapter leurs législations aux impératifs que requiert la lutte contre le terrorisme. Ainsi, les diverses interventions ont pu mettre en évidence les évolutions juridiques induites dans l’action publique en vue de la recherche d’efficacité dans la lutte contre le terrorisme. 

Ces évolutions ont pu être observées d’une part, au niveau international à travers les organisations internationales de coopération et d’intégration qui font une lecture contemporaine de leurs actes constitutifs aux fins d’apporter une réponse (textuelle) au phénomène. D’autre part, il a pu être déduit de l’action de l’État, une adaptation de ses procédés, tenant désormais compte du risque terroriste.

À travers cette journée d’études, la mutation de l’action publique et des institutions internationales et européennes, l’un des axes de recherche de l’IRENEE a parfaitement pu être mis en lien avec la question de la lutte contre le terrorisme.

Pour suivre l'actualité de l'IRENEE : https://irenee.univ-lorraine.fr/

Projet IMPACT LUE : DigiTrust ou la confiance du citoyen dans le monde numérique

$
0
0
Cybersécurité

En 2016, une cyber-attaque de grande ampleur de type déni de service utilisait le malware Mirai sur plus de 145 000 objets connectés comme des caméras de surveillance ou des routeurs de maison pour faire tomber des serveurs de grandes entreprises. Aujourd’hui, tous les objets connectés sont susceptibles d’être utilisés pour monter des cyber-attaques qui peuvent être dévastatrices. Il s’agit donc d’être capable d’assurer la sécurité informatique des usines intelligentes, villes intelligentes, capteurs, caméras, téléphones mobiles, montres, équipements de maison, de voiture, de santé.

C’est le cœur du projet DigiTrust, un des 3 nouveaux projets IMPACT, fer de lance de l'initiative Lorraine Université d’Excellence de l’Université de Lorraine.

 

La sécurité autour de quatre axes et un seul mot : la confiance

Porté par Marine Minier, professeure à l’Université de Lorraine et chercheuse au sein de l’équipe Caramba et Régis Lhoste, responsable de projet, le projet DigiTrust vise à construire la confiance digitale du citoyen autour de quatre axes de recherche. Il s’agit tout d’abord de renforcer la confiance et la sécurité pour les systèmes dits cyber-physiques, c’est-à-dire les systèmes informatiques qui sont en lien avec le monde réel comme les usines du futur, ou tous les organismes dits d’importance vitale comme les transports, les hôpitaux ou les fournisseurs d’énergie. Pour ce faire, le projet DigiTrust s’appuiera sur l’expertise du LORIA en matière de méthodes formelles et celle du CRAN en matière de théorie du contrôle et de diagnostic.

Il faudra également en parallèle s’assurer de la sécurité et de la confiance de chaque équipement constituant ces systèmes ainsi que de chaque équipement personnel. L’expertise du LORIA en matière de cryptographie et de malware sera donc essentielle pour mener à bien cette tâche. De plus, DigiTrust vise également à renforcer la confiance dans les systèmes numériques c’est à dire les services dans lequel l’utilisateur a une interaction quotidienne avec un système d’information comme le cloud ou les environnements collaboratifs. Le projet s’intéressera à la manière dont la technologie de stockage et de transmission d'informations à l’intérieur des services doit rester transparente, sécurisée, privée voire décentralisée.

 

Une fois la confiance assurée dans chaque équipement, il faut s’intéresser à la sécurité des réseaux interconnectant ces objets notamment en surveillant ces réseaux et aux protocoles de sécurité associés notamment les protocoles cryptographiques. La vérification des protocoles cryptographiques peut se faire en utilisant des méthodes formelles notamment pour des protocoles complexes comme le vote électronique.  La surveillance du réseau concerne les menaces dites persistantes avancées qui sont en fait des attaques récurrentes. Pour cela, le projet DigiTrust utilisera notamment  les outils du Big Data ou de l’intelligence artificielle tout en tenant compte des nouveaux paradigmes des réseaux comme les SDN (Software Defined Networks pour l’acronyme anglais) qui permettent la virtualisation des ressources réseaux en les dissociant des éléments physiques du réseau.

Enfin, DigiTrust s’intéressera aussi à la confiance et aux systèmes de réputation dans les réseaux et notamment les réseaux sociaux. Il s’appuiera sur des travaux de recherche portant sur la transparence des algorithmes, sur les systèmes de recommandation, sur la protection des données personnelles dans les réseaux sociaux via les méthodes formelles mais aussi grâce à l’apprentissage automatique ou machine learning ou au Big Data. Les sciences humaines et sociales seront également sollicitées en s’intéressant d’un point de vue juridique et économique aux notions de contrats, ceux portant par exemple sur les données personnelles et également d’un point de vue psychologique à la confiance en des organisations virtuelles.

 

Placé au cœur du projet DigiTrust, le citoyen doit ainsi comprendre ce qu’il utilise pour qu’il n’ait pas peur de vivre dans ce nouvel environnement qui peut parfois le submerger.

 

Un projet multipartenaire

Le projet DigiTrust se construit autour de six laboratoires partenaires : le LORIA, le CRAN, l’IECL, le BETA, l’IRENEE et le 2LPN et incluera les entreprises locales afin de faire du transfert vers entreprises et de collaborer avec notamment les agences gouvernementales et la CNIL. Les partenaires institutionnels de DigiTrust sont le CNRS, l'Inria et l'Université de Lorraine.

Le projet est également réalisé en collaboration avec l’université du Luxembourg et le Saarland car il représente la partie française de la collaboration franco-allemande entre CISPA et l’Université de Lorraine. Deux financements de thèse ont déjà été accordés dans le cadre du projet DigiTrust.

Au total, environ 45 membres permanents participent à ce consortium de projet, qui sera dans un second temps ouvert à d'autres chercheurs ou entreprises.

L'un des objectifs institutionnels de DigiTrust est de créer un Institut pour la confiance numérique dans la région du Grand Est de la France qui met l'accent sur les aspects civils et sociétaux et qui regroupe des acteurs du monde universitaire, mais aussi de la société civile, des entreprises et de la politique. Une mission de DigiTrust et de l'Institute for Digital Trust dans la région du Grand Est sera d'imposer la construction du Cybersecurity European Research Institute (CERI) entre LORIA et notre partenaire allemand CISPA. Une lettre d'accord à l'appui de cette construction a été signée par Michael Backes, le directeur scientifique du CISPA, et par Karl Tombre, le directeur exécutif de LUE.

 

Le LORIA, acteur du LUE

Le Loria est impliqué dans quatre projets Impact LUE au total. Le projet DigiTrust fait parti de la dernière vague des projets LUE aux côtés du projet OLKI, sur la protection des données privées. Dans les vagues précédentes, le Loria est déjà impliqué dans le projet ULHyS autour de l’hydrogène-énergie et dans le projet GEENAGE qui vise à définir une nouvelle stratégie de diagnostic et de prise en charge du vieillissement normal et pathologique.

 

[English version]

LUE IMPACT project: DigiTrust, or citizens’ trust in the digital world

November 26th 2018

In 2016, a large-scale service-denial cyberattack used the Mirai malware on over 145,000 connected objects like surveillance cameras or domestic routers to bring down the servers of major companies. Today, all connected objects can potentially be used to launch cyberattacks which can be devastating. It is therefore important to be capable of ensuring the computing security of smart factories, smart cities, captors, cameras, mobile phones, watches and domestic, car or health equipment.

This is the core idea of the DigiTrust IMPACT project, the spearhead of the Université de Lorraine‘s program called Lorraine Université d’Excellence.

Security centered around four axes and just one word – trust

The DigiTrust project is carried by Marine Minier, professor at the Université de Lorraine and researcher in the Caramba team and Régis Lhoste, the project manager. Its aim is to build citizens’ digital trust working around four main research axes. Firstly, the idea is to reinforce trust and security in cyber-physical systems which are computing systems linked to the physical world such as automated production centers or organizations of vital importance such as transport, hospitals or energy providers. To achieve this, the DigiTrust project will rely on the Loria‘s expertise in formal methods and the CRAN‘s[1]expertise in control and diagnosis theory.

We also aim to guarantee security and trust in all the equipment making up these systems as well as all personal equipment. The Loria‘s expertise in cryptography and malwares will therefore be essential to effectively achieve this task. Also, DigiTrust aims to reinforce trust in digital systems in which users interact on a daily basis with a system like the cloud or in collaborative environments. The project will focus on the way in which technology for storage and the transmission of information within services must remain transparent, secure, private or even decentralized.

Once trust is ensured in all the equipment, the next step is to focus on the security of networks which interconnect these objects, by monitoring networks and their associated safety protocols especially cryptographic protocols. These can be checked using formal methods notably for complex protocols like digital voting systems. Network surveillance will focus on what we call advanced, persistent threats and are in fact recurring attacks. For this, the DigiTrust project will use Big Data extensively as well as artificial intelligence tools alongside the new paradigms of networks like Software Defined Networks which enable the virtualization of resource networks by disassociating them from a network’s physical elements.

Finally, DigiTrust will also work on trust and reputation systems in networks, particularly in social networks. It will base this part of its work on researching algorithmic transparency, recommendation systems, and the protection of personal data on social networks by formal methods but will also use machine learning or Big Data. The humanities and social sciences will also be involved with the study of contracts from a legal and economic standpoint. This will refer, for example, contracts pertaining to personal data as well as trust in virtual organizations from a psychological point of view.

Citizens have a key role in the DigiTrust project’s aims and they need to understand what they use to avoid being afraid of this new environment which can sometimes seem overwhelming.

 

A multi-partner project

The DigiTrust project involves six partner laboratories – the Loria, the CRAN, the IECL[2], BETA[3], IRENEE[4]and 2LPN[5]- and will also include local companies to promote technological transfer and more specifically to work in collaboration with government agencies and the CNIL[6]. DigiTrust’s institutional partners are the CNRS[7], the Inria[8]and the Université de Lorraine.

This is also a collaboration project with the University of Luxembourg and Saarland University as it represents the French part of the Franco-German collaboration between the CISPA[9]and the Université de Lorraine. Two theses have already obtained funding in the framework of the DigiTrust project.

A total of approx.45 permanent members are taking part in this project consortium which will later be opened up to other researchers or companies.

One of DigiTrust’s institutional objectives is to create an Institute for Digital Trust in the Greater East region of France which will focus on the civil and societal aspects of these questions and will bring together players from the academic field, civil society, companies and elected officials. The mission of DigiTrust and the Institute for Digital Trust in the Greater East region will be to ensure the construction of the Cybersecurity European Research Institute (CERI) by the Loria and our German partner, CISPA. A letter of agreement backing up this construction has been signed by Michael Backes, the CISPA‘s scientific director and Karl Tombre, the executive director of LUE.

 

The LORIA’s involvement in the LUE

The Loria is involved in a total of four LUE Impact projects. The DigiTrust project is part of the latest wave of LUE projects alongside the OLKI project on the protection of private data. In the previous waves, the Loria was involved in the ULHyS project on hydrogen-energy and in the GEENAGE project which aims to define a new strategy for the diagnosis of and care for normal and pathological ageing.

 

 

 

L'ARN dans tous ses états sur le campus de la FST

$
0
0

Le SifrARN (Structure Integration Function and Reactivity of RNA) est un congrès bisannuel organisé sous l'égide de la Société Française de Biochimie et Biologie Moléculaire (SFBBM). La 11ième édition a rassemblé 175 scientifiques français et étrangers, du 6 au 8 Novembre 2018, sur le Campus de la Faculté des Sciences et Technologies de l'Université de Lorraine (https://sifrarn2018.sciencesconf.org/).

Le comité d’organisation de l'édition 2018 du congrès SifrARN était composé de chercheurs et enseignants-chercheurs de l’équipe « ARN-RNP Structure-Fonction-Maturation » du laboratoire IMoPA UMR CNRS UL 7365 (Isabelle Behm-Ansmant, Christiane Branlant, Bruno Charpentier, Stéphane Labialle, Sylvain Maenner, Xavier Manival, Séverine Massenet, Iouri Motorine, Mathieu Rederstorff, Athanase Visvikis, Guillaume Vogin). L’organisation a bénéficié du soutien financier de l’UL, de la Région Grand Est, de la Métropole du Grand Nancy ainsi que de la contribution du CNRS, de la Federation of European Biochemical Societies (FEBS) et de la SFBBM.
Les thématiques des recherches actuelles sur l’ARN ont été abordées : assemblage et structure des ribonucléoprotéines (RNP), épissage et pathologies de l’ARN, chimie de l’ARN et épitranscriptomique, stabilité et maturation des ARN, biogenèse des ribosomes, traduction et ARN non-codants. Le programme s’articulait autour de 4 conférences plénières données par des chercheurs étrangers internationalement reconnus : Reinhard Lührmann (Institut Max Plank de Chimie et Biophysique, Göttingen, Allemagne), Witold Filipowicz (Institut Friedrich Miescher pour la Recherche Biomédicale, Bâle, Suisse), Anne Ephrussi (Laboratoire Européen de Biologie Moléculaire, Heidelberg, Allemagne) et Mary O'Connell (Université Masarykova, Brno, République Tchéque) ainsi que d’une sélection de 50 présentations orales et 72 présentations par poster, réalisées par des chercheurs, enseignants-chercheurs, post-doctorants et doctorants.
Une partie du congrès a été consacrée à l’enseignement de la biochimie, avec une session entièrement dédiée aux nouvelles méthodes pédagogiques suivie d’une table ronde.
Une soirée de gala s’est tenue dans les grands salons de l’Hôtel de Ville de Nancy, où un hommage a été rendu à Christiane Branlant, pour l’ensemble des travaux réalisés tout au long de sa carrière dans le domaine des ARN.
Le congrès s’est achevé par une visite guidée du centre historique de Nancy pour ceux qui le désiraient.
Le prochain SifrARN aura lieu en 2020 dans la région de Bordeaux.

Objets connectés et Innovation : quels défis et opportunités pour les PME ?

$
0
0
Objets connectés et Innovation : quels défis et opportunités pour les PME ?

Dans le cadre du Forum annuel de l'Association Française d'Ingénierie Système qui s'est déroulé les 5 et 6 décembre 2018 à Nancy, le Lorraine Fab Living Lab (LF2L) a accueilli le mardi 4 décembre après midi 40 professionnels, 10 universitaires et 20 étudiants de M2 pour des présentations et échanges sur le thème "Objets connectés et Innovation : quels défis et opportunités pour les PME ?"

Après une introduction proposée par Alain Roussel, Président de l’Association Française d'Ingénierie Système (AFIS), Laure Morel, Directeur ERPI, Eric Bonjour, Professeur à l’ENSGSI-ERPI, et Jean-Christophe Marpeau, Jessica France - programme CAPTRONIC, 4 grandes thématiques ont été abordées et ont soulevées de nombreuses questions dans l'assemblée :

  • Internet des Objets, un lien entre les usages et l’ingénierie ? Par Jean-Christophe Marpeau, Jessica France - programme CAPTRONIC.
  • Ingénierie et Cybersécurité : une approche par le risque par Stéphane L' Hermitte, Directeur Technique, Digital Security.
  • L’Ingénierie Système et l’ Internet des Objets selon l’AFIS  par Alain Roussel, Président de l'AFIS.
  • Table Ronde, Objets connectés et innovation : ils l’ont fait ! AvecJacques Wolff, PDG, SEWOSY, Thierry Supernat, Directeur Recherche et Développement, RENZ, Xavier Dorel, Digital Engineering, Schneider Electric, et Christophe Le Bayon, Responsable Commercial Grand Est,Orange Applications for Business.

L'après-midi s'est achevé par une visite des installations du LF2L et des discussions entre professionnels, chefs d'entreprises, chercheurs et étudiants.

Contact : ensgsi-partenariat@univ-lorraine.fr

Objets connectés et Innovation : quels défis et opportunités pour les PME ?
Eric Bonjour, Enseignant Chercheur ENSGSI ERPI
Alain Roussel, Président de l'AFIS
Laure MOREL, Directeur de l'ERPI

Des failles de sécurité dans la future norme de communication mobile 5G

$
0
0

Jannik Dreier est Maître de conférences au laboratoire lorrain de recherche en informatique et ses applications (Loria). Il a contribué à une étude qui a soumis la future norme de communication mobile 5G à une analyse de sécurité précise. Leur conclusion : une protection de données améliorée par rapport aux normes précédentes 3G et 4G mais des failles persistent.

Les deux tiers de la population mondiale, soit environ cinq milliards de personnes, utilisent quotidiennement un téléphone mobile. Ils se connectent au réseau via leurs cartes SIM, passent des appels, envoient des SMS, échangent des images ou effectuent des achats. Le réseau est, bien entendu, vulnérables aux attaques. À maintes reprises, des délinquants ont pu accéder à des communications lors de la connexion de l’appareil au réseau afin d’intercepter des conversations ou de voler des données.

Comment progresser en matière de sécurité ? La cinquième et dernière génération de communications mobiles (5G) prévue pour un déploiement d’ici 2020 devrait offrir plus de garanties aux utilisateurs. Afin de soutenir la sécurité, le périphérique et le réseau doivent pouvoir s’authentifier l’un et l’autre au moment de la connexion. En même temps, les échanges de données, l’identité et la localisation de l’utilisateur doivent rester confidentiels. Pour cela un protocole de communication appelé Authentification and Key Agreement (AKA) est mis en œuvre depuis l’introduction de la norme 3G.

Protocole 5G AKA

La norme de communication mobile 5G s’appuie donc sur le protocole 5G AKA. Le nouveau protocole améliorera considérablement la protection des données par rapport aux technologies 3G et 4G. Notamment, grâce à lui, un problème a été résolu concernant une faille auparavant exploitée par les intercepteurs IMSI (International Mobile Subscriber Identity). Avec ces appareils, l’identité internationale d’abonné mobile d’une carte de téléphone portable pouvait être lue pour déterminer l’emplacement d’un appareil mobile et suivre un utilisateur. Pour ce faire, l’appareil avait seulement besoin d’écouter les transmissions entre le téléphone mobile et l’antenne du réseau mobile. Cela n’est plus possible désormais avec le 5G AKA.

Les possibilités des différents réseaux.Theduran.com, CC BY-NC

Comment évaluer globalement la sécurité offerte par le protocole 5G AKA ? Pour le vérifier, notre équipe du laboratoire d’informatique Loria, en collaboration avec des chercheurs de l’École Polytechnique Fédérale de Zurich, l’Université de Dundee et le Centre National sur la Cybersécurité de Sarrebruck a utilisé l’outil de vérification de protocoles de sécurité Tamarin. Il a permis d’identifier automatiquement les hypothèses de sécurité minimale requises pour atteindre les objectifs de sécurité définis par le standard proposé par l’organisme de standardisation 3GPP. L’analyse a montré que le protocole était insuffisant pour atteindre tous les objectifs de sécurité critiques avec les hypothèses énoncées dans le standard. En particulier, une mise en œuvre trop rapide, mais respectant la norme, pourrait aboutir à une situation où un utilisateur est facturé pour les appels d’un autre utilisateur.

Nous avons montré que le protocole permettait également d’autres types d’attaques, notamment des attaques de traçabilité. Lors de ces attaques, le téléphone mobile n’envoie pas l’identité complète de l’utilisateur, mais un attaquant peut identifier un téléphone, et le tracer. Vu les faiblesses identifiées, si la nouvelle technologie de communication mobile est introduite avec ces spécifications, cela peut entraîner de nombreuses cyberattaques avec des conséquences sur la protection de la vie privée.

Vérification formelle

Pour aboutir à ce résultat, nous nous sommes appuyés sur la vérification formelle. Il s’agit de vérifier que tout standard assure des propriétés de sécurité suffisantes pour être commercialisé. Tout système ou programme grand public possède un document de spécification technique que nous appelons un standard. Ce document est en général public et décrit avec précision le contenu et fonctionnement du système. C’est à partir de ce document de spécification que nos chercheurs ont pu faire ces vérifications.

L’avantage de l’approche permet de tester différentes propriétés comme l’authentification, la confidentialité, la traçabilité avant la commercialisation du système. Le logiciel « Tamarin » permet de bâtir des modèles mathématiques précis du système à partir du standard et d’y insérer des scénarios d’intrusion pour ainsi construire des preuves de ce qui est garanti ou non. Comme par exemple l’authentification afin d’être sûr qu’on s’adresse à la bonne personne. Tamarin est également un outil d’aide à la décision car il permet d’évaluer rapidement des solutions alternatives pour parer aux failles détectées.

La vérification formelle est utilisée en particulier pour la sécurité dans l’automobile et l’aéronautique. Il est évidemment crucial que les standards utilisés dans les avions ne contiennent pas de bugs. L’objectif de la vérification n’est donc pas seulement de trouver des failles mais au contraire d’assurer leur absence, donc d’améliorer le système en proposant des alternatives et des corrections.

Il faut toujours se préoccuper des brèches pour éviter des conséquences graves. Dans les protocoles de communication 3G et 4G, il y a une faille permettant à une personne malveillante de suivre un autre individu, et cette faille est effectivement exploité en pratique par les intercepteurs d’IMSI. Nous sommes en contact avec le 3GPP pour résoudre les problèmes identifiés dans la norme 5G, mais le problème de la traçabilité est complexe et nécessite une importante remise à niveau.

The Conversation

Jannik Dreier, Maître de Conférences cryptographie et informatique théorique, Université de Lorraine

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.


Illettrisme ou « insécurité langagière » ?

$
0
0

Valérie Langbach est maître de conférence, spécialisée en sociolinguistique et didacticienne. Enseignante chercheure à l'ATILF au sein de l'équipe didactique des langues et sociolinguistique, Valérie Langabch est membre de l'axe de recherche Langage Travail et Formation | LTF qui rassemble des spécialistes de la formation des adultes en insécurité langagière. Ses recherches portent plus spécifiquement sur les natifs engagés dans un parcours d'insertion sociale ou professionnelle.

Une personne est en situation d’illettrisme lorsque, malgré une scolarité en France, elle n’a pas acquis une maîtrise suffisante des compétences de base en lecture et en écriture qui permettrait d’être autonome dans les situations simples de la vie courante.

Aujourd’hui, ces inégalités d’accès à l’écrit sont socialement reconnues et font l’objet de nombreux travaux de recherche tant au niveau de leurs origines, des conséquences et des remédiations possibles. Mais ces difficultés de communication se cantonneraient-elles à l’écrit ?

Les travaux de psycholinguistes (repris notamment dans l’étude de Eme, Reilly et Almecija), ont montré que ces problèmes se manifestaient aussi à l’oral. Cette question reste très peu étudiée alors qu’il y a « une différence fondamentale entre ce qui n’est pas dit – parce qu’il n’y a pas d’occasion de le dire – et ce qui n’est pas dit – parce qu’on n’a pas de moyen de le dire », comme le souligne Hymes (1984, p.33).

L’écran du relativisme culturel

Ces problèmes de communication ont fait l’objet de quelques recherches dans les années soixante-dix. Nous pouvons mentionner les thèses de Bernstein sur le déficit langagier des classes défavorisées ou encore les travaux de Faïta qui ont fait état des difficultés d’expression orale d’adultes français de bas niveau de qualification, notamment hors du cercle restreint de situations familières.

Plus récemment, Alain Bentolila a tenté en 2004 de relancer ce débat mais en vain car les travaux scientifiques se sont limités à des analyses sociologiques qui n’ont guère abordé la question langagière. Celle-ci n’a été étudiée que sous l’angle d’un certain relativisme culturel, axant la critique sur le fait qu’aucun modèle culturel n’est supérieur en soi à aucun autre.

Prenons pour exemple le débat concernant le français des banlieues. Cette variété de langue peut être soit la cible de critiques, parfois très virulentes, qui pointent « la pauvreté lexicale et syntaxique » entre autres des jeunes de banlieue (Bentolila, 2007) ; soit au contraire un discours qui vante leurs « prouesses langagières stylistiques ou imaginatives » (Lepoutre, 1997 ; Trimaille, 2003). Mais est-ce vraiment la question à se poser ?

À la suite de Grignon (2008, p.31) nous affirmons que « poser en principe que toutes les langues se valent, qu’elles offrent toutes les mêmes possibilités, les mêmes ressources […] c’est à l’évidence manquer de réalisme ». La question scientifique et l’enjeu d’aujourd’hui nous semblent être de comprendre si la maîtrise de la langue permet ou non de dominer le réel, de le penser en l’organisant mais aussi d’entrer en communication satisfaisante avec les autres, quels que soient les éléments de la situation de communication.

Un tabou social

Pourquoi ce silence autour de la question de la maîtrise de la langue orale par des adultes natifs ? Cette question est sans doute peu étudiée car elle soulève des enjeux politiques, sociaux et idéologiques à l’image de la reconnaissance de l’illettrisme à ses débuts.

S’intéresser aux difficultés de communication orale des personnes faiblement qualifiées semble tabou car il s’agit d’aborder le rapport au langage des classes populaires. Et il est difficile aujourd’hui de porter au débat scientifique les rapports de cette classe à la langue normée car il est difficile de traiter de cette question sans porter de jugement sur ces locuteurs.

Nous pouvons pourtant définir, sans aucun jugement de valeur, les personnes issues des classes populaires par des caractéristiques objectives : « [la] petitesse du statut professionnel ou social, l’étroitesse des ressources économiques – sans que cela ne signifie nécessairement précarité –, l’éloignement par rapport au capital culturel, et d’abord à l’école » (Schwartz, 2008 p.2).

S’il ne s’agit aujourd’hui que d’un éloignement relatif pour l’auteur, grâce notamment à la scolarité obligatoire, à l’accès à Internet, etc., nous ne sommes pas pour autant sortis du modèle de la reproduction cher à Bourdieu et Passeron (1970). Une enquête récente (2016) du Centre national du système scolaire ne fait d’ailleurs qu’étayer la thèse des deux sociologues… près d’un demi-siècle plus tard.

Des champs de recherche à ouvrir

Cette volonté de ne pas prendre en compte ces problèmes de communication orale entre natifs est aussi marquée d’un manque lexical qui masque un peu plus encore cette réalité : il n’y a pas de pendant pour l’oral au terme « illettrisme » ou à l’expression « être en situation d’illettrisme ».

Nommer un problème c’est le prendre en considération et commencer à l’interroger. C’est pourquoi, pour évoquer la difficulté pour un locuteur/scripteur de gérer de façon efficace les interactions verbales dans lesquelles il est engagé, d’un point de vue linguistique, interactionnel, pragmatique et social nous utilisons le concept « d’insécurité langagière » (Adami, André, 2014).

Valérie Langbach, Author provided

Nos travaux récents (Langbach, 2014) tendent à montrer que les pratiques interactionnelles des locuteurs faiblement qualifiés ne leur permettent pas d’entrer en communication d’une manière satisfaisante dans l’ensemble des situations de communication rencontrées au quotidien. Au-delà des problèmes lexicaux et syntaxiques si souvent avancés dans le débat public, cette étude montre que le déroulement des échanges est différent en fonction du degré de scolarité des locuteurs.

En effet, l’analyse d’interactions entre des demandeurs d’emploi faiblement qualifiés et des conseillers en insertion dévoile les manques de compétences sociolinguistiques des locuteurs faiblement qualifiés et montre que ceux-ci ne perçoivent pas les facteurs pertinents qui influencent le déroulement des échanges. L’ensemble de ces difficultés va impacter la co-construction du discours et de fait, la possibilité d’une communication satisfaisante.

Notre objectif n’est pas d’adopter une posture misérabiliste ou au contraire populiste mais de montrer, en analysant minutieusement des interactions verbales, que certaines manières de s’exprimer empêchent certains locuteurs d’agir, de se faire comprendre et donc de s’insérer pleinement dans tous les espaces de la société.

Au-delà des querelles d’écoles, une approche scientifique approfondie de cette question nous apportera des données objectives et nous permettra d’ouvrir de nouvelles pistes didactiques pour les formations destinées aux publics faiblement qualifiés. C’est cette entreprise que nous souhaitons mettre en œuvre.

The Conversation

Valérie Langbach, Maitre de conférences en Sciences du Langage, Université de Lorraine

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

[RETOUR] Séminaire de recherche de l'IRENEE "La Turquie d'Erdogan. Avec ou sans l'Europe"

$
0
0
Séminaire de recherche "La Turquie d'Erdogan. Avec ou sans l'Europe"

Le 29 novembre 2018, Claire Visier, maitresse de conférences à l’Université de Rennes-1 (Faculté de Droit et de Science politique) est intervenue dans le cadre du séminaire des «  jeudis de l’IRENEE ».

Spécialiste des relations entre l’Europe et les pays du Proche-Orient, du Maghreb et du Machrek, elle étudie les relations entre la Turquie et l’Union Européenne depuis une dizaine d’années.


Le livre qu’elle vient de publier sous sa direction, aux Presses Universitaires de Rennes, est intitulé La Turquie d’Erdogan. Avec ou sans l’Europe ? (collection Res Publica, 2018). Ce livre repose sur une recherche collective de cinq ans, impliquant six chercheuses issues de plusieurs disciplines.

Au cours de ce séminaire, C. Visier a exposé la démarche intellectuelle et méthodologique déployée dans cet ouvrage. Il s’agit d’une recherche qui se situe à l’intersection entre deux domaines : les études consacrées à l’élargissement de l’Union Européenne et les études de la société et du système politico-économique turc. Ce croisement se justifie par le fait que la relation entre UE et Turquie sont, depuis les années 1990, avant tout structurées par la perspective de l’élargissement et de l’intégration future de la Turquie au sein de l’UE. Or, à partir de 2008-2010, la perspective de l’entrée de la Turquie est devenue de moins en moins probable, ce qui a généré des conséquences, tant sur le système turc que sur l’UE. Pourtant, les dotations européennes vers la Turquie sont aujourd’hui toujours versées dans le cadre de la « pré-adhésion ». L’ouvrage retrace donc l’histoire d’un processus d’adhésion manquée, sous différentes perspectives.

Devant un public venu nombreux, Clairte Visier a plaidé pour une approche moins quantitative et moins formaliste des études sur l’élargissement de l’UE. Son approche vise en effet à intégrer à l’analyse les aspects et géopolitiques (OTAN, perspective commerciales avec les Républiques turcophones d’Asie centrale comme le Kazakhstan). Elle prend aussi en compte les démobilisations des acteurs qui furent un temps moteurs de l’ambition européenne de la Turquie  (patronat, élites politiques, etc.). L’histoire n’est pas absente de cette approche : l’auteur considère que, sans l’éclatement de la guerre civile syrienne et la réémergence subséquente de l’enjeu kurde au premier plan dans la politique turque, l’évolution actuelle du régime politique turc, liberticide et autoritaire, aurait été rendue beaucoup plus difficile. Cette riche intervention a suscité de nombreuses questions de la part des collègues enseignants-chercheurs ainsi que des étudiants et doctorants présents à ce séminaire. Le succès de cet événement appelle la tenue d’autres séminaires de recherche, en particulier de moment d’échanges dédiés à l’analyse de la situation politique et des formes institutionnelles de l’Europe au sens large, un sujet qui constitue l’un des axes privilégiés des investissements scientifiques de l’IRENEE.

Pour suivre l'actualité de l'IRENEE : irenee.univ-lorraine.fr / Pour contacter l'IRENEE : irenee-contact@univ-lorraine.fr

Claire Visier, Maitresse de conférences à l'Université de Rennes
Gildas Renou, Maitre de conférences IRENEE/UL

Interview du Professor@Lorraine João F. MANO

$
0
0
Prof. Joao F. MANO

Interview du Professor@LorraineJoão F. MANO, Department of Chemistry, CICECO—Aveiro Institute of Materials, University of Aveiro, Aveiro, Portugal, Professor@Lorraine, University of Lorraine, Institut Jean Lamour, Nancy, France [English version below]

 

Où travaillez-vous quand vous n’êtes pas en Lorraine et pouvez-vous expliquer la nature de vos travaux à un public de non spécialistes ?

Je développe mes travaux principaux au département de chimie à l’université d’Aveiro (Portugal), au sein de l’Institut de Matériaux d’Aveiro - CICECO, la plus grosse infrastructure de recherche dédiée aux sciences des matériaux et à l’ingénierie au Portugal. Je m’intéresse à la combinaison de matériaux biocompatibles avec les cellules pour produire des tissus humains en laboratoire. Le design correct de telles structures et les conditions de culture adéquates permettraient de produire des tissus fonctionnels qui pourraient être greffés aux patients suivant un traitement de médecine régénérative. Cela pourrait permettre de rétablir la structure et les propriétés de tissus malades, endommagés ou perdus. C’est un domaine multidisciplinaire et fascinant dans lequel travailler et qui nous permettra peut-être à l’avenir de proposer des solutions innovantes à des conditions actuellement incurables.

 

Comment avez-vous entendu parler du programme Professor@Lorraine de l’initiative Lorraine Université d’Excellence et pour quelle raison avez-vous souhaité vous y engager ?

Cela fait 4 ans que je collabore avec des groupes de recherche à l’Université de Lorraine, en particulier avec le Prof. Franck Cleymand de l’Institut Jean Lamour (IJL). J’ai eu la chance d’obtenir un poste de « Chercheur d’avenir » (support financier de la région/FEDER) ce qui a permis d’amplifier le nombre d’interactions du même genre. J’ai également eu le privilège d’enseigner à l’Ecole Nationale Supérieure des Mines de Nancy un cours en lien avec le Biomimétisme. C’est à cette période qu’on m’a proposé d’obtenir le statut de Professor@Lorraine, que j’ai immédiatement accepté, compte tenu du prestige du titre et qu’il me permettait de maintenir mes liens avec l’institution. C’est un instrument d’excellence unique qui nous permet de participer à la vitalité de l’Université de Lorraine, de faire de la recherche novatrice et développer des projets éducatifs et transverses.

 

Quels ont été les fruits ou sont les résultats espérés de votre collaboration avec F. Cleymand au sein de LUE ?

Le statut de Professeur@Lorraine est une grande responsabilité mais offre des opportunités exceptionnelles de rassembler et développer en interne des compétences nouvelles à l’université. Par exemple, ce poste m’a permis de soumettre des projets de recherche à l’UL, avec des collèques de consortiums divers et même d’autres universités. Nous croyons fermement que ces actions pourraient aboutir en la création d’une nouvelle discipline à l’UL, à la croisée de la bio-ingénierie et des matières organiques dites « molles », pour complémenter les compétences excellentes existant déjà en sciences des matériaux et en ingénierie, en particulier à l’IJL. Nous avons déjà eu des résultats très intéressants grâce à ces coopérations : nous sommes par exemple en train de développer des membranes qui serviront de patches de support pour la régénération de tissus cardiaques, utilisable dans les cas tels qu’un infarctus du myocarde. Nous développons également l’utilisation de technologies d’impression 3D pour réaliser des tissus complexes qui combineraient biomatériaux et cellules dès leur conception. Des évènements internationaux et de nouveaux projets éducatifs sont déjà prévus dans le champ des matériaux à utilisation médicale, participant grandement au rayonnement de l’UL et de sa formation avancée dans ces domaines.

 

Quels sont vos projets pour la suite ?

Sur le long terme, je souhaite que les efforts déployés en ce moment culminent en une masse critique de savoir-faire à l’Université de Lorraine dans le domaine des biomatériaux avancés et de l’ingénierie tissulaire. Cela comprendrait des infrastructures et équipements dédiés, des chercheurs, des partenariats nationaux et internationaux, la création d’un savoir transmissible et de projets éducatifs. Cette entreprise nécessitera un soutien financier continu des agences nationales et européennes et les efforts de multiples groupes au sein de l’université.

 

Le Professeur Mano animera un séminaire inaugural le 18/12/18 à 15:00 à l'Amphithéâtre 100 du campus ARTEM - factuel.univ-lorraine.fr/node/9984

 

[English version]

Where do you work when you’re not in Lorraine and could you explain the nature of your work for a non-specialist public?

I’m developing my major work at the Department of Chemistry of the University of Aveiro (Portugal), in CICECO – Aveiro Institute of Materials, the biggest Research Unit devoted to Materials Science and Engineering in Portugal. I’m interested in combining biocompatible materials with cells to produce human tissues in the laboratory. The right design of such hybrid structures and the adequate culturing conditions would allow to produce functional tissues that could be implanted into patients in regenerative medicine strategies. This could permit to reestablish the structure and the function of diseased, damaged or lost tissues. This is a truly multidisciplinary and fascinating field to work that could allow us in the future to propose completely new solutions of currently incurable clinical conditions.

 

How did you hear about the Professor@Lorraine program by the Lorraine Université d’Excellence initiative and what made you want to participate?

I’ve been collaborating with research groups at the Université de Lorraine for the last 4 years, in particular with Prof. Franck Cleymand at Institut Jean Lamour. I had the chance to obtain a position of “Chercheur d’avenir” (FEDER/region financial support) that allowed to enhance such interactions and to have the privilege of being involved on the teaching at the Ecole Nationale Supérieure des Mines de Nancy of a course related to Biomimetism. During that time, I was invited to join a proposal to get the status of Professor@Lorrained that I accepted immediately, taking into account it’s prestige and the possibility to maintain the link to the institution. This is a unique instrument of excellence that allows us to participate in the life of the University of Lorraine and use its resources to create new research, educational and translational projects.

 

What were the yielded results or the expected results of your collaboration with F. Cleymand and LUE?

The status of Professor@Lorraine is a great responsibility but offers rather exceptional opportunities to increase the internationalization and the gathering of novel competencies to the university. For example, this position allowed me to submit research projects at the UL, together with colleagues from distinct faculties and from other universities. We truly believe that such actions could be effective in building a new field at UL at the interface of soft matter and bioengineering, to complement the excellent skills already existing on materials science and engineering, in particular at the Institut Jean Lamour. We got very interesting results so far with such cooperations: for example, we have been developing membranes to be used as patches to regenerate heart tissue upon, for example, in the occurrence of a myocardial infarction. We are also actively working on using 3D-printing technologies to build complex tissues that could combine biomaterials and cells during their construction. International events and new educational projects are already planned in the field of materials for healthcare applications, being of great relevance to leverage the advance training and recognition of UL in these fields.

 

What are your plans from here?

In the long term I wish that the efforts that are currently undertaken could result on the establishment of a critical mass of skills at the Université de Lorraine in the domain of advanced biomaterials and tissue engineering. Those should include dedicated facilities and equipments, researchers, national and international partnerships, creation of transferable knowledge and educational projects in the field. This endeavor will require sustainable funding from national and European agencies and the effort of multiple groups from the university.

Professor Mano will host an inaugural seminar 18/12/18 at 15:00 at the amphithéâtre 100, campus ARTEM - factuel.univ-lorraine.fr/node/9984

Faire rouler les voitures hydrogène à base d'énergie renouvelable

$
0
0

Julia Mainka et Robin Vivian sont enseignants-chercheurs, elle en mécanique au laboratoire d'énergétique et de mécanique théorique et appliquée (LEMTA) et lui en informatique et en ergonomie au sein de l'équipe PErSEUs. Ils travaillent tous deux au projet IMPACT Hydrogène sciences et technologies (ULHyS) dans le cadre du défi énergies du futur et transition énergétique de l'initiative Lorraine Université d'Excellence (LUE).

File 20181213 178582 g1zdee.jpg?ixlib=rb 1.1

Une transition énergétique pérenne nécessitera d’impliquer, dans le processus de développement, de nombreux domaines scientifiques : sciences physiques, humaines, économique, sociale ou encore sciences de la vie avec comme préoccupation principale de replacer l’utilisateur au centre du dispositif. Au travers du projet ULHyS l’université de Lorraine fédère une dizaine de laboratoires multidisciplinaires autour de cinq axes thématiques allant de la production d’hydrogène au déploiement territorial. Différents acteurs du projet ULHyS ont été invités à visiter la station de recharge d’hydrogène FaHyence de Sarreguemines.

Depuis le 6 avril 2017, FaHyence est la première station de recharge en Europe à produire sur site de l’hydrogène par électrolyse à partir d’électricité d’énergies renouvelables fournie par EDF lors des pics de production en couplant un électrolyseur et une station hydrogène d’une capacité de 40 kg par jour, représentant les besoins de 20 à 25 véhicules par jour pour des charges de 350 à 420 bars.

Illustration de la station avec l’aimable autorisation de la société EIFER.Author provided

Des autonomies de 350km, sans émissions de gaz à effet de serre

Au niveau national d’autres projets sont finalisés ou en cours d'élaboration. HyWay est opérationnel depuis l’été 2018 sur le site du CEA de Grenoble et deux autres sont en développement à Rodez et Nantes. FaHyence est le fruit d’un partenariat entre EDF, EIFER, McPhy, Symbio Fcell et la Communauté d’Agglomération de Sarreguemines Confluences (CASC). Afin d’assurer une utilisation régulière de la station, une dizaine de véhicules circulent actuellement dans l’agglomération : des Kangoo ZE électriques équipés par la société Symbio d’une pile à combustible qui fonctionne comme un prolongateur d’autonomie.

Les piles à combustible à membrane polymère (PEMFC) consomment de l’hydrogène pur sans émission de gaz à effet de serre. Les autonomies sont de l’ordre de 350 km, dont 200 km grâce à une batterie Li-ion de 33kWh et 150 km en hydrogène grâce à une PEMFC de 5kW.

La station de recharge, sans être en accès libre, est ouverte à tout véhicule, français ou étranger, roulant à l’hydrogène après une demande d’autorisation à l’agglomération. Avantage non négligeable dans le cadre de cette expérimentation : le plein d’hydrogène est totalement gratuit. De ce fait, se sont rajoutés à la flotte captive de la CASC, neuf utilitaires supplémentaires achetés par des partenaires et des particuliers allemands et belges se sont réjouis de pouvoir remplir leur réservoir à Sarreguemines.

FaHyence fait partie du projet européen H2ME FCH-JU, qui vise à déployer 49 stations-service à hydrogène et 1400 véhicules d’ici 2020. A côte de l’électro-mobilité et le bio-méthane, l’hydrogène est le troisième axe du volet mobilité durable de FaHyence. Il reste un laboratoire d’observation privilégié et un démonstrateur de procédés.

Le plein en 4 minutes chrono

L’appropriation par les utilisateurs ne semble pas avoir posé de problème. L’aspect classique de la station et un mode opératoire de remplissage semblable à un approvisionnement conventionnel ont permis de limiter au minimum les phases de formation des utilisateurs. Certes, des améliorations pourraient être apportées dans l’ergonomie du raccordement et dans les interactions avec l’utilisateur, mais force est de reconnaître que le système reste d’une grande simplicité d’utilisation. Comparé aux heures de recharge des véhicules électriques conventionnels, les 4 minutes nécessaires à un plein d’hydrogène semblent anecdotiques.

La station comporte un électrolyseur alcalin d’une capacité de production de 1.8kg/h ce qui nécessite environ 50 litres d’eau par kilogramme d’hydrogène produit. A ceci s’ajoute une station de compression à deux niveaux, un premier allant jusqu’à 30 bars, le second, équipé d’un système de refroidissement à -20°C, permettant d’atteindre des pressions de 420 bars.

Ce système de compression apporte deux atouts majeurs à la station à hydrogène. Le premier est qu’il est possible de ravitailler, avec certaines restrictions de volume, des véhicules Hydrogène allant de 350 bars (cas des FC-EV comme la Kangoo ZE) à 700 bars, standard des voitures de tourisme roulant à hydrogène pur avec des autonomies de l’ordre de 450km (les FCV comme la Toyota Mirai, la Honda Clarity Fuel Cell et la Hyundai Nexo). Le second avantage du système de refroidissement est de réduire à 4 minutes le temps d’un plein contre 7 minutes pour une station non-refroidie.

Une station sous-exploitée qui pourrait aisément devenir compétitive

« La technologie à hydrogène, n’est pas le facteur limitant » commente Christian Hector, responsable des services techniques de Confluences et initiateur du projet FaHyence, « ce qui est le plus contraignant techniquement est l’électrolyseur ».

Avec 2,2 ravitaillements en moyenne par jour représentant environ 5% de sa capacité d’utilisation, la station est en nette sous-exploitation ce qui entraîne des problèmes techniques comme la défaillance de capteurs électroniques. Cela a pour conséquence un coût de recharge trop élevé pour être compétitif avec des systèmes classiques (le prix dépend du contexte local, à Sarreguemines on est à 10€/kg et en moyenne nationale à environ 6€/kg d’hydrogène ; pour rappel, il faut environ 1kg pour parcourir 100km).

Pour être rentable, il faudrait 30 véhicules minimum à s’alimenter quotidiennement. « Mais la rentabilité économique n’était pas l’objectif du projet. Il s’agissait de tester la mobilité électrique à hydrogène dans un contexte transfrontalier, ainsi que de valider la fiabilité technique d’une station à hydrogène couplée à un électrolyseur sur site ». Même si l’avenir de la station, dont le projet se termine en 2020, reste incertain, les objectifs visés ont été atteints et ceci grâce à l’opiniâtreté de Christian Hector et son équipe de la mobilité verte de la CASC.

The Conversation

Robin Vivian, Maitre de conférences, Université de Lorraine et Julia Mainka, Maître de Conférences, Université de Lorraine

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Bientôt des implants dentaires imprimés en 3D !

$
0
0

Des chercheurs de l’IJL1 et du LEM32 travaillent à la conception d’implants anatomiques dentaires imprimables en 3D. Ce projet, baptisé Implant, bénéficie d’un budget de 1,7 million d’euros, financé par le FEDER et les Métropoles de Metz et du Grand Nancy. Il est piloté par Pierre Bravetti, maître de conférences et praticien hospitalier, chercheur à l’IJL.

Ce travail sur les implants dentaires intra et supra osseux constitue une première étape d’un projet de conception de dispositifs médicaux sur mesure implantables dans le corps humain. Il associe les compétences de pharmaciens, odontologistes et spécialistes de science des matériaux. Il part du constat qu’avec le vieillissement de la population, les cas complexes sont de plus en plus nombreux, faisant de l’optimisation des dispositifs implantables un enjeu de santé publique.Dans le cas des implants dentaires, les défis à relever sont :

  • une plus longue durée de vie de l’implant,
  • la diminution des risques pendant l’intervention chirurgicale,
  • une meilleure croissance osseuse autour de l’implant.

L’objectif est de rétablir une mastication ad integrum. Chez l’édenté complet, la pose de deux implants avec bouton pression permet de rétablir un coefficient de mastication proche de 100%.

La solution explorée par nos chercheurs consiste à concevoir des implants sur mesure appelés implants anatomiques. A partir de radiographies du patient, des implants anatomiques intra-osseux et extra-osseux en Titane-Nobium sont conçus et fabriqués à partir d’une imprimante 3D. La caractéristique majeure du matériau Titane-Nobium, développé et mis au point par le LEM3, est son module d’élasticité, très proche de celui de l’os. Il devrait ainsi permettre une diminution des contraintes dans l’os péri-implanté et se rapprocher des contraintes dites physiologiques. Les équipes de l’IJL et du LEM3 mobilisées sur ce projet travailleront à la fois sur la numérisation d’un modèle implantaire, le design des implants et la surface implantaire pour permettre une optimisation de l’ostéo-intégration. Il est prévu qu’un prototype soit disponible sous moins d’un an, imprimé sur les imprimantes 3D du LEM3 et de l’IJL.

Pierre Bravetti, docteur de l’Université Paris Descartes, créateur d’un DU international d’implantologie, ancien doyen de la Faculté d’Odontologie et ancien directeur du Collegium Santé, est le référent clinique et le porteur du projet. Ce projet, d’une durée de trois ans, va permettre l’achat de nouveaux matériels de recherche ainsi que le recrutement de plusieurs post-doctorants et doctorants et d’un ingénieur de recherche.

***

[1] Institut Jean Lamour

Equipe Micro et nano-mécanique pour le vivant : Richard Kouitat (responsable d’équipe), M’barek Taghite, Pierre Bravetti, Jean-Philippe Jehl. Equipe Nanomatériaux et santé : Bertrant Rihn (responsable d’équipe) et Olivier Jouber

[2] Laboratoire d’Etude des Microstructures et des Mécaniques des Matériaux Laboratoire du CNRS, de l’Université de Lorraine et de Arts et métiers ParisTech (Metz) : Pascal Laheurte, Gaël Le Coz, Boris Piotrowski

Viewing all 1675 articles
Browse latest View live