CCinq compétences fondamentales de leadership pour donner envie d’agir | The Conversation Le leadership ne se décrète pas, aussi crucial soit-il. Cinq compétences permettent à un manager de mobiliser les membres de ses équipes au service de clients toujours plus exigeants.Le travail des managers de nos jours consiste à résoudre une équation délicate. Les enjeux sont aigus et nouveaux. Par exemple, le niveau de qualité de service demandé par le client continue à augmenter dans un environnement concurrentiel intense où les transformations technologiques s’accélèrent. En outre, les managers doivent tenir compte du fait que les salariés manquent d’une motivation suffisante pour y répondre pleinement : la plupart des enquêtes montrent, et en particulier en France, de faibles niveaux en termes de participation, de confiance, de satisfaction et de volonté de s’engager).C’est ce qui amène de nombreuses entreprises à demander aux managers de faire en sorte que leurs collaborateurs coopèrent mieux. Or comme l’a montré Barnard dès 1938, le leadership du manager joue un rôle clé pour motiver les collaborateurs à coopérer. De quelles nouvelles compétences de leadership les managers ont-ils besoin dans ce contexte ? Comment peuvent-ils les acquérir ?Nous avons mis en évidence cinq compétences essentielles pour que les managers donnent envie aux collaborateurs de donner le meilleur d’eux-mêmes et d’agir au service de buts communs. Chacune est fondée sur un courant spécifique de la recherche et de la pratique managériale.La psychologie positive au service du leadershipDeux compétences sont issues des recherches en psychologie positive appliquées au leadership. Elles permettent de créer le contexte dans lequel les collaborateurs vont agir. La première consiste à poser les fondements de la coopération. Elle se décline en plusieurs pratiques, d’abord la mise en place d’une relation de confiance qui répond aux besoins primordiaux d’appartenance des salariés. Cela se fait par exemple en soignant l’accueil et l’inclusion des nouveaux recrutés afin qu’ils se sentent membres à part entière d’un collectif de travail. Une autre pratique déterminante consiste à partager régulièrement les buts communs et à clarifier leur adéquation avec les buts de chacun, ce qu’on appelle aussi « la vision », dont on a montré qu’elle était le moyen le plus efficace d’unir un groupe d’êtres humains.Sur ces bases, une seconde compétence de leadership amène à construire un environnement favorable à l’action, en particulier en développant l’optimisme des personnes par l’utilisation des mécanismes découverts dans les expériences sur la puissance et l’impuissance acquise. Il s’agit de mettre en évidence le plus systématiquement possible les liens de cause à effet entre une action d’un collaborateur et ses conséquences. Après une réussite, il ne s’agit pas seulement de la célébrer, mais aussi de partager en profondeur avec toute l’équipe un retour d’expérience sur l’ensemble des comportements qui ont permis le succès, de façon à pouvoir les reproduire.L’art du silenceLes deux compétences suivantes s’inspirent des travaux en psychologie sociale sur « l’empowerment » et la prise de décision collective ainsi que des pratiques de coaching de personnes et d’équipes. Une troisième compétence fondamentale de leadership fondamentale consiste à accompagner un collaborateur afin qu’il construise une décision et élabore un plan d’action de façon autonome et responsable dans sa zone de délégation face à des difficultés nouvelles pour lesquelles il n’y a pas de réponse standard. Cela implique de la part du manager d’utiliser des méthodes comme le modèle GROW et de faire appel à des pratiques dont l’importance est encore fortement sous-estimée en leadership : l’art du silence ou des questions puissantes qui ne visent pas la compréhension de ce que fait l’autre mais sa mise en action, comme lorsque l’on demande « comment vas-tu t’y prendre ? » plutôt que « peux-tu m’expliquer pourquoi tu as fait ça ? »La quatrième compétence permet d’organiser et d’animer la prise de décision en équipe en donnant voix au chapitre à l’ensemble des parties prenantes, ce qui présente le grand avantage de limiter l’effet de conformité qu’on appelle la « pensée de groupe » (mieux connu sous le nom de « groupthink »). Cela passe par la capacité à bien intégrer au processus de décision une solide phase de divergence qui se nourrit de nombreux avis, même et surtout minoritaires, avant de converger vers une décision commune et de l’appliquer.L’envie de coopérer même dans l’adversitéLa dernière compétence a sa source dans les recherches en comportement organisationnel, en communication et en négociation. Grâce à elle, on donne envie aux collaborateurs de continuer à coopérer même dans l’adversité. Elle se décline en plusieurs pratiques. Par exemple il convient de savoir annoncer de mauvaises nouvelles de façon empathique et juste. Recevoir une information de façon sincère, dans les temps, en étant soutenu est en effet souvent au moins aussi important que son contenu. La pratique consistant à donner un feedback négatif de façon assertive et constructive est également utile en cela qu’elle peut, quand le retour est fondé, transformer la résistance en acceptation. Enfin on amène ses collaborateurs à savoir négocier de manière intégrative quand ils sont en désaccord en leur apprenant à se centrer sur les intérêts compatibles de chacun, qui sont sous-jacents, plutôt que sur des positions de surface inflexibles.TedX.Ces cinq compétences et l’ensemble de leurs pratiques associées permettent aux managers d’activer le pouvoir d’agir de leurs collaborateurs en incarnant un leadership ouvert, délégatif, responsabilisant, et facteur d’efficacité et d’épanouissement dans la réalisation des missions. Ces compétences et ces pratiques ont fait l’objet d’accompagnements et de formations de plusieurs milliers de managers dans les différents programmes de formation continue et de transformation managériale ainsi qu’en master et en Executive MBA par les auteurs au cours des dix dernières années. Des mesures d’impact, qui ont été présentées dans un autre livre, ont montré que lorsque les managers intégraient ces compétences et mettaient en œuvre les pratiques qui leur sont associées, les conséquences pour eux-mêmes ainsi que pour leurs collaborateurs et leurs entreprises étaient favorables en termes d’efficacité de l’action et de satisfaction des personnes.Une expérience à vivreLa question du « comment » doit être également abordée. Selon Goldsmith, anciennement chercheur en leadership et aujourd’hui coach de dirigeants et essayiste célèbre, le plus grand défi pour les managers en termes de leadership n’est pas de comprendre leur pratique mais bien de pratiquer leur compréhension.Le leadership est d’abord un art, une expérience à vivre. Il ne peut être acquis que par une mise en œuvre accompagnée qui se fait pas à pas, avec des allers et retours constants entre compréhension, essais sur le terrain, erreurs, émotions, partages avec des pairs, réflexion, écriture de l’expérience et retour à la pratique. C’est la raison pour laquelle sont présentés dans le livre « Leadership experience », en plus des théories qui fondent chaque pratique, un mode d’emploi, des conseils concrets et des témoignages pour tester celle-ci dans un objectif d’apprentissage et de progrès constant. > Les auteurs : Thierry Nadisic, Professeur en Comportement Organisationnel, EM Lyon Business School, Thomas Misslin, Doctorant, Sciences de Gestion, Dauphine-PSL – Chef de projet, Executive Education, EM Lyon Business SchoolCet article est republié sous licence Creative Commons.>> Lire l’article original :The Conversation
LLa prolifération du nucléaire militaire : un risque inévitable ? | The Conversation L’arme nucléaire reste plus que jamais perçue comme l’élément de dissuasion le plus convaincant. Plusieurs États pourraient s’en doter, ou chercher à le faire, tandis que la menace de son utilisation est souvent évoquée par les leaders de certains pays qui la possèdent.Les menaces d’utilisation de l’arme nucléaire régulièrement brandies par le Kremlin à l’encontre de l’Ukraine et de ses alliés, mais aussi le programme nord-coréen, les avancées iraniennes en la matière ou encore la montée en puissance nucléaire de la Chine inquiètent profondément les gouvernements et les populations du monde entier. Le terrifiant spectre d’une déflagration nucléaire mondiale n’est d’ailleurs sans doute pas pour rien dans l’attribution du prix Nobel de la paix 2024 au groupe japonais Nihon Hidankyo, qui lutte pour l’abolition de l’arme atomique.Il est donc opportun, en ces temps particulièrement troublés, de faire un point sur la prolifération nucléaire militaire – qui doit être distinguée de la construction des centrales nucléaires destinées à produire de l’électricité – et d’en jauger le degré de dangerosité.La prolifération nucléaire : un phénomène qui n’est pas nouveauL’arme nucléaire a, dès sa première utilisation par les États-Unis en 1945, démontré au monde son extraordinaire pouvoir destructeur et l’avantage en termes de puissance et d’influence qu’elle confère à celui qui la possède. Dès lors, la période de la guerre froide a initié une course à l’armement nucléaire pour installer la dissuasion entre puissances.Ainsi, l’Union soviétique a acquis l’arme en 1949, suivie du Royaume-Uni (1952), de la France (1960), d’Israël (années 1960), de la Chine (1964), de l’Inde (1974), du Pakistan (en 1998) et de la Corée du Nord (premier essai réussi en 2006).L’entrée en vigueur en 1970 du Traité de Non-Prolifération (TNP) n’a pas réussi à enrayer cette dynamique prolifératrice. Toutefois, les superpuissances américaine et soviétique ont voulu, notamment au travers du Traité sur la limitation des missiles antibalistiques de 1972 ou des différents accords dits Strategic Arms Limitations Talks (SALT), limiter l’expansion de leurs arsenaux nucléaires.L’après-guerre froide : une dynamique paradoxale de réduction des arsenaux et de nouvelles proliférationsAvec la fin de la guerre froide (1991), la menace d’un affrontement nucléaire entre superpuissances a diminué. Les immenses arsenaux de ces deux pays ont considérablement diminué grâce à l’application du traité dit Strategic Arms Reduction Treaty (START).Toutefois, des dynamiques négatives se sont installées (ainsi, le Pakistan a acquis l’arme nucléaire pour dissuader l’Inde). De nouvelles menaces ont émergé de la part d’États parias et d’acteurs non étatiques. La Corée du Nord, pays agressif et imprévisible, n’a eu de cesse de développer sa capacité nucléaire pour sanctuariser son régime. L’Iran, s’il ne possède pas encore l’arme nucléaire, met en œuvre d’importants efforts pour l’obtenir – des efforts qu’a encouragés la dénonciation en 2018 par Donald Trump de « l’accord sur le nucléaire iranien » de 2015, le Joint Comprehensive Plan of Action (JCPOA).En outre, la perspective du terrorisme nucléaire – à savoir la menace que des groupes terroristes acquièrent des matériaux nucléaires afin de créer des « bombes sales », c’est-à-dire des bombes capables de disperser des éléments radioactifs – suscite la plus grande préoccupation. Les réseaux de contrebande internationale, soutenus par des États parias, corrompus ou ayant intérêt à la déstabilisation, peuvent faciliter la diffusion des briques technologiques nécessaires à la fabrication de telles armes ou à l’obtention de matière fissile.Les années 2010 sont marquées par un regain de tension internationale en de nombreux points du globe, ce qui entraîne une augmentation des arsenaux de plusieurs pays nucléaires (en particulier de la Chine et de la Russie) et une modernisation de ceux-ci, notamment au travers du développement de c’est bizarre (vecteurs dépassant Mach 5, recherches visant à accéder à des vitesses dépassant Mach 10…), des portées ou des mesures de protection des vecteurs durant la phase de vol.De plus, les mécanismes de contrôle des armements peinent de plus en plus à remplir leur rôle. Le Traité sur les forces nucléaires de portée intermédiaire (INF) n’a plus cours depuis 2019, le traité de limitation du nombre d’ogives et de bombes nucléaires stratégiques New Start est à l’arrêt, laissant craindre une nouvelle période d’instabilité stratégique où le nucléaire prendra une place de plus en plus importante dans les doctrines militaires des pays qui en sont dotés et parfois dans le discours des dirigeants concernés.Les technologies modernes comme facteur facilitateur de la proliférationAutre ombre au tableau : les technologies modernes ont tendance à faciliter la prolifération. Internet et les technologies de l’information ont rendu plus accessible l’accès aux connaissances et données techniques, par exemple en physique des matériaux, en physique nucléaire ou bien encore en technologie balistique.Cela inclut les bases de données numériques et les publications scientifiques en accès libre. De plus, le cyberespionnage, utilisé par les États ou des groupes non étatiques, permet de s’approprier des informations sensibles.La technologie 3D peut également faciliter la fabrication des composants avec précision comme l’utilisation de l’intelligence artificielle permet d’optimiser la gestion des programmes d’armement.Les instabilités régionales ravivent la prolifération et les risques d’escaladeDans les régions sous tension, les armes nucléaires sont perçues par les États comme une forme d’« assurance-vie », a fortiori lorsqu’il existe une asymétrie conventionnelle entre deux États rivaux. C’est le cas par exemple de l’Inde et du Pakistan, ou de la Corée du Nord face à son voisin du sud, soutenu par les États-Unis. Ce schéma peut se reproduire dans des régions où l’arme nucléaire n’existe pas ou n’est pas évoquée.À titre d’exemple, les tensions entre Israël et plusieurs États arabo-musulmans mais également la rivalité entre l’Arabie saoudite et l’Iran peuvent pousser certains pays, notamment l’Arabie saoudite, l’Égypte et la Turquie, à chercher à se doter de l’arme nucléaire.En Asie, l’accession de la Corée du Nord à l’arme atomique provoque des débats au Japon et en Corée du Sud, pouvant les mener à terme à vouloir à leur tour devenir des États dotés.L’impuissance des organisations et des sanctions internationalesL’Agence Internationale de l’énergie atomique (AIEA) joue un rôle majeur en s’assurant que la technologie nucléaire n’ait que des fins pacifiques, en dehors des pays dotés légalement, en menant des inspections de toutes les installations nucléaires du monde en application du TNP. Malheureusement, l’efficacité de cette organisation dépend de la volonté des États quant à l’accès aux installations. Par exemple, l’Iran et la Corée du Nord n’ont pas hésité à interdire aux membres de l’AIEA l’accès à leurs infrastructures nucléaires.Le Conseil de sécurité des Nations unies peut également jouer un grand rôle dans la limitation de la prolifération nucléaire. Il a par exemple été impliqué dans l’élaboration du JCPOA. Mais là encore, son efficacité souffre de la divergence politique de ses membres, à commencer par celle qui caractérise les États-Unis d’une part, la Chine et la Russie de l’autre.Les sanctions internationales (le plus souvent américaines et/ou européennes) peinent également à restreindre la prolifération. Si elles cherchent à affaiblir les capacités économiques et technologiques des États proliférants (interdiction du commerce de certains biens, gels des avoirs financiers à l’étranger, restrictions sur l’approvisionnement énergétique et ont un impact significatif sur les économies des pays concernés, elles n’en demeurent pas moins d’une efficacité limitée. En effet, les sanctions peuvent accentuer le caractère paranoïaque de certains régimes et, par conséquent, les inciter à multiplier les efforts afin de se doter au plus vite de la bombe.Sans oublier que les sanctions sont souvent détournées par l’organisation de réseaux de contrebande ou de sociétés écran, et que certains pays désireux d’acquérir l’arme nucléaire peuvent bénéficier de l’aide d’acteurs extérieurs comme la Chine, la Russie ou le Pakistan, pour n’évoquer que la période récente. Ainsi, la Corée du Nord a bénéficié de l’aide de la Russie et de la Chine, le Pakistan a profité d’un large transfert de connaissances de la Chine, et l’Iran de la Russie.Comment sortir de cette impasse ?Si la conjoncture géopolitique s’y prêtait, il serait extrêmement utile de tenter de raviver le TNP, et de renforcer les mesures techniques (par l’utilisation de l’IA et du big data ainsi que des drones et robots) afin de permettre à l’AIEA de mieux vérifier que les États respectent leurs engagements internationaux de ne pas détourner leur production nucléaire civile à des fins militaires. Il serait également utile de promouvoir des accords multilatéraux élargis.Malheureusement, la situation actuelle n’est guère favorable à un tel scénario. La Chine et la Russie se sont lancées dans une politique impériale, les États-Unis veulent maintenir leur imperium et peuvent réélire un président aussi brutal qu’imprévisible en la personne de Donald Trump.La déstabilisation du Moyen-Orient menace de précipiter la région entière dans la guerre.Qu’en est-il du droit international ? Jugé par beaucoup de nations comme étant d’extraction occidentale, il ne peut être à l’origine d’un consensus général. La seule orientation imaginable, une fois que les guerres d’Ukraine et de Gaza auront pris fin, serait la réactivation de dialogues stratégiques entre grandes puissances qui pèseront sur les orientations de leurs alliés ou partenaires, et qui, en réaffirmant leurs assurances de sécurité, pourront persuader ceux-ci de ne pas poursuivre dans la voie du nucléaire militaire. Enfin, la diplomatie coercitive, mélange de sanctions et d’offres de coopération, doit être explorée de manière encore plus approfondie.La prolifération nucléaire, un risque inévitable ? L’avenir pousse au pessimisme. Il apparaît en dernier ressort que seul un apaisement des différentes zones de tension pourrait faire s’estomper le spectre de la prolifération. Sacré défi !>> L’auteur :Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, Institut catholique de Lyon (UCLy)Cet article est republié sous licence Creative Commons.>> Lire l’article original :The Conversation
DDonnées personnelles : rien à cacher, mais beaucoup à perdre | The Conversation Nos données personnelles circulent sur Internet : nom, adresses, coordonnées bancaires ou de sécurité sociale, localisation en temps réel… et les affaires qui y sont liées se font une place pérenne dans le débat public, du scandale Facebook-Cambridge Analytica au vol de données à la Croix-Rouge, en passant par les récents blocages d’hôpitaux par des rançongiciels (ou ransomware) et l’interdiction de l’application TikTok pour les fonctionnaires de plusieurs pays.Mais si l’on sait de plus en plus que nos données personnelles sont « précieuses » et offrent des possibilités sans précédent en matière de commercialisation et d’innovation, il est parfois difficile de saisir ou d’expliquer pourquoi il faudrait les protéger.QQuels sont les risques liés à la divulgation de mes données personnelles ?Le premier risque concerne la perte du contrôle sur nos propres données. C’est ce qui arrive par exemple quand on autorise le traçage par des sites ou des applications : on autorise l’enregistrement de nos activités sur le Web ou sur notre smartphone (pages visitées, géolocalisation) et l’échange de ces données, et, une fois cet accord donné, nous n’avons plus aucun pouvoir sur la circulation de nos données.Ces informations sont utilisées le plus souvent pour du profilage qui permet d’alimenter l’économie de la publicité personnalisée régie dorénavant par des plates-formes d’enchères valorisant les données relatives aux profils utilisateurs contre des emplacements publicitaires.Mais, ces informations peuvent également être utilisées à mauvais escient. La connaissance de votre localisation peut aider le passage à l’acte d’un cambrioleur par exemple, et la connaissance de vos centres d’intérêts ou opinion politique peut vous exposer à des opérations d’influence.Le scandale Cambridge Analytica en est un exemple, avec l’exploitation de données personnelles de millions d’utilisateurs Facebook pour des campagnes de désinformation ciblées afin d’influencer des intentions de vote. Plus récemment, les révélations du Monde sur les entreprises de désinformation indiquent que cette pratique n’est pas un cas isolé.Un autre risque concerne l’hameçonnage : si des informations personnelles sont présentes dans un courriel ou SMS frauduleux, il vous paraîtra plus réaliste et abaissera vos barrières de vigilance. L’hameçonnage sert souvent à infecter la cible avec un rançongiciel (ransomware en anglais) : les cybercriminels utilisent des informations personnalisées pour gagner la confiance des destinataires et les inciter à ouvrir des pièces jointes, ou à cliquer sur des liens ou documents malveillants, ce qui permet dans un second temps de verrouiller les données de la victime et d’en interdire l’accès. Une rançon est ensuite réclamée pour les déverrouiller.Bien que les attaques par rançongiciel les plus médiatisées concernent des organisations, des hôpitaux par exemple, les particuliers sont également touchés.Dans le cas de l’usurpation d’identité, une personne malveillante utilise des informations personnelles qui permettent de nous identifier (« se logger ») sans notre accord : par exemple, en créant un faux profil sur une plate-forme et en rédigeant des commentaires sous l’identité de la victime afin de nuire à sa réputation.À un autre niveau, la surveillance de masse exercée par certains États capture les informations personnelles de leurs citoyens afin d’entraver la liberté d’expression ou de ficher les individus par exemple. Une surveillance accrue peut tendre vers un sentiment d’absence de sphère privée et ainsi brider le comportement des individus.En Europe, le RGPD (règlement général sur la protection des données) limite la récolte des données personnelles, notamment par les gouvernements, qui doivent justifier d’une raison suffisante pour toute surveillance.CChacun d’entre nous a une empreinte numérique uniqueCes problèmes touchent chacun d’entre nous. En effet, dans un monde de plus en plus numérique où nous générons quotidiennement des données à travers notre navigation sur Internet, nos smartphones, ou nos montres connectées, nous avons tous une « empreinte numérique unique ».En clair, il est généralement possible de ré-identifier quelqu’un juste à partir des « traces » que nous laissons derrière nous sur nos appareils numériques.Nos données personnelles permettent de nous identifier, comme une empreinte digitale numérique. Immo Wegmann/Unsplash, CC BYPar exemple, l’observation aléatoire de quatre lieux visités seulement représente une signature unique pour 98 % des individus. Cette unicité est généralisable dans un grand nombre de comportements humains.Cacher l’identité du propriétaire de données personnelles uniquement derrière un pseudonyme n’est pas une protection suffisante face au risque de réidentification, il est nécessaire d’anonymiser les données.DDonnées synthétiques, apprentissage fédéré : les nouvelles méthodes pour protéger les données personnellesTels les membres d’un « black bloc » essayant d’être indistinguables entre eux en s’habillant de manière identique dans une manifestation houleuse, l’anonymisation de données a pour but d’éviter qu’une personne ne se démarque du reste de la population considérée, afin de limiter l’information qu’un cyberattaquant pourrait extraire.Dans le cas de données de géolocalisation, on pourrait par exemple modifier les données afin que plusieurs utilisateurs partagent les mêmes lieux visités, ou alors introduire du bruit pour ajouter une incertitude sur les lieux réellement visités.Mais cette anonymisation a un coût car elle « déforme » les données et diminue leur valeur : une trop grande modification des données brutes dénature l’information véhiculée dans les données anonymisées. De plus, pour s’assurer de l’absence d’une empreinte réidentifiante, les modifications nécessaires sont très importantes et souvent incompatibles avec nombre d’applications.Trouver le bon compromis entre protection et utilité des informations anonymisées reste un challenge. À l’heure où certains voient les données comme le nouveau pétrole du XXIe siècle, l’enjeu est de taille car une donnée anonyme n’est plus considérée comme une donnée personnelle et échappe au RGPD, ce qui veut dire qu’elle peut être partagée sans consentement du propriétaire.Cette difficulté de trouver un compromis acceptable entre protection et utilité des données au travers de mécanismes d’anonymisation a fait évoluer les pratiques. De nouveaux paradigmes de protection des données personnelles ont vu le jour.Une première tendance consiste à générer des données synthétiques reproduisant les mêmes propriétés statistiques que les vraies données.Ces données générées de manière artificielle ne sont par conséquent pas liées à une personne et ne seraient plus encadrées par le RGPD. Un grand nombre d’entreprises voient en cette solution des promesses de partage d’information moins limitées. En pratique, les risques résiduels des modèles de génération synthétique ne sont pas négligeables et sont encore à l’étude.Une autre solution limitant le risque de partage de données personnelles est l’apprentissage fédéré. Dans l’apprentissage machine conventionnel, les données sont centralisées par une entité pour entraîner un modèle.Dans l’apprentissage fédéré, chaque utilisateur se voit attribuer un modèle qu’il entraîne localement sur ses propres données. Il envoie ensuite le résultat à une entité qui s’occupe d’agréger l’ensemble des modèles locaux. De manière itérative, cet apprentissage décentralisé permet de créer un modèle d’apprentissage sans divulguer de données personnelles.Ce nouveau paradigme de protection des données personnelles suscite beaucoup d’engouement. Cependant, plusieurs limitations subsistent, notamment sur la robustesse face aux acteurs malveillants qui souhaiteraient influencer le processus d’entraînement. Un participant pourrait par exemple modifier ses propres données pour que le modèle se trompe lors d’une tâche de classification particulière. Publié sur The Conversation le 29 mars 2023Auteur : Antoine Boutet, Maitre de conférence, Privacy, IA, au laboratoire CITI, Inria, INSA Lyon – Université de LyonCet article est republié à partir de The Conversation sous licence Creative Commons. >> Lire l’article original :The conversation>> Cet article a été actualisé le 28 octobre 2024 : L’opérateur mobile et fournisseur d’accès internet Free a annoncé avoir été victime d’une cyberattaque. Selon l’entreprise : « cette attaque a entraîné un accès non autorisé à une partie des données personnelles ». Quels sont les risques si vos données ont fuité ?Lire l’article actualisé :The Conversation
AAmérique latine : ruptures politiques récurrentes, inégalités sociales persistantes | The Conversation Les pays d’Amérique latine connaissent régulièrement des alternances politiques mouvementées, qui à la fois s’inscrivent dans les dynamiques sociales en cours sur le continent et les influencent. Un ouvrage collectif qui vient de paraître aux Presses de l’Université de Rennes, Alternances critiques et dominations ordinaires en Amérique latine, s’efforce d’éclairer l’entrelacement entre le politique et le social, à travers neuf enquêtes mêlant approches « par le haut » et « par le bas ». Nous vous proposons ici un extrait de l’introduction, où les quatre spécialistes ayant dirigé cette publication expliquent les interrogations à l’origine du livre et les méthodes employées pour y apporter des réponses.Depuis la Révolution cubaine de 1959, l’Amérique latine est souvent pensée à travers les évènements et faits d’armes les plus spectaculaires qui jalonnent son histoire politique. Vastes mobilisations protestataires et insurrections, guérillas et révolutions, coups d’État et dictatures militaires rythment les dernières décennies.En Europe, en partie du fait d’un rapport à la région pétri d’un « exotisme familier » (c’est-à-dire où la proximité linguistique et plus généralement culturelle tend à donner l’illusion d’une meilleure prise sur les réalités du terrain), les représentations les plus ordinaires de la politique latino-américaine sont souvent bien plus tranchées que s’agissant d’autres régions du monde. Entre le poids des certitudes et la force des émotions, les bouleversements réguliers des scènes politiques outre-Atlantique déchaînent les passions et polarisent les discours politico-médiatiques, militants et académiques.À partir du milieu des années 1990, dans un contexte de luttes contre des gouvernements néolibéraux, cette dialectique de fascination-répulsion s’est intensifiée. Ces luttes ont pris de multiples visages : des résistances indigènes centre-américaines à celles des pays andins en passant par les paysans Sans-terre brésiliens, les combats des chômeurs (piqueteros) et travailleurs argentins ; de la fondation de communautés zapatistes du Chiapas (Mexique) aux processus constituants et « révolutions » se réclamant du « socialisme du XXIe siècle » (Venezuela, Bolivie, Équateur), en passant par la démocratie participative à Porto Alegre (Brésil). Populistes sinon autoritaires pour les uns, démocrates et émancipateurs pour les autres, les mouvements associés au « tournant à gauche » des années 2000 ont ainsi suscité des réactions contrastées. À partir de 2015, on a assisté à un « virage à droite » qui a entraîné son lot de réactions symétriquement inverses.Enfin, ces dernières années, d’immenses mobilisations féministes (Argentine, Chili) et des protestations antigouvernementales multiformes ont émaillé la région (Venezuela, Nicaragua, Chili, Équateur, Bolivie, Colombie). Ce contexte de polarisation a reconduit les politiques et médias européens dans leur enclin à la romantisation ou au dénigrement des acteurs politiques latino-américains du moment.Au demeurant, force est de constater que malgré la fréquence des reconfigurations partisanes et des entreprises charismatiques prétendant conjurer une instabilité économique et politique chronique, la région reste des plus inégalitaires et violente au monde. Les injustices de classe, les tensions raciales et les violences patriarcales se perpétuent. Ainsi, par-delà les multiples formes qu’emprunte le politique, les structures sociales de domination demeurent relativement stables. C’est là le constat paradoxal qui est au fondement de nos réflexions.Identifier et penser ensemble alternances critiques et dominations ordinairesSi la recherche en sciences sociales n’est pas toujours étanche à la polarisation suscitée par la politique latino-américaine, elle a pu suivre deux tendances analytiques principales pour interpréter les évolutions régionales des dernières décennies.La première donne une place centrale à la caractérisation de la nature des régimes politiques. Depuis les années 1980, les « transitions démocratiques » et « sorties de conflit » ont fait l’objet de travaux sur les transformations des institutions qui les accueillent, la qualité ou stabilité de leurs « performances » et les adaptations des populations au rôle de citoyen actif dans de nouvelles démocraties, plus ou moins libérales.À partir des années 2000, une série d’analyses « par le haut » se sont penchées sur les crises et les alternances vécues dans différents pays, les cadres sociaux produits par les réformes néolibérales des années 1980 et 1990, l’arrivée de gouvernements progressistes au pouvoir à la suite d’une vague de mouvements sociaux, les « populismes ». À l’étude de modes de gouvernance « progressistes » devenus de moins en moins pluralistes – voire autoritaires –, a succédé celle des retours des droites dans certains pays et de leur très grande hétérogénéité, de ses variantes libérales plus classiques aux formes plus conservatrices ou réactionnaires, sinon fascisantes. Si ces travaux informent sur les variables et tendances macrosociologiques qui traversent ces sociétés, ils peuvent écraser, sous le poids de catégories générales (et en particulier celles de classification de régimes), la complexité de phénomènes dont les logiques dépassent celles des soubresauts politiques conjoncturels.Une deuxième perspective de recherches explore plutôt les différentes évolutions politiques, économiques et sociales des sociétés latino-américaines à partir de l’observation d’acteurs non institutionnels et au moyen d’une approche « par le bas ». Si ces analyses ne prétendent pas faire l’économie de l’étude du champ politique et de son influence sur la société et son devenir, elles se préoccupent avant tout d’observer de près des dynamiques construites par d’autres acteurs, en général sous les angles de la « participation » et des mobilisations collectives protestataires. Il s’agit là d’un éventail large et pluriel de travaux qui s’emploient à saisir le gouvernement du social, ses résiliences et mutations, à partir de ses expressions hétérogènes dans l’expérience concrète de groupes pour la plupart dominés. Ces analyses tendent toutefois à ne pas prendre parti – ou seulement implicitement – quant à la théorisation de l’évolution des structures de domination. La montée en généralité est d’autant plus difficile que les terrains dits « subalternes » sont souvent cantonnés à des productions monographiques. L’un dans l’autre, on assiste souvent à une validation tacite des cadres analytiques macrosociaux préexistants en termes de classification de régimes et, par extension, de leur superposition avec les clivages gauche/droite et des biais qu’ils tendent à reproduire.Ainsi, s’il nous apparaît nécessaire de prendre appui sur ces traditions de recherche, c’est avec l’objectif de les questionner et de les approfondir conjointement. On constate en effet que les sociétés de la région font régulièrement l’expérience d’alternances gouvernementales que l’on peut qualifier de critiques. Critiques, d’abord, au sens où celles-ci sont communément assimilées à des ruptures plus ou moins radicales avec le passé, qu’elles prennent la forme de « refondations » ou de « durcissements de régime », « révolutions » ou « contre-révolutions ». Critiques, ensuite, car ces alternances ont très souvent lieu à la suite de moments de crise politique plus ou moins intense, quand des leaders et gouvernements nouvellement élus prétendent traduire, aménager ou au contraire conjurer les revendications protestataires qui ont émergé au cours des crises. Critiques, enfin, parce qu’en certains cas elles débouchent assez rapidement sur de nouvelles crises ouvertes.Or, quelles que soient les formes qu’elles aient revêtues, ces alternances critiques n’ont que marginalement affecté les logiques ordinaires d’exploitation et de domination dans la région. Quoique selon des modalités et avec des temporalités diverses d’un pays à l’autre, on constate la reproduction de structures économiques et sociales profondément inégalitaires, dans lesquelles l’accumulation de richesses par les uns produit l’exclusion des autres. Aussi, ces continuités ont pu prendre place au sein de cadres juridicopolitiques de moins en moins pluralistes. Il s’agit là d’une dynamique qui transcende largement les clivages partisans entre gouvernants des pays de la région.Cet extrait est issu de « Alternances critiques et dominations ordinaires en Amérique latine », sous la direction de Fabrice Andréani, Yoletty Bracho, Lucie Laplace et Thomas Posado. Éditions des Presses universitaires de RennesPour une approche pluridisciplinaire et ethnographique des alternances et dominationsPour saisir les alternances critiques et leurs relations aux dominations ordinaires, une approche pluridisciplinaire et empirico-inductive basée sur une recherche de terrain de type ethnographique est essentielle. Différentes traditions de recherches en sciences sociales peuvent être mobilisées pour parvenir à cette fin : les travaux portant sur l’analyse des régimes politiques, des crises et des transformations institutionnelles, les recherches sur l’État et les politiques publiques, les travaux sur les organisations politiques et l’action collective dans ses diverses expressions syndicales et contestataires, les recherches sur les inégalités et leurs conséquences quotidiennes sur individus, les groupes sociaux et les espaces.Plusieurs disciplines, dont les frontières divergent selon les pays et dans le temps, ont un apport significatif sur plusieurs de ces thématiques sur les terrains latino-américains. Pour certaines, ces thématiques renouvellent leurs recherches, à l’instar de l’anthropologie, de l’histoire, de l’économie, du droit au travers de questions de recherche somme toute très proches, voire parfois au travers d’approches interdisciplinaires qui décloisonnent les savoirs et les compétences. Le point de rencontre entre ces différentes disciplines, qui permet de proposer un regard pluridisciplinaire sur les alternances critiques et les dominations ordinaires en Amérique latine est la pratique de l’ethnographie en tant que méthode de recherche.En effet, les divers travaux réunis dans cet ouvrage se construisent à partir d’enquêtes de terrain dans lesquelles les différents chercheurs ont observé et parfois participé à construire les dynamiques sociales qu’ils se sont proposé d’étudier. Si la relation au terrain est une question centrale, c’est aussi la manière dont elle pèse sur le choix des catégories d’analyse et la définition des problématiques de recherche qui nourrit la réflexion collective. Ainsi se pose la question de la circulation de méthodologies et de connaissances. Les manières d’entrer et d’exister sur le terrain de part et d’autre de l’Atlantique dialoguent entre elles pour saisir ce que le politique fait au social.Enfin, notre attention toute particulière aux dominations ordinaires est pour partie nourrie par l’approche intersectionnelle. Conscients des croisements des diverses formes de domination, et des spécificités de chaque forme d’hybridation possible des minorations par la classe, la race et le genre, nous concevons les dominations ordinaires comme agissant en système, tout en étant dépendantes de contextes spécifiques. Dans ce sens, les diverses expectatives propres aux périodes de crise et d’alternance politique sont une variable importante pour la compréhension des évolutions de ces phénomènes de domination, d’altérisation et de minoration.> Les auteur.e.sFabrice Andréani, Doctorant en science politique Univ. Lyon 2 (Triangle). Chargé de cours, AUP & Paris 8, Université Lumière Lyon 2 ;Lucie Laplace, étudiante en science politique – Amérique latine – migrations, Université Lumière Lyon 2 ;Thomas Posado, maître de conférences en civilisation latino-américaine contemporaine, Université de Rouen Normandie ;Yoletty Bracho, maîtresse de conférences contractuelle en science politique, Université d’AvignonCet article est republié sous licence Creative Commons.>> Lire l’article original :The Conversation
DDepuis Garry Kasparov contre Deep Blue, ce que nous apprend l’histoire des échecs sur les risques de l’IA | The Conversation En 1997, le champion du monde d’échecs Garry Kasparov perd pour la première fois de l’histoire un match face à un ordinateur, Deep Blue. Cet événement historique pour le jeu comme pour l’informatique est aujourd’hui porté à l’écran dans une minisérie d’Arte, Remacth. 27 ans plus tard, qu’est-ce que la défaite de l’humain contre la machine nous a appris, et ces leçons peuvent-elles éclairer l’arrivée massive de l’IA dans nos vies ?Les récents progrès de l’intelligence artificielle (IA), comme le développement des IA génératives avec l’apparition de ChatGPT en novembre 2022, ont soulevé beaucoup d’interrogations, d’espoirs, et de craintes. Courant printemps 2023, le Congrès américain a auditionné OpenAI, la société ayant développé ChatGPT et l’Union européenne vient d’adopter son premier texte législatif au sujet de l’IA.Dans les parlements comme sur les réseaux sociaux, les rapides progrès de l’IA animent les discussions. À l’avenir, à quels impacts faut-il s’attendre sur notre société ? Pour tenter de répondre à cette question de manière dépassionnée, nous proposons de regarder ce qui s’est passé dans un secteur qui a déjà connu l’arrivée et la victoire de l’IA sur les capacités humaines : les échecs. La machine y a en effet un niveau supérieur à celui des humains depuis maintenant plus d’un quart de siècle.Pourquoi le jeu d’échecs comme indicateur ?Depuis les débuts de l’informatique, les échecs ont été utilisés comme un indicateur des progrès logiciels et matériels. C’est un jeu intéressant à de multiples niveaux pour étudier les impacts des IA sur la société :C’est une activité intellectuelle qui demande différentes compétences : visualisation spatiale, mémoire, calcul mental, créativité, capacité d’adaptation, etc., compétences sur lesquelles l’IA vient concurrencer l’esprit humain.Le jeu n’a pas changé depuis des siècles. Les règles sont bien établies et cela donne une base stable pour étudier l’évolution des joueurs.Il est possible de mesurer la force des machines de manière objective et de comparer ce niveau à celui des humains avec le classement Elo.Le champ d’études est restreint : il est clair que les échecs ne sont qu’un tout petit aspect de la vie, mais c’est justement le but. Cette étroitesse du sujet permet de mieux cibler les impacts des IA sur la vie courante.Les IA ont dépassé le niveau des meilleurs joueurs humains depuis plus de 20 ans. Il est donc possible de voir quels ont été les impacts concrets sur le jeu d’échecs et la vie de sa communauté, qui peut être vue comme un microcosme de la société. On peut également étudier ces impacts en regard de la progression des IA au cours du temps.Explorons quelles ont été les évolutions dans le monde des échecs depuis que Garry Kasparov, alors champion du monde en titre, a perdu une partie contre Deep Blue en 1996, puis le match revanche joué en 1997. Nous allons passer en revue plusieurs thèmes qui reviennent dans la discussion sur les risques liés aux IA et voir ce qu’il en a été de ces spéculations dans le domaine particulier des échecs.Les performances de l’IA vont-elles continuer à augmenter toujours plus vite ?Il existe deux grandes écoles pour programmer un logiciel d’échecs : pendant longtemps, seule la force brute fonctionnait. Il s’agissait essentiellement de calculer le plus vite possible pour avoir un arbre de coups plus profonds, c’est-à-dire capable d’anticiper la partie plus loin dans le futur.À partir d’une position initiale, l’ordinateur calcule un ensemble de possibilités, à une certaine profondeur, c’est-à-dire un nombre de coups futurs dans la partie. | ©BY-SA Chris Butner Aujourd’hui, la force brute est mise en concurrence avec des techniques d’IA issues des réseaux de neurones. En 2018, la filiale de Google DeepMind a produit AlphaZero, une IA d’apprentissage profond par réseau de neurones artificiels, qui a appris tout seul en jouant contre lui-même aux échecs. Parmi les logiciels les plus puissants de nos jours, il est remarquable que LC0, qui est une IA par réseau de neurones, et Stockfish, qui est essentiellement un logiciel de calcul par force brute, aient tous les deux des résultats similaires. Dans le dernier classement de l’Association suédoise des échecs sur ordinateur (SSDF), ils ne sont séparés que de 4 points Elo : 3 582 pour LC0 contre 3 586 pour Stockfish. Ces deux manières totalement différentes d’implanter un moteur d’échecs sont virtuellement indistinguables en termes de force.En termes de points Elo, la progression des machines a été linéaire. Le graphique suivant donne le niveau du meilleur logiciel chaque année selon le classement SSDF qui a commencé depuis le milieu des années 1980. Le meilleur logiciel actuel, LC0, en est à 3586, ce qui prolonge la figure comme on pourrait s’y attendre.Cette progression linéaire est en fait le reflet d’une progression assez lente des logiciels. En effet, le progrès en puissance de calcul est, lui, exponentiel. C’est la célèbre loi de Moore qui stipule que les puissances de calcul des ordinateurs doublent tous les dix-huit mois.Cependant, Ken Thompson, informaticien américain ayant travaillé dans les années 80 sur Belle, à l’époque le meilleur programme d’échecs, avait expérimentalement constaté qu’une augmentation exponentielle de puissance de calcul conduisait à une augmentation linéaire de la force des logiciels, telle qu’elle a été observée ces dernières dizaines d’années. En effet, le fait d’ajouter un coup supplémentaire de profondeur de calcul implique de calculer bien plus de nouvelles positions. On voit ainsi que l’arbre des coups possibles est de plus en plus large à chaque étape.Les progrès des IA en tant que tels semblent donc faibles : même si elles ne progressaient pas, on observerait quand même une progression de la force des logiciels du simple fait de l’amélioration de la puissance de calcul des machines. On ne peut donc pas accorder aux progrès de l’IA tout le crédit de l’amélioration constante des ordinateurs aux échecs.La réception par la communauté de joueurs d’échecsAvec l’arrivée de machines puissantes dans le monde des échecs, la communauté a nécessairement évolué. Ce point est moins scientifique mais est peut-être le plus important. Observons quelles ont été ces évolutions.« Pourquoi les gens continueraient-ils de jouer aux échecs ? » Cette question se posait réellement juste après la défaite de Kasparov, alors que le futur des échecs amateurs et professionnels paraissait sombre. Il se trouve que les humains préfèrent jouer contre d’autres humains et sont toujours intéressés par le spectacle de forts grands maîtres jouant entre eux, et ce même si les machines peuvent déceler leurs erreurs en temps réel. Le prestige des joueurs d’échecs de haut niveau n’a pas été diminué par le fait que les machines soient capables de les battre.Le style de jeu a quant à lui été impacté à de nombreux niveaux. Essentiellement, les joueurs se sont rendu compte qu’il y avait beaucoup plus d’approches possibles du jeu qu’on le pensait. C’est l’académisme, les règles rigides, qui en ont pris un coup. Encore faut-il réussir à analyser les choix faits par les machines. Les IA sont par ailleurs très fortes pour pointer les erreurs tactiques, c’est-à-dire les erreurs de calcul sur de courtes séquences. En ligne, il est possible d’analyser les parties de manière quasi instantanée. C’est un peu l’équivalent d’avoir un professeur particulier à portée de main. Cela a sûrement contribué à une augmentation du niveau général des joueurs humains et à la démocratisation du jeu ces dernières années. Pour le moment, les IA n’arrivent pas à prodiguer de bons conseils en stratégie, c’est-à-dire des considérations à plus long terme dans la partie. Il est possible que cela change avec les modèles de langage, tel que ChatGPT.Les IA ont aussi introduit la possibilité de tricher. Il y a eu de nombreux scandales à ce propos, et on se doit de reconnaître qu’il n’a pas à ce jour de « bonne solution » pour gérer ce problème qui rejoint les interrogations des professeurs qui ne savent plus qui, de ChatGPT ou des étudiants, leur rendent les devoirs.Conclusions temporairesCette revue rapide semble indiquer qu’à l’heure actuelle, la plupart des peurs exprimées vis-à-vis des IA ne sont pas expérimentalement justifiées. Le jeu d’échecs est un précédent historique intéressant pour étudier les impacts de ces nouvelles technologies quand leurs capacités se mettent à dépasser celles des humains. Bien sûr, cet exemple est très limité, et il n’est pas possible de le généraliser à l’ensemble de la société sans précaution. En particulier, les modèles d’IA qui jouent aux échecs ne sont pas des IA génératives, comme ChatGPT, qui sont celles qui font le plus parler d’elles récemment. Néanmoins, les échecs sont un exemple concret qui peut être utile pour mettre en perspective les risques associés aux IA et à l’influence notable qu’elles promettent d’avoir sur la société.>> L’auteur :Frédéric Prost, Maître de conférences en informatique, INSA Lyon – Université de LyonCet article est republié sous licence Creative Commons.>> Lire l’article original :The Conversation
LLes stations thermales doivent se réinventer pour survivre à la crise énergétique | The Conversation Près de la moitié des stations thermales chauffent leur eau, ce qui génère des dépenses énergétiques considérables. Pour éviter cela, à l’heure où de plus en plus de stations sont obligées de fermer suite à la hausse des tarifs de l’électricité, la géothermie est une piste prometteuse.En avril 2023, le centre thermal de Camoins-les-Bains, à Marseille, annonçait sa fermeture définitive après deux siècles de fonctionnement. Derrière cette nouvelle locale se cache en fait les répercussions inattendues de la crise énergétique mondiale que nous traversons, marquée par des hausses de tarifs du gaz et de l’électricité impactant les activités économiques françaises. Le thermalisme n’en est pas exclu, le propriétaire du centre de Camoins-les-Bains, expliquant la décision de fermer cette institution du thermalisme marseillais par l’important déficit d’exploitation lié en grande partie à l’augmentation du coût de l’énergie gaz et électricité qui a été multiplié par quatre.Même constat à Budapest, ville emblématique du thermalisme, avec des bains visités chaque année par des millions de touristes, mais où les prix de l’énergie ont fait augmenter les coûts d’exploitation des thermes de 170 % entre 2023 et 2022. Pour y faire face, différentes mesures d’économies sont mises en place (service réduit, bassins extérieurs recouvertes, augmentation des tarifs…).Un secteur d’activité vital pour les communes rurales et petites villesEn France, ce vent mauvais qui touche le secteur thermal inquiète car il fait travailler, directement ou non un nombre non négligeable de personne et demeure une partie importante de l’identité de certaine commune.La France est de fait au troisième rang européen en nombre d’établissements thermaux avec 115 thermes sur 89 communes. Le secteur national pèse pour 10 000 emplois directs et 40 000 emplois indirects (hébergement, restauration…) pour une fréquentation de 457 000 curistes en 2023.Le thermalisme est de surcroit une activité qui permet le développement du territoire, car il s’agit majoritairement d’espaces ruraux et montagnards, où l’économie est peu diversifiée, voire en situation de mono-activité. Près de 70 % des communes thermales font moins de 5 000 habitants et concentrent près de 54 % de la fréquentation nationale.Près de la moitié des établissements doivent chauffer leurs eauxPour comprendre comment ce secteur d’activité, discret et peu connu, peut être autant affecté par le coût de l’énergie, commençons par rappeler plusieurs choses. D’abord un établissement thermal ne rime pas systématiquement avec eau chaude. Près de la moitié doivent même chauffer leurs eaux.Fourni par l’auteur ©Guillaume PfundAujourd’hui encore, la dénomination thermale regroupe à la fois des lieux alimentés en Eau Minérale Naturelle (EMN) naturellement chaudes, mais aussi froides ou tièdes, devant être réchauffées artificiellement. Il existe donc un large éventail de situations locales allant des thermes de Chaudes-Aigues, dans le Cantal, avec des émergences à 82 °C, et les thermes de Contrexéville, dans les Vosges qui utilisent un captage d’eau froide à 11 °C.Sur l’ensemble des 706 captages d’eaux minérales naturelles exploitées par les usages économiques en France, près de la moitié des sources sont des eaux dites hypothermales (inférieur à 20 °C). Le reste des sources sont pour un quart des eaux chaudes (entre 30 et 50 °C), et à part égale des eaux tièdes (entre 20 et 29 °C) et hyperthermale (supérieur à 50 °C). Les eaux naturellement chaudes, supérieures à 30 °C ne représentent donc que 38 % des émergences exploitées. Cette tendance est cependant renforcée pour les sources utilisées par l’usage thermal. Sur les 259 émergences qui alimentent un établissement thermal, un tiers sont des eaux froides (inférieures à 20 °C), 15 % sont tièdes (20-29 °C), un tiers sont chaudes (30-50 °C) et 20 % sont hyperthermales supérieures à 50 °C.Fourni par l’auteur ©Guillaume PfundCette situation montre qu’à minima près de 45 % des établissements thermaux doivent donc chauffer les eaux thermales dans les bassins et pour les soins. L’impact est d’autant plus significatif que le premier poste de charge pour les établissements thermaux concerne le chauffage de l’eau, dans un contexte global d’équilibre d’exploitation qui reste fragile.Une occasion pour développer la géothermie ?Dans le contexte actuel de crise énergétique mondiale, les établissements thermaux doivent donc se réinventer pour survivre. La géothermie basse température est peut être une partie de la solution. Les 63 d’établissement thermaux disposant d’une ressource en eau naturellement chaude pourraient sembler avantagés à mettre en place un système de récupération des calories. Mais dans les faits, très peu de sites ont mis en place de tels dispositifs qui permettent pourtant de couvrir la totalité des besoins en chaleur (chauffage, la production d’eau chaude sanitaire, ainsi que le réchauffement et le maintien de la température des bassins en eau).Fourni par l’auteur ©Guillaume PfundAinsi, le complexe thermal de Chaudes Aigues (Cantal) inauguré en 2009, qui exploite la source du Par à 82 °C, la plus chaude d’Europe, n’a pas intégré la géothermie basse énergie. À l’inverse, la commune de Saint Gervais, en Haute Savoie, a intégré il y a une quinzaine d’années une valorisation des calories de l’eau à 39 °C dès 2009 pour remplacer la chaudière au gaz. Grâce à cet investissement, la réduction annuelle de charge d’exploitation est de l’ordre de 122 000€, pour un investissement initial de 350 000 € dont 60 % de subvention par l’Ademe et la Région.De la même manière, les thermes de Luchon, en Haute-Garonne ont installé, il y a huit ans un système d’échangeur thermiques sur les sources Pré et Reine, ce qui permet une réduction des charges de 200 000€ par an.Une pratique de la géothermie plus ancienne qu’il n’y paraitMais l’on retrouve des chantiers bien plus anciens d’utilisation de la géothermie dans des établissements pour curistes. Elle a ainsi été mobilisée par les thermes de Lavey-les-Bains, dans le canton de Vaud en Suisse, depuis 1970 grâce à une eau thermale à 62 °C. Si le système couvrait seulement 40 % des besoins de chaleur de 1970 à 1992, la nouvelle installation inaugurée en 2000 permet une autonomie complète. L’antériorité de ce type de projet en Suisse est directement liée aux actions de l’Office fédéral de l’énergie (OFEN), qui a étudié dès 1992 les moyens d’optimiser la ressource géothermique.La géothermie basse énergie (30-89 °C) est également une solution valorisée par des usages dédiés en France depuis longtemps (serres végétales, chauffage urbain, etc…). Sur la commune de Chaudes-Aigues (Cantal), la valorisation des calories de l’eau thermale par un réseau de chaleur pour des habitations est attestée depuis 1332, avant l’apparition de l’usage thermal au XIXe siècle.Jusqu’en 2004, une centaine d’habitations étaient ainsi chauffées grâce à l’eau chaude des sources. Désormais orientée en priorité pour l’usage thermal, aujourd’hui, seulement une trentaine de maisons bénéficient de ce chauffage urbain. Mais le trop-plein des thermes est valorisé pour chauffer l’église, la piscine municipale et le collège. A Dax, dans le département des Landes, entre 1940 et 1990, la ville a alimenté en eau thermale naturellement chaude près de 1 600 abonnés particuliers du centre-ville. La diminution des prélèvements d’eau thermale de 40 %, a également permis une remontée de température de 14 °C aux émergences et de prioriser les usages économiques et d’intérêt public (thermes, centre aquatique, Lycée Borda, piscine et des serres municipales).Assez peu développé en France, les projets de géothermie basse énergie émergent au moment des crises énergétiques. C’est le cas entre 1961 et 1980 par exemple. Mais aujourd’hui, sur les 112 forages profonds dédiés en France, seulement 34 installations géothermales basse énergie sont en fonctionnement dans le Bassin parisien et le Bassin aquitain (Bordeaux, Mont-de-Marsan, Dax).Différents projets émergent à nouveau sur les communes thermales. C’est le cas de l’écoquartier des Rives de l’Allier à Vichy, de l’écoquartier de la Duranne à Aix-en-Provence, ou du projet de micro-centrale géothermique à Chaudes Aigues.Plus que jamais, la valorisation des calories des émergences d’eau naturellement chaude par un système de géothermie basse température est une opportunité à saisir pour plus de la moitié des établissements thermaux français. Pour les autres, la capacité de résilience est à rechercher ailleurs comme c’est le cas à Vals-les-Bains) avec la mise en place de plusieurs solutions notamment, des travaux d’isolation, l’installation de pompe à chaleur, et le recyclage de la chaleur des eaux usées.>> L’auteur :Guillaume Pfund, Docteur en Géographie Economique associé au laboratoire de recherche EVS, Université Lumière Lyon 2Cet article est republié sous licence Creative Commons.>> Lire l’article original :The Conversation
AAu XIXᵉ siècle, l’hypnose médicale relevait aussi du spectacle | The Conversation L’hypnose n’est pas, au XIXe siècle, qu’un phénomène de mode. Elle constitue une véritable culture avec ses pratiques et ses acteurs, issus de toutes classes sociales ; une culture spectaculaire, riche de thérapies nouvelles, d’expériences scientifiques et artistiques.De quel œil voyons-nous l’hypnose aujourd’hui ? S’agit-il simplement de nous distraire le temps d’un spectacle avec Messmer, ou de l’utiliser pour arrêter de fumer ? Puisant au monde du music-hall et de la télévision, notre imaginaire se nourrit de fantasmes de soumission dont veulent s’affranchir les hypnothérapeutes. Dans le cadre du soin, l’hypnose est présentée comme résultant de techniques pratiquées en toute liberté et accessibles à tout le monde : il suffirait de mobiliser son attention et son imagination.Nos représentations contemporaines se ramènent donc souvent à une opposition entre l’hypnose de soin et l’hypnose de spectacle, l’activité et la passivité, la collaboration et l’emprise. Les deux pratiques sont présentées comme étanches l’une à l’autre, et l’hypnose de spectacle est parfois décrite comme une sorte de corruption de l’hypnose de soin. Or une telle binarité n’est pas claire au XIXe siècle, a fortiori parce que les hypnotistes, médecins ou non, développent leurs thérapies et leurs expériences dans un contexte public, voire spectaculaire. Les dimensions du soin et du spectacle sont alors intimement liées.Baquets d’eau magnétiséeDès le dernier tiers du XVIIIe siècle, le médecin viennois Franz-Anton Mesmer donne le ton. Il arrive à Paris en 1778, fort d’une théorie qui prétend expliquer tout le fonctionnement du monde physique. Un fluide souverain infuserait l’univers, et Mesmer dit pouvoir en commander la trajectoire pour guérir. Il élabore des mises en scène sophistiquées avec des baquets d’eau magnétisée, et au son de musiques douces exécutées sur instruments à vent, piano ou harmonica de verre. Le but est de provoquer des « convulsions thérapeutiques ». Devant son succès, l’Académie des sciences mène l’enquête et rédige en 1784 un rapport à charge. L’année suivante, Mesmer quitte la France, discrédité. Mais le mesmérisme continue de se répandre.L’idée de magnétisme animal revient dans le « somnambulisme provoqué » que le marquis de Puységur, ancien élève de Mesmer, théorise en 1784. Il est ainsi parvenu à plonger un sujet pris de violentes convulsions dans un état à la fois d’apaisement, d’endormissement et d’extralucidité. Très à la mode sous la Restauration, le magnétisme fait d’abord l’objet d’encouragements de la part de l’Académie de médecine. Mais en 1837, celle-ci missionne un nouveau rapport. Fondée sur les normes nouvelles de la révolution scientifique, telle que la stricte répétitivité des expériences, la commission nie l’existence du magnétisme. Officiellement déconsidéré, le magnétisme n’en continue pas moins d’intéresser des médecins aliénistes et chirurgiens, mais aussi des philosophes comme Pierre Maine de Biran, ou des écrivains comme Théophile Gautier. Le magnétiseur Charles Lafontaine révèle également ses talents de plume, d’acteur et de metteur en scène dans ses ouvrages et présentations publiques. Le spectacle de la thérapie miraculeuse par le magnétisme est un objet puissant de divertissement. « L’extase sous l’influence de la musique » constitue souvent le clou du spectacle, qui vient clôturer une démonstration.Or en 1843, le chirurgien écossais James Braid identifie dans les phénomènes jusque-là rattachés au magnétisme, au mesmérisme ou au somnambulisme un seul et même état qu’il qualifie d’« hypnotisme ». Par ce mot, il introduit à la fois une rupture et une continuité avec les phénomènes spectaculaires précédemment estampillés sous les noms de magnétisme animal, de mesmérisme ou de somnambulisme. Le terme même se fonde sur une analogie : la racine grecque « hypnos » souligne une parenté avec le sommeil. Et de fait Braid se fonde sur la notion de « sommeil nerveux » pour renouveler celle de sommeil magnétique étudiée par le marquis de Puységur.Le rôle du système nerveuxÀ quoi tient la nouveauté de l’approche de Braid ? Pour lui, l’hypnotisme ne dépend pas d’un fluide qui passerait du corps de l’opérateur dans celui du sujet. L’individu hypnotisé est lui-même à l’origine du phénomène. L’attention extrême qu’il porte à un point visuel ou auditif (pendule, yeux de l’hypnotiste ou coup de gong), entraîne un décrochage de l’état de vigilance, et le basculement vers l’état hypnotique. L’hypnotisme tient donc au système nerveux du sujet : Braid le définit comme un « état particulier du système nerveux, amené par la concentration fixe et abstraite de l’œil mental et visuel ».« Soirée chez un artiste », L’Illustration, 19 mai 1855. Collection Frigau Manning | Fourni par l’auteurSi l’hypnotisme tient à la relation de l’hypnotiste et du sujet plutôt qu’au pouvoir du premier, il reste pour Braid un remède extraordinaire pour des symptômes rétifs aux traitements habituels. Recours controversé, l’hypnotisme donne lieu à des cures jouant sur le sensationnel. Il s’accompagne d’une gamme de phénomènes chez le patient hypnotisé, désigné comme « le sujet » : somnolence et somnambulisme, insensibilité ou exaltation des sens, obéissance à des suggestions, extralucidité ou hallucinations. Il garde en cela sa charge spectaculaire.Surtout, l’hypnotisme suggère une modification dans la relation même à la douleur. Dans cette perspective, la douleur n’est pas un mal inévitable, caractéristique de la condition humaine, qu’il faut accepter de subir dignement, même sans espoir de guérison : c’est une anomalie qu’il faut corriger, une menace pour l’ordre du corps, individuel et social. La vertu anesthésique est perçue comme l’intérêt premier de l’hypnose. Elle est identifiée dans le magnétisme, le somnambulisme ou l’hypnotisme, sur des zones précises ou sur l’ensemble du corps. Elle n’est pas seulement une fin en soi, permettant de suspendre le mal. Elle constitue aussi une condition préalable à d’autres expériences.La preuve par l’aiguille, courante tout au long du siècle, en est emblématique. En l’absence de substances anesthésiques fiables, l’hypnose suscite de grands espoirs dans le domaine de la chirurgie. Des opérations sont tentées sous hypnose, comme celle que Paul Broca et Eugène Follin pratiquent avec succès sur une femme en 1859 à l’hôpital Necker. La communauté scientifique accueille ces opérations avec circonspection. La réussite et la constatation de phénomènes ne signifient pas que l’anesthésie sous hypnose puisse être répétée et pratiquée sur quiconque.Présentations spectaculairesÀ la fin des années 1870, Jean-Martin Charcot, professeur à l’hôpital de la Salpêtrière, réhabilite l’hypnose comme outil de diagnostic et d’observation de l’hystérie. Pour Charcot, l’hypnose est un état pathologique caractéristique chez les hystériques. On peut même les hypnotiser pour mieux étudier, répéter in vivo les diverses phases et manifestations de la maladie. Charcot en exploite la dimension spectaculaire en offrant au tout-Paris des leçons et présentations publiques. Or une école concurrente se forme à Nancy autour d’Ambroise-Auguste Liébeault et d’Hippolyte Bernheim. Pour eux, l’hypnose est un état non pathologique, produit par la suggestion, que Bernheim définit comme « l’influence provoquée par une idée suggérée et acceptée par le cerveau ». L’hypnose est donc appréhendée comme une expérience de transmission consentie. Le bon usage des suggestions promet des applications thérapeutiques auprès de tout individu.Séance d’hypnose, par Richard Bergh, 1887.Entre temps, l’hypnose nourrit les fantasmes de réforme sociale. Dans de telles visions les malades, mais aussi les enfants et les criminels, pourraient faire l’objet d’une rééducation par l’hypnose. Les démonstrations et les débats autour de l’hypnose débordent alors largement le cadre médical. En effet, la prise du regard qu’un opérateur réalise en public est une performance appréciée tout au long du XIXe siècle. Celle-ci repose sur l’immersion d’un sujet, souvent féminin, dans un théâtre d’images tout intérieur. Ce théâtre reste invisible au public, à qui revient d’en scruter les signes dans les expressions de l’hypnotisée ou dans ses chorégraphies gestuelles. L’hypnose suscite même, dans certains cas, des expériences à caractère artistique. L’hypnose occupe ainsi une place prégnante dans l’opinion, dans la presse, dans la littérature et les arts du temps – à commencer par la musique, dont les effets sur Lina de Ferkel et [ Magdeleine G.], vedettes de la scène hypnotique au seuil du XXe siècle, donnent lieu à de luxueuses publications abondamment illustrées.À la fin du siècle, l’hypnose offre en retour aux théoriciens l’occasion de repenser les processus de création artistique. « Dans les procédés de l’art on retrouvera sous une forme atténuée », écrit Henri Bergson en 1889, « les procédés par lesquels on obtient ordinairement l’état d’hypnose. » Les artistes eux-mêmes s’intéressent à l’hypnose. Beaucoup assistent à des séances, comme l’acteur-chanteur Victor Maurel, le peintre Albert Besnard ou le sculpteur Auguste Rodin. Les sujets hypnotisés sont de nouveaux modèles où saisir des expressions, des gestes inédits, perçus comme plus authentiques. Il y a là, peut-être, la possibilité de concevoir son art autrement, une fenêtre ouverte sur l’inconscient.L’hypnotisme du XIXe siècle repose donc sur une relation : entre un hypnotiste, un sujet et un public, entre l’authenticité et la mise en scène, inextricable écheveau bien que sujet constant de l’observation et des recherches. Car l’hypnotiste organise ses démonstrations à des fins de persuasion, quand les sceptiques se servent d’un lexique théâtral pour dénoncer la supercherie de phénomènes simulés.Le terme d’« hypnotisme » est désormais tombé en désuétude. Dépouillé de sa désinence, il demeure dans le terme d’hypnose. Mais qu’est-ce donc que l’hypnose ? La question se pose encore aujourd’hui, quand l’hypnose est définie tantôt comme une forme de relaxation, tantôt comme un état de transe. S’apparente-t-elle à un concept, une technique, une science, ou encore à une forme de sommeil artificiel ? La notion d’« état hypnotique », fréquente au XIXe siècle, reste employée de nos jours quand les hypnothérapeutes définissent l’hypnose comme un état de conscience modifiée. Mais modifiée par rapport à quoi ? Reste à comprendre comment on peut qualifier cet état à la fois d’« état modifié » et d’état normal de conscience.>> L’autrice :Céline Frigau Manning, Professeure en études italiennes, histoire du spectacle et de la musique, Université Jean Moulin Lyon 3Cet article est republié sous licence Creative Commons. >> Lire l’article original :The Conversation
LLa « valse » des mers sous-glaciaires en Antarctique, ce phénomène méconnu qui pourrait accélérer la montée des eaux | The Conversation Sur nos planisphères centrés sur les latitudes habitées, on ne remarque pas à quel point l’Antarctique et les mers australes sont centraux… pour la circulation océanique, et donc pour l’adaptation du système Terre au changement climatique. Et pourtant, ils pourraient être le siège de modifications irréversibles, les fameux « points de bascule » climatiques.Alors que nos émissions de gaz à effet de serre s’accumulent dans l’atmosphère et provoquent une augmentation des températures moyennes de notre planète, les glaces des pôles fondent et se déversent dans les océans à un rythme effréné. Cela a pour effet d’accélérer la montée du niveau des eaux : alors qu’elle était de 1,3 millimètre par an entre 1901 et 1971, elle a été mesurée à 3,7 millimètres par an entre 2006 et 2018. Cependant, les projections de niveau des eaux pourraient être sous-estimées du fait de phénomènes physiques amplifiant la fonte des glaces.L’Antarctique est un continent couvert d’immenses glaciers qui glissent vers la mer sous l’effet de leur propre poids. Lorsqu’ils atteignent la mer, ils continuent leur écoulement et flottent alors à la surface de l’eau : c’est ce qu’on appelle des plates-formes de glace. De grandes superficies d’eaux (pouvant atteindre jusqu’à la taille de la France) se retrouvent couvertes par ces épaisses couches de glace, formant des mers sous-glaciaires. Or, ces dernières sont suspectées de pouvoir se réchauffer brutalement, fragilisant les plates-formes qui limitent l’écoulement des glaciers.L’impact de la fonte de ces plates-formes sur la montée du niveau des eaux serait bien sûr important, car cela déstabiliserait le glacier en amont sur la roche, mais il faut aussi souligner que le rejet massif d’eaux de fontes dans l’océan Austral pourrait perturber la circulation globale de l’océan, et avoir des effets qui se répercutent jusqu’au nord de l’océan Atlantique.Circulation océanique globale. Les chemins bleus représentent les courants profonds alors que les chemins rouges représentent les courants de surface. Le courant circumpolaire Antarctique, qui fait le tour du continent Antarctique, relie tous les autres océans et joue donc un rôle clé dans cette circulation globale | Adapté et traduit de Wikipedia, Fourni par l’auteurEn effet, en raison de sa position centrale, l’océan Austral est une pièce clé du système climatique. Il est constitué d’un ensemble de mers continentales accolées aux côtes de l’Antarctique, ainsi que du courant circumpolaire antarctique, forcé par de puissant vent d’Ouest entre les 60e et 80e parallèles de l’hémisphère sud. Ce courant contrôle la remontée d’eaux chaudes profondes issues des océans tropicaux atlantique, pacifique et indien vers l’Antarctique, les amenant jusqu’aux mers continentales où se joue la fonte des glaces.La sensibilité de la fonte des glaces à la température des mers sous-glaciairesEn Antarctique, la fonte des plates-formes glaciaires est essentiellement due à la chaleur transmise par les mers sous-glaciaires. Aussi, la température de l’eau sous la glace est déterminante dans l’estimation de la vitesse de fonte. Plus précisément, c’est l’écart entre la température de solidification de l’eau de mer (autour de -2 °C car elle est salée) et la température de la mer sous-glaciaire qui importe.Ainsi, une eau de mer qui se réchauffe de -1 °C à 0 °C double l’écart au point de solidification, ce qui a des conséquences considérables sur la fonte.Deux types de masses d’eaux peuvent pénétrer dans les cavités sous-glaciaires. Premièrement, des eaux chaudes profondes d’origine tropicale, dont les températures sont généralement comprises entre -1 °C et 2 °C. Deuxièmement, des eaux de surfaces froides, en contact avec la glaciale atmosphère polaire, ayant des températures variant de -2 °C à -1 °C. L’infiltration d’eaux chaudes dans les cavités sous-glaciaires entraînerait l’amincissement puis la disparition des plates-formes de glace. Les glaciers continentaux qu’elles retiennent, comme le bouchon d’une bouteille couchée retient le vin, seraient alors libres de se déverser rapidement dans les eaux polaires.Coupe latérale de l’océan à proximité des plates-formes de glace. Sur la figure (a), la formation de banquise fait couler les eaux de surface froides qui empêchent les eaux profondes chaudes de pénétrer sur le plateau continental. Sans formation de banquise en revanche, sur la figure (b), les eaux chaudes profondes sont capables de remplir la cavité sous-glaciaire et donc d’augmenter la fonte sous la plate-forme. Adapté et traduit de The Sensitivity of the Antarctic Ice Sheet to a Changing Climate : Past, Present, and Future, Noble et coll., Reviews of Geophysics, 2020 | Fourni par l’auteurCependant, l’intrusion d’eaux chaudes dans les mers sous-glaciaires n’est pas forcément fatale. En Antarctique de l’Ouest, ces eaux denses réussissent à atteindre et faire fondre la partie profonde des plates-formes glaciaires, forçant le recul des glaciers. Mais en Antarctique de l’Est, cette même tentative est souvent contrecarrée par la formation de banquise due à la présence de vents froids en surface. En effet, lors du gel de l’eau de mer, seule l’eau se transforme en glace laissant en surface des quantités élevées de sel. Ainsi, ces eaux froides de surface deviennent de plus en plus denses et coulent au fond de l’océan, remplaçant les masses d’eau chaudes et diminuant grandement la fonte sous les plates-formes glaciaires.Le réchauffement climatique pourrait provoquer une bascule irréversible en empêchant les eaux froides de surface de coulerRécemment, des études scientifiques ont suggéré que le changement climatique pourrait favoriser le basculement de cavités froides vers des conditions chaudes. En effet, un changement des vents ou une augmentation de la température de l’atmosphère pourrait diminuer la formation de banquise et donc d’eau dense capable de couler.Une telle transition serait déjà potentiellement à l’œuvre au niveau de la plate-forme de Dotson, où l’observation de variation de températures et de salinité de l’océan pourrait être la signature d’un changement de régime. En Antarctique de l’Est, des simulations numériques montrent que la cavité de Filchner-Ronne pourrait se remplir d’eaux à -1 °C plutôt qu’à -2 °C comme c’est le cas actuellement. Un passage en conditions chaudes accélérerait la disparition de cette plate-forme qui retient 10 % du volume de glace en Antarctique, susceptible d’augmenter le niveau de la mer de plus de 5 mètres.Une des craintes associées à ce type de transition est la non-réversibilité du processus. En effet, lorsque des flux d’eaux chaudes pénètrent la cavité, la fonte accrue de la plate-forme provoque la formation d’eau douce moins dense qui va se retrouver en surface, qui elle ne coulera pas pour remplacer les eaux chaudes en profondeur. On se retrouve face à ce qu’on appelle un point de bascule climatique : à partir d’un certain seuil de modification du climat, ces cavités glaciaires peuvent se remplir brutalement d’eaux chaudes, irréversiblement.La turbulence dicte le mélange des eaux chaudes et froides mais reste mal compriseÀ l’heure actuelle, ces changements de régime restent incertains. En effet, les modèles climatiques globaux décrivent mal la physique du mélange des eaux de fonte avec l’eau de mer. Ce mélange se produit par le mouvement désordonné et chaotique de l’eau à petite échelle, qu’on appelle la turbulence. Pourtant, c’est ce mélange qui est à l’origine de cette valse entre les eaux de surfaces et les eaux profondes. En particulier, c’est la turbulence qui dicte la fonte basale de la plate-forme, qui alimente en eau peu salée et froide les eaux de surface, puis l’intensité de la plongée de ces eaux de surface, chargées en sel, par gravité.Prédire le taux de fonte basale des plates-formes glaciaires nécessite de savoir si l’eau de fonte, froide, reste en contact avec la glace pour former une couche isolante ou si, au contraire, elle est évacuée au fur et à mesure de la fonte et fait place à une eau océanique plus chaude. Et cela dépend de nombreux paramètres : la salinité, la température, la turbulence océanique et la géométrie de la plate-forme.Prenons l’exemple d’une plate-forme glaciaire plate, flottant sur une masse d’eau chaude salée au repos. L’eau chaude transfère sa chaleur à la glace par diffusion, qui se met à fondre. L’eau de fonte étant plus douce, elle est moins dense et reste prise en sandwich entre le toit formé par la plate-forme et l’océan salé. Elle remplit ici effectivement son rôle d’inhibiteur de la fonte. Mais si on ajoute un courant marin suffisamment puissant, alors le mélange des deux masses d’eau est activé par turbulence et cette couche protectrice disparaît. De même, si la plate-forme glaciaire n’est plus plate mais inclinée, alors l’eau de fonte va se mettre à remonter le long de la pente du fait de sa légèreté et là encore exposer directement la glace à la chaleur de l’océan.La plongée d’eau dense (salée) est similairement difficile à prédire car la turbulence peut jouer dans les deux sens. D’une part, un mélange vertical peut entraîner vers le bas la couche d’eau froide superficielle. D’autre part un mélange latéral – toujours par turbulence – des eaux de surface avec des eaux moins denses au large pourrait les alléger et empêcher leur plongée profonde.Trois approches pour comprendre la fonte au-dessous des plates-formes de glaceCertaines études se concentrent sur la collecte de données de terrain, en réalisant des bilans de masse par observations satellites ou en allant sur place pour sonder la salinité, la température et la vitesse des courants sous les plates-formes glaciaires. Ces expéditions sont coûteuses et donnent accès à des informations éparses mais sont capitales pour connaître la réalité de terrain en Antarctique.Au Laboratoire de Physique de l’ENS de Lyon, nous tentons de reproduire et compléter ces observations en réalisant des simulations numériques haute résolution, en fournissant alors une prédiction du comportement des plates-formes et des écoulements associés. Cependant, certains phénomènes sont encore trop coûteux numériquement pour être résolus. C’est pourquoi nous développons aussi des expériences physiques, dans l’environnement contrôlé du laboratoire pour isoler et étudier ces phénomènes.Les auteurs : Louis Saddier, Doctorant en physique du climat, ENS de Lyon ; Brivaël Collin, Doctorant en mécanique des fluides, ENS de Lyon ; Louis-Alexandre Couston, Enseignant-chercheur en mécanique des fluides et océanographie polaire, ENS de LyonCet article est republié sous licence Creative Commons.>> Lire l’article original :The ConversationCet article est publié dans le cadre de la Fête de la science (qui a lieu du 4 au 14 octobre 2024), et dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « océan de savoirs ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
ÉÉvian, Vittel, Volvic : les industriels connaissent-ils suffisamment bien l’eau qu’ils exploitent ? | The Conversation Le scandale Nestlé Waters a levé le voile sur l’industrie de l’eau minérale naturelle. Celle-ci repose sur des connaissances précises des sources d’eau exploitées… Mais paradoxalement, celles-ci viennent souvent à manquer.On en boit au quotidien, mais la connaît-on vraiment ? L’eau minérale naturelle (EMN), qu’il s’agisse d’Evian, de Vittel, de Volvic ou des autres, relève d’une appellation juridique spécifique en France. Elle se définit comme une eau d’origine souterraine, sans traitement, dont les composants physicochimiques – la teneur en minéraux de l’eau minérale – restent stables dans le temps, avec moins de 10 % de variation.En France, deux usages économiques majeurs exploitent cette ressource naturelle : l’industrie de l’embouteillage d’une part, et les établissements thermaux d’autre part. Ces deux secteurs dépendent du maintient de l’appellation officielle et de l’autorisation d’exploitation à l’émergence délivrée par le ministère de la Santé sur avis de l’Académie de médecine.Récemment, cet enjeu est passé sur le devant de la scène médiatique, les usines gérées par Nestlé ayant été épinglées par la justice pour avoir recouru à des traitements interdits et procédé à des prélèvements sur des forages ne disposant pas d’autorisation d’exploitation. Courant septembre, Nestlé Waters a finalement accepté de payer une amende de deux millions d’euros pour échapper au procès.De quoi dévoiler ce pan méconnu de l’économie qui a une place majeure non seulement en France, mais également en Europe et dans le monde.La France championne de l’eau minéraleCar la France est sur le podium européen, que ce soit pour le thermalisme ou pour l’eau minérale en bouteille. Le pays se trouve ainsi au troisième rang européen en nombre d’établissements thermaux, avec 115 thermes répartis sur 89 communes du territoire.Le secteur de l’embouteillage français, pour sa part, est le premier exportateur mondial d’eau minérale naturelle au monde, avec 50 usines réparties sur 50 communes. Dans le même temps, la France possède aussi le premier patrimoine hydrominéral d’Europe, avec près de 20 % des sources en exploitation sur le vieux continent. Ce palmarès correspond à une valorisation de 37 % de la ressource nationale, soit 706 sources exploitées sur 1900 sources d’EMN inventoriées.Malgré le caractère historique de l’exploitation des eaux minérales naturelles en France, ces ressources restent pourtant vulnérables. En cause : le manque de connaissances hydrogéologiques et leur hétérogénéité selon les sites.En effet, chaque gisement d’EMN constitue un système dont la configuration et la composition dépendent des spécificités locales de chaque terroir géologique. Le niveau de vulnérabilité d’un gisement va également dépendre de paramètres hydrogéologiques, selon qu’il s’agisse d’une nappe peu profonde ou au contraire d’une nappe profonde bénéficiant d’une protection naturelle accrue.Des gisements encore mal connusOr, ces gisements gardent une part d’inconnu. L’acquisition des connaissances sur un gisement est nécessairement progressive et perpétuelle car l’objet d’analyse est un système naturel dont l’homme doit découvrir le plan et les conditions de fonctionnement.L’étude d’un gisement d’eau minérale naturelle fait appel à différentes spécialités des sciences de la terre (géologie, hydrogéologie, hydrogéochimie et géophysique), qui permettent d’étudier les trois zones constituant un gisement :la zone d’alimentation appelée impluvium, qui collecte les eaux pluviales,la zone de transit souterraine où circule l’eau,et enfin la zone des émergences en surface, où jaillit la ou les sources.Très peu de sites exploités ont une connaissance hydrogéologique précise de leur gisement. Faute de moyens, la majorité des propriétaires des émergences (souvent les communes) ou les exploitants des usages ne financent pas de programme de recherche.Seuls les sites d’embouteillage majeurs, comme Evian, Vittel ou Spa, en Belgique, se sont donnés les moyens, depuis 1970, de réaliser des recherches approfondies sur le fonctionnement de leur gisement. Ces quelques acteurs économiques connaissent la délimitation géographique précise des trois zones constitutives des gisements, parce que les enjeux industriels le nécessitent.Ces industriels emploient des ingénieurs hydrogéologues salariés, par exemple via l’institut Henri Jean à Spa et le Centre international de l’expertise de l’Eau à Evian. Ils financent également des thèses de doctorat en partenariat avec l’université de Liège et de Chambéry.Seulement quatre territoires ont financé au début des années 2000 des programmes de recherches préalables sur certains gisements thermaux (Auvergne, Rhône-Alpes, Languedoc-Roussillon, Massif central) avec le BRGM. Cependant, dans la plupart des cas, les recommandations de recherche complémentaire du BRGM quant aux vulnéralibités détectées sont restées lettre morte.Face à ce constat, le BRGM a édité en 2005 un guide qualité pour inciter les propriétaires et exploitants de la ressource à progresser dans l’acquisition des connaissances hydrogéologique et à programmer des investissements.Aix-en-Provence, Ribeauville, Luchon… Les risques de la perte d’appellationFaute d’une bonne connaissance scientifique sur la ressource exploitée, celle-ci peut subir des changements brutaux dans sa composition physico-chimique venant mettre en péril son appellation d’eau minérale naturelle.Les conséquences économiques sont pourtant dévastatrices, tant pour les activités de cures thermales que pour la vente d’eau en bouteilles. Aix-en-Provence a ainsi perdu son agrément de ville thermale en 1998 du fait de la contamination des forages par la pollution urbaine. En 1996, au regard des contraintes d’exploitation du captage de la source des Ménétriers, l’usine d’embouteillage de Ribeauville (marque commerciale Carola) a perdu son appellation d’eau minérale naturelle. L’exploitation se poursuit uniquement sous statut d’eau de source avec un nouveau forage.Depuis 2019, les bouteilles d’eau Luchon, vendues par Intermarché, ne peuvent plus être vendues sous le statut d’eau minérale naturelle. OpenFoodFactsDepuis 2019, ce sont les bouteilles d’eau de Luchon (vendues par le réseau Intermarché) qui ne peuvent plus être commercialisées sous le statut d’eau minérale naturelle.Cet arrêt résulte d’une variation naturelle du taux de sodium présent dans l’EMN à l’émergence du puit Lapadé. Malgré la vulnérabilité de cet ouvrage souterrain ancien peu profond, mis en évidence par le BRGM dès 1991, aucune recherche n’a depuis été menée pour améliorer les connaissances hydrogéologiques et trouver un forage de secours.Faute de connaissances précises sur le fonctionnement du gisement, la commune (propriétaire) et l’exploitant ont mené des campagnes prospectives en urgence avec la réalisation de trois forages profonds en 2019 et 2020 pour plus de trois millions d’euros.Malheureusement infructueuse, cette recherche à l’aveugle s’est soldée par l’arrêt de l’embouteillage d’EMN. Seule l’embouteillage d’eau de source subsiste.Selon le BRGM, il reste en France 58 captages anciens exploités pour un usage économique. Pour ceux-ci, les risques liés au manque de connaissances hydrogéologiques sont réels.À Divonne-les-Bains, une bataille de l’eau franco-suisseD’autant plus que les carences de savoir sur les gisements peuvent également alimenter des conflits sociaux. C’est le cas à Divonne, à proximité de la frontière franco-suisse, où la commune ambitionnait en 2016 d’ouvrir une usine d’embouteillage d’eau minérale naturelle, afin d’exploiter un forage réalisé en 1992, qui a obtenu la précieuse appellation en 1994.L’affaire a viré au fiasco : le projet sera finalement abandonné, sur fond de conflit transfrontalier franco-suisse. Collectifs syndicalisés, riverains et élus locaux franco-suisse se sont opposés au projet au nom du principe de précaution par rapport à un risque possible (mais non avéré) sur l’alimentation en eau potable, faute de connaissances hydrogéologiques. Le projet a été stoppé le 3 septembre 2019 à six mois des élections municipales, pour éviter une guerre de l’eau franco-suisse.Le conflit est né de la peur de l’existence d’interconnexions souterraines entre la nappe d’EMN et les nappes peu profondes utilisées pour l’alimentation en eau potable, dans un contexte local de croissance démographique et de tension d’alimentation en eau publique des habitants. Pour autant, dès 2003, le BRGM soulignait que les connaissances hydrogéologiques du site étaient lacunaires. Il avait formulé des propositions d’investigations à mener pour améliorer la compréhension de l’aquifère et de son fonctionnement.Des enjeux politiques et économiquesAu regard des carences actuelles en matière de connaissances hydrogéologiques, assistera-t-on à une multiplication de ce type de conflit sur les territoires ayant des problématiques locales de manque d’eau potable ? Cette problématique est d’autant plus délicate dans les zones transfrontalières où une partie du gisement peut être de part et d’autre de la frontière, comme à Saint-Amand-les-Eaux, entre France et Belgique.Pour les communes propriétaires des captages et de leurs exploitants, il est urgent de reconsidérer la question de la gestion du risque selon les spécificités des gisements hydrogéologiques. L’acquisition de connaissances est vitale pour l’avenir. En résumé : mieux connaître pour bien protéger.Les enjeux sont majeurs pour les territoires souvent dépendant de cette filière économique. Ne pas gérer ce risque expose à des pertes d’emplois, de revenus (surtaxe d’embouteillage, redevance d’exploitation) et surtout d’attractivité (visibilité et image de marques toponymes).Les élus locaux, souvent issus de la société civile, ne disposent pas de connaissances préalables dans ce domaine précis. Il n’existe pas aujourd’hui de formation à destination des élus locaux sur la filière EMN. Les expertises sont à rechercher à l’extérieur de la commune. Pour autant, la responsabilité d’un propriétaire de captage d’EMN et des usages économiques dépendant reste entière. En dépassant le motif du manque de moyen financier, les communes doivent trouver des solutions de montage public-privé avec leur exploitant.Les acteurs locaux doivent s’appuyer sur des laboratoires de recherches hydrogéologiques publics français et européens, sur le soutien financier au travers des plans État-Région et du Fonds européen de développement régional, ainsi que du guide qualité édité par le BRGM, en planifiant des investissements réguliers d’acquisition des connaissances hydrogéologiques. La majorité des petits sites français doivent s’inspirer de démarche lancée à Évian, Vittel et Spa, qui co-financent des thèses de doctorat en partenariat avec les Universités de Chambéry, de Lorraine et de Liège, en partenariat avec l’INRA.>> Auteur :Guillaume Pfund, Docteur en Géographie Économique associé au laboratoire de recherche Environnement Ville Société – EVS -, Université Lumière Lyon 2Cet article est republié sous licence Creative Commons. >> Lire l’article original : The ConversationPPour aller plus loinEaux minérales naturelles : sécheresse et pressions sur l’eau, quelques idées reçues à déconstruire | The ConversationLes stations thermales doivent se réinventer pour survivre à la crise énergétique
PPourquoi a-t-on envie de bâiller lorsque l’on voit quelqu’un bâiller ? | The Conversation Vous sortez d’un repas copieux et entamez une réunion, là un premier collègue se met à bâiller, puis un deuxième et finalement c’est votre tour. De nombreuses explications biologiques ont été avancées, mais quel est le consensus scientifique ?Le bâillement est un phénomène universel, observé chez de nombreuses espèces vertébrées, que ce soit chez le loup ou le perroquet, et bien sûr les humains, et ce dès le plus jeune âge. Mais pourquoi avons-nous tendance à bâiller en voyant quelqu’un d’autre le faire ?Si le bâillement est présent chez autant d’espèces depuis aussi longtemps, c’est qu’il semble constituer un mécanisme nécessaire à la survie. Mais à quoi sert-il réellement ? Oxygénation du cerveau, régulation de la température corporelle, ou encore signal social, les hypothèses ne manquent pas, aussi bien parmi le grand public que dans la communauté scientifique.L’idée répandue selon laquelle le bâillement permettrait d’augmenter l’oxygénation du cerveau ne semble pas confirmée. Une autre explication suggère que le bâillement permettait de réguler la vigilance, lorsqu’on doit maintenir son attention. Là encore, celle-ci ne fait pas non plus l’objet d’un consensus.Ce qui semble davantage certain, en revanche, est le lien entre le bâillement et le rythme circadien, notre horloge biologique. La majorité des bâillements surviennent au repos, généralement concentrés autour des phases de réveil et d’endormissement. Plus précisément, ils surviennent lorsque le corps connaît une baisse de vigilance, comme lorsqu’il travaille à digérer un repas copieux…Un moyen de communication ?Bien que les raisons derrière ce mécanisme soient encore à confirmer, la contagion du bâillement, quant à elle, génère des découvertes significatives dans diverses disciplines, tant en biologie qu’en psychologie sociale.Le bâillement pourrait jouer un rôle important dans les interactions sociales, comme observé chez les autruches qui l’utilisent pour synchroniser le comportement du groupe. Comme pour l’humain, le bâillement se manifeste souvent lorsqu’elles passent d’un état de veille à un état de repos, ou inversement. Le bâillement peut alors servir de signal indiquant un changement dans l’activité ou la vigilance, assurant ainsi que tous les membres du groupe sont alertes ou au repos en même temps, augmentant ainsi la sécurité collective et maintenant le rythme du groupe.Cependant, la contagion du bâillement semble être une caractéristique principalement humaine, à quelques exceptions près, comme le Chimpanzé ou le Gélada (Singe-lion). Cette spécificité renforce l’idée que le bâillement humain, au-delà des seules fonctions physiologiques, constituerait un moyen de communication non verbale. L’hypothèse principale à cet égard est qu’il aiderait à synchroniser le comportement du groupe, une fonction similaire à celle observée chez les autruches.Effectivement, voir ou entendre quelqu’un bâiller stimule des régions cérébrales impliquées dans l’imitation et l’empathie, grâce notamment aux neurones miroirs. Ces neurones, qui s’activent lors de l’apprentissage par observation d’actions, par exemple lorsqu’un enfant suit les gestes de son parent pour attacher ses chaussures, ne sont pas exclusifs au bâillement. Néanmoins, certaines zones cérébrales, impliquées spécifiquement dans les bâillements contagieux, font partie de réseaux neuronaux liés à l’empathie et aux interactions sociales.Une prédisposition au bâillement contagieux ?Il apparaît que l’empathie jouerait un rôle clef dans la susceptibilité à la contagion du bâillement. Dans cette perspective, les individus présentant des troubles sociaux, tels que l’autisme ou la schizophrénie, semblent moins réceptifs aux bâillements d’autrui. D’autres recherches montreraient même que des facteurs externes tels que les méthodes de respiration et la température frontale pourraient respectivement réduire et augmenter la fréquence de cette contagion.Cette observation renforce l’idée que la perception de la contagion pourrait être exagérée, en partie parce que les études à ce sujet nécessitent souvent l’observation d’individus en groupe. Cette dynamique de groupe pourrait influencer la fréquence observée des bâillements, suggérant que ce n’est pas nécessairement le fait de voir quelqu’un bâiller qui déclenche la réaction, mais plutôt la présence et les interactions au sein du groupe.Cette observation suggère que la contagion du bâillement pourrait être moins une question de contagion directe et plus une conséquence de notre contexte social. Ainsi, si vous vous surprenez à bâiller lorsque votre collègue bâille après la pause déjeuner, il se pourrait bien que ce ne soit pas son bâillement qui vous influence, mais simplement le contexte commun, comme le fait d’avoir bien mangé ensemble, qui provoque cette réaction synchronisée.>> L’autrice :Astrid Thébault Guiochon, Ingénieur·e d’Étude, Université Lumière Lyon 2Cet article est republié sous licence Creative Commons.>> Lire l’article original : The Conversation