Pop’Sciences répond à tous ceux qui ont soif de savoirs, de rencontres, d’expériences en lien avec les sciences.

EN SAVOIR PLUS

L’idée reçue bien-être animal | Tous les animaux peuvent-ils être des animaux de compagnie ?

LL’idée reçue bien-être animal | Tous les animaux peuvent-ils être des animaux de compagnie ?

Chaque mois, la Chaire bien-être animal traite une nouvelle idée reçue sur  le bien-être animal et l’élevage! Ce rendez-vous est relayé à la fin de chaque mois sur Facebook, Linkedin et Instagram avec le hashtag #IdéereçueBEA et dans notre Newsletter. Suivez-nous ! 

La dernière idée reçue

 

 

Les précédentes idées reçues

Les prairies permettent de compenser une partie des émissions de gaz à effet de serre des vaches, VRAI ou FAUX ?

L’abandon concerne 100 000 animaux de compagnie chaque année avec un pic pendant l’été, VRAI ou FAUX ?

Le don du sang est réservé aux humains et pas aux animaux, VRAI ou FAUX ?

Les veaux sont séparés de leur mère dès la naissance : VRAI ou FAUX ?

 

>> Retrouvez toutes nos idées reçues ici :

Chaire Bien-être animal VetAgro Sup

Cinq compétences fondamentales de leadership pour donner envie d’agir | The Conversation

CCinq compétences fondamentales de leadership pour donner envie d’agir | The Conversation

Le leadership ne se décrète pas, aussi crucial soit-il. Cinq compétences permettent à un manager de mobiliser les membres de ses équipes au service de clients toujours plus exigeants.

Le travail des managers de nos jours consiste à résoudre une équation délicate. Les enjeux sont aigus et nouveaux. Par exemple, le niveau de qualité de service demandé par le client continue à augmenter dans un environnement concurrentiel intense où les transformations technologiques s’accélèrent. En outre, les managers doivent tenir compte du fait que les salariés manquent d’une motivation suffisante pour y répondre pleinement : la plupart des enquêtes montrent, et en particulier en France, de faibles niveaux en termes de participation, de confiance, de satisfaction et de volonté de s’engager).

C’est ce qui amène de nombreuses entreprises à demander aux managers de faire en sorte que leurs collaborateurs coopèrent mieux. Or comme l’a montré Barnard dès 1938, le leadership du manager joue un rôle clé pour motiver les collaborateurs à coopérer. De quelles nouvelles compétences de leadership les managers ont-ils besoin dans ce contexte ? Comment peuvent-ils les acquérir ?

Nous avons mis en évidence cinq compétences essentielles pour que les managers donnent envie aux collaborateurs de donner le meilleur d’eux-mêmes et d’agir au service de buts communs. Chacune est fondée sur un courant spécifique de la recherche et de la pratique managériale.

La psychologie positive au service du leadership

Deux compétences sont issues des recherches en psychologie positive appliquées au leadership. Elles permettent de créer le contexte dans lequel les collaborateurs vont agir. La première consiste à poser les fondements de la coopération. Elle se décline en plusieurs pratiques, d’abord la mise en place d’une relation de confiance qui répond aux besoins primordiaux d’appartenance des salariés. Cela se fait par exemple en soignant l’accueil et l’inclusion des nouveaux recrutés afin qu’ils se sentent membres à part entière d’un collectif de travail. Une autre pratique déterminante consiste à partager régulièrement les buts communs et à clarifier leur adéquation avec les buts de chacun, ce qu’on appelle aussi « la vision », dont on a montré qu’elle était le moyen le plus efficace d’unir un groupe d’êtres humains.

Sur ces bases, une seconde compétence de leadership amène à construire un environnement favorable à l’action, en particulier en développant l’optimisme des personnes par l’utilisation des mécanismes découverts dans les expériences sur la puissance et l’impuissance acquise. Il s’agit de mettre en évidence le plus systématiquement possible les liens de cause à effet entre une action d’un collaborateur et ses conséquences. Après une réussite, il ne s’agit pas seulement de la célébrer, mais aussi de partager en profondeur avec toute l’équipe un retour d’expérience sur l’ensemble des comportements qui ont permis le succès, de façon à pouvoir les reproduire.

L’art du silence

Les deux compétences suivantes s’inspirent des travaux en psychologie sociale sur « l’empowerment » et la prise de décision collective ainsi que des pratiques de coaching de personnes et d’équipes. Une troisième compétence fondamentale de leadership fondamentale consiste à accompagner un collaborateur afin qu’il construise une décision et élabore un plan d’action de façon autonome et responsable dans sa zone de délégation face à des difficultés nouvelles pour lesquelles il n’y a pas de réponse standard. Cela implique de la part du manager d’utiliser des méthodes comme le modèle GROW et de faire appel à des pratiques dont l’importance est encore fortement sous-estimée en leadership : l’art du silence ou des questions puissantes qui ne visent pas la compréhension de ce que fait l’autre mais sa mise en action, comme lorsque l’on demande « comment vas-tu t’y prendre ? » plutôt que « peux-tu m’expliquer pourquoi tu as fait ça ? »

La quatrième compétence permet d’organiser et d’animer la prise de décision en équipe en donnant voix au chapitre à l’ensemble des parties prenantes, ce qui présente le grand avantage de limiter l’effet de conformité qu’on appelle la « pensée de groupe » (mieux connu sous le nom de « groupthink »). Cela passe par la capacité à bien intégrer au processus de décision une solide phase de divergence qui se nourrit de nombreux avis, même et surtout minoritaires, avant de converger vers une décision commune et de l’appliquer.

L’envie de coopérer même dans l’adversité

La dernière compétence a sa source dans les recherches en comportement organisationnel, en communication et en négociation. Grâce à elle, on donne envie aux collaborateurs de continuer à coopérer même dans l’adversité. Elle se décline en plusieurs pratiques. Par exemple il convient de savoir annoncer de mauvaises nouvelles de façon empathique et juste. Recevoir une information de façon sincère, dans les temps, en étant soutenu est en effet souvent au moins aussi important que son contenu. La pratique consistant à donner un feedback négatif de façon assertive et constructive est également utile en cela qu’elle peut, quand le retour est fondé, transformer la résistance en acceptation. Enfin on amène ses collaborateurs à savoir négocier de manière intégrative quand ils sont en désaccord en leur apprenant à se centrer sur les intérêts compatibles de chacun, qui sont sous-jacents, plutôt que sur des positions de surface inflexibles.

TedX.

Ces cinq compétences et l’ensemble de leurs pratiques associées permettent aux managers d’activer le pouvoir d’agir de leurs collaborateurs en incarnant un leadership ouvert, délégatif, responsabilisant, et facteur d’efficacité et d’épanouissement dans la réalisation des missions. Ces compétences et ces pratiques ont fait l’objet d’accompagnements et de formations de plusieurs milliers de managers dans les différents programmes de formation continue et de transformation managériale ainsi qu’en master et en Executive MBA par les auteurs au cours des dix dernières années. Des mesures d’impact, qui ont été présentées dans un autre livre, ont montré que lorsque les managers intégraient ces compétences et mettaient en œuvre les pratiques qui leur sont associées, les conséquences pour eux-mêmes ainsi que pour leurs collaborateurs et leurs entreprises étaient favorables en termes d’efficacité de l’action et de satisfaction des personnes.

Une expérience à vivre

La question du « comment » doit être également abordée. Selon Goldsmith, anciennement chercheur en leadership et aujourd’hui coach de dirigeants et essayiste célèbre, le plus grand défi pour les managers en termes de leadership n’est pas de comprendre leur pratique mais bien de pratiquer leur compréhension.

Le leadership est d’abord un art, une expérience à vivre. Il ne peut être acquis que par une mise en œuvre accompagnée qui se fait pas à pas, avec des allers et retours constants entre compréhension, essais sur le terrain, erreurs, émotions, partages avec des pairs, réflexion, écriture de l’expérience et retour à la pratique. C’est la raison pour laquelle sont présentés dans le livre « Leadership experience », en plus des théories qui fondent chaque pratique, un mode d’emploi, des conseils concrets et des témoignages pour tester celle-ci dans un objectif d’apprentissage et de progrès constant.The Conversation

 

> Les auteurs : Thierry Nadisic, Professeur en Comportement Organisationnel, EM Lyon Business School,

Thomas Misslin, Doctorant, Sciences de Gestion, Dauphine-PSL – Chef de projet, Executive Education, EM Lyon Business School

Cet article est republié sous licence Creative Commons.

>> Lire l’article original :

The Conversation

La prolifération du nucléaire militaire : un risque inévitable ? | The Conversation

LLa prolifération du nucléaire militaire : un risque inévitable ? | The Conversation

L’arme nucléaire reste plus que jamais perçue comme l’élément de dissuasion le plus convaincant. Plusieurs États pourraient s’en doter, ou chercher à le faire, tandis que la menace de son utilisation est souvent évoquée par les leaders de certains pays qui la possèdent.

Les menaces d’utilisation de l’arme nucléaire régulièrement brandies par le Kremlin à l’encontre de l’Ukraine et de ses alliés, mais aussi le programme nord-coréen, les avancées iraniennes en la matière ou encore la montée en puissance nucléaire de la Chine inquiètent profondément les gouvernements et les populations du monde entier. Le terrifiant spectre d’une déflagration nucléaire mondiale n’est d’ailleurs sans doute pas pour rien dans l’attribution du prix Nobel de la paix 2024 au groupe japonais Nihon Hidankyo, qui lutte pour l’abolition de l’arme atomique.

Il est donc opportun, en ces temps particulièrement troublés, de faire un point sur la prolifération nucléaire militaire – qui doit être distinguée de la construction des centrales nucléaires destinées à produire de l’électricité – et d’en jauger le degré de dangerosité.

La prolifération nucléaire : un phénomène qui n’est pas nouveau

L’arme nucléaire a, dès sa première utilisation par les États-Unis en 1945, démontré au monde son extraordinaire pouvoir destructeur et l’avantage en termes de puissance et d’influence qu’elle confère à celui qui la possède. Dès lors, la période de la guerre froide a initié une course à l’armement nucléaire pour installer la dissuasion entre puissances.

Ainsi, l’Union soviétique a acquis l’arme en 1949, suivie du Royaume-Uni (1952), de la France (1960), d’Israël (années 1960), de la Chine (1964), de l’Inde (1974), du Pakistan (en 1998) et de la Corée du Nord (premier essai réussi en 2006).

L’entrée en vigueur en 1970 du Traité de Non-Prolifération (TNP) n’a pas réussi à enrayer cette dynamique prolifératrice. Toutefois, les superpuissances américaine et soviétique ont voulu, notamment au travers du Traité sur la limitation des missiles antibalistiques de 1972 ou des différents accords dits Strategic Arms Limitations Talks (SALT), limiter l’expansion de leurs arsenaux nucléaires.

L’après-guerre froide : une dynamique paradoxale de réduction des arsenaux et de nouvelles proliférations

Avec la fin de la guerre froide (1991), la menace d’un affrontement nucléaire entre superpuissances a diminué. Les immenses arsenaux de ces deux pays ont considérablement diminué grâce à l’application du traité dit Strategic Arms Reduction Treaty (START).

Toutefois, des dynamiques négatives se sont installées (ainsi, le Pakistan a acquis l’arme nucléaire pour dissuader l’Inde). De nouvelles menaces ont émergé de la part d’États parias et d’acteurs non étatiques. La Corée du Nord, pays agressif et imprévisible, n’a eu de cesse de développer sa capacité nucléaire pour sanctuariser son régime. L’Iran, s’il ne possède pas encore l’arme nucléaire, met en œuvre d’importants efforts pour l’obtenir – des efforts qu’a encouragés la dénonciation en 2018 par Donald Trump de « l’accord sur le nucléaire iranien » de 2015, le Joint Comprehensive Plan of Action (JCPOA).

En outre, la perspective du terrorisme nucléaire – à savoir la menace que des groupes terroristes acquièrent des matériaux nucléaires afin de créer des « bombes sales », c’est-à-dire des bombes capables de disperser des éléments radioactifs – suscite la plus grande préoccupation. Les réseaux de contrebande internationale, soutenus par des États parias, corrompus ou ayant intérêt à la déstabilisation, peuvent faciliter la diffusion des briques technologiques nécessaires à la fabrication de telles armes ou à l’obtention de matière fissile.

Les années 2010 sont marquées par un regain de tension internationale en de nombreux points du globe, ce qui entraîne une augmentation des arsenaux de plusieurs pays nucléaires (en particulier de la Chine et de la Russie) et une modernisation de ceux-ci, notamment au travers du développement de c’est bizarre (vecteurs dépassant Mach 5, recherches visant à accéder à des vitesses dépassant Mach 10…), des portées ou des mesures de protection des vecteurs durant la phase de vol.

De plus, les mécanismes de contrôle des armements peinent de plus en plus à remplir leur rôle. Le Traité sur les forces nucléaires de portée intermédiaire (INF) n’a plus cours depuis 2019, le traité de limitation du nombre d’ogives et de bombes nucléaires stratégiques New Start est à l’arrêt, laissant craindre une nouvelle période d’instabilité stratégique où le nucléaire prendra une place de plus en plus importante dans les doctrines militaires des pays qui en sont dotés et parfois dans le discours des dirigeants concernés.

Les technologies modernes comme facteur facilitateur de la prolifération

Autre ombre au tableau : les technologies modernes ont tendance à faciliter la prolifération. Internet et les technologies de l’information ont rendu plus accessible l’accès aux connaissances et données techniques, par exemple en physique des matériaux, en physique nucléaire ou bien encore en technologie balistique.

Cela inclut les bases de données numériques et les publications scientifiques en accès libre. De plus, le cyberespionnage, utilisé par les États ou des groupes non étatiques, permet de s’approprier des informations sensibles.

La technologie 3D peut également faciliter la fabrication des composants avec précision comme l’utilisation de l’intelligence artificielle permet d’optimiser la gestion des programmes d’armement.

Les instabilités régionales ravivent la prolifération et les risques d’escalade

Dans les régions sous tension, les armes nucléaires sont perçues par les États comme une forme d’« assurance-vie », a fortiori lorsqu’il existe une asymétrie conventionnelle entre deux États rivaux. C’est le cas par exemple de l’Inde et du Pakistan, ou de la Corée du Nord face à son voisin du sud, soutenu par les États-Unis. Ce schéma peut se reproduire dans des régions où l’arme nucléaire n’existe pas ou n’est pas évoquée.

À titre d’exemple, les tensions entre Israël et plusieurs États arabo-musulmans mais également la rivalité entre l’Arabie saoudite et l’Iran peuvent pousser certains pays, notamment l’Arabie saoudite, l’Égypte et la Turquie, à chercher à se doter de l’arme nucléaire.

En Asie, l’accession de la Corée du Nord à l’arme atomique provoque des débats au Japon et en Corée du Sud, pouvant les mener à terme à vouloir à leur tour devenir des États dotés.

L’impuissance des organisations et des sanctions internationales

L’Agence Internationale de l’énergie atomique (AIEA) joue un rôle majeur en s’assurant que la technologie nucléaire n’ait que des fins pacifiques, en dehors des pays dotés légalement, en menant des inspections de toutes les installations nucléaires du monde en application du TNP. Malheureusement, l’efficacité de cette organisation dépend de la volonté des États quant à l’accès aux installations. Par exemple, l’Iran et la Corée du Nord n’ont pas hésité à interdire aux membres de l’AIEA l’accès à leurs infrastructures nucléaires.

Le Conseil de sécurité des Nations unies peut également jouer un grand rôle dans la limitation de la prolifération nucléaire. Il a par exemple été impliqué dans l’élaboration du JCPOA. Mais là encore, son efficacité souffre de la divergence politique de ses membres, à commencer par celle qui caractérise les États-Unis d’une part, la Chine et la Russie de l’autre.

Les sanctions internationales (le plus souvent américaines et/ou européennes) peinent également à restreindre la prolifération. Si elles cherchent à affaiblir les capacités économiques et technologiques des États proliférants (interdiction du commerce de certains biens, gels des avoirs financiers à l’étranger, restrictions sur l’approvisionnement énergétique et ont un impact significatif sur les économies des pays concernés, elles n’en demeurent pas moins d’une efficacité limitée. En effet, les sanctions peuvent accentuer le caractère paranoïaque de certains régimes et, par conséquent, les inciter à multiplier les efforts afin de se doter au plus vite de la bombe.

Sans oublier que les sanctions sont souvent détournées par l’organisation de réseaux de contrebande ou de sociétés écran, et que certains pays désireux d’acquérir l’arme nucléaire peuvent bénéficier de l’aide d’acteurs extérieurs comme la Chine, la Russie ou le Pakistan, pour n’évoquer que la période récente. Ainsi, la Corée du Nord a bénéficié de l’aide de la Russie et de la Chine, le Pakistan a profité d’un large transfert de connaissances de la Chine, et l’Iran de la Russie.

Comment sortir de cette impasse ?

Si la conjoncture géopolitique s’y prêtait, il serait extrêmement utile de tenter de raviver le TNP, et de renforcer les mesures techniques (par l’utilisation de l’IA et du big data ainsi que des drones et robots) afin de permettre à l’AIEA de mieux vérifier que les États respectent leurs engagements internationaux de ne pas détourner leur production nucléaire civile à des fins militaires. Il serait également utile de promouvoir des accords multilatéraux élargis.

Malheureusement, la situation actuelle n’est guère favorable à un tel scénario. La Chine et la Russie se sont lancées dans une politique impériale, les États-Unis veulent maintenir leur imperium et peuvent réélire un président aussi brutal qu’imprévisible en la personne de Donald Trump.

La déstabilisation du Moyen-Orient menace de précipiter la région entière dans la guerre.

Qu’en est-il du droit international ? Jugé par beaucoup de nations comme étant d’extraction occidentale, il ne peut être à l’origine d’un consensus général. La seule orientation imaginable, une fois que les guerres d’Ukraine et de Gaza auront pris fin, serait la réactivation de dialogues stratégiques entre grandes puissances qui pèseront sur les orientations de leurs alliés ou partenaires, et qui, en réaffirmant leurs assurances de sécurité, pourront persuader ceux-ci de ne pas poursuivre dans la voie du nucléaire militaire. Enfin, la diplomatie coercitive, mélange de sanctions et d’offres de coopération, doit être explorée de manière encore plus approfondie.

La prolifération nucléaire, un risque inévitable ? L’avenir pousse au pessimisme. Il apparaît en dernier ressort que seul un apaisement des différentes zones de tension pourrait faire s’estomper le spectre de la prolifération. Sacré défi !The Conversation

>> L’auteur :

Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, Institut catholique de Lyon (UCLy)

Cet article est republié sous licence Creative Commons.

>> Lire l’article original :

The Conversation

Écrans et cerveau des enfants : une exposition préjudiciable pour les apprentissages ? | Cortex Mag

ÉÉcrans et cerveau des enfants : une exposition préjudiciable pour les apprentissages ? | Cortex Mag

Publié en avril 2024, le rapport « Écrans et enfants » a soulevé beaucoup de questions quant à l’impact que leur usage pouvait avoir sur les jeunes. Jérôme Prado, chercheur au Centre de Recherche en Neurosciences de Lyon – CRNL -, nous livre son analyse du sujet en se focalisant sur l’un des impacts potentiels de la consommation d’écrans, objet de son champ d’expertise : le développement cognitif des enfants.

Les écrans sont-ils en train de redéfinir le développement des enfants ? Publié au printemps 2024, le rapport « Enfants et écrans : À la recherche du temps perdu » commandé par le président Emmanuel Macron auprès d’une commission d’experts, a donné lieu à des recommandations aux intonations inquiétantes. Soulignant l’urgence de repenser l’utilisation des technologies numériques chez les enfants et les adolescents, le rapport recommande d’encadrer celui-ci par des limites strictes. Alors que les études sur les liens entre jeunes et écrans sont encore insuffisantes, nous avons cherché à comprendre l’écho médiatique suscité par ce document et les points clefs qu’on pouvait en retenir.

Qu’y a-t-il dans ce rapport ?…

Un article rédigé par Marie Rochas, diplômée du master en neurosciences fondamentales et clinique de l’Université Claude Bernard Lyon 1, et Caroline Depecker, journaliste scientifique, avec l’expertise de Jérôme Prado chercheur au Centre de recherche en neurosciences de Lyon –CRNL

>> Article à lire en intégralité sur :

CORTEX MAG

Données personnelles : rien à cacher, mais beaucoup à perdre | The Conversation

DDonnées personnelles : rien à cacher, mais beaucoup à perdre | The Conversation

Nos données personnelles circulent sur Internet : nom, adresses, coordonnées bancaires ou de sécurité sociale, localisation en temps réel… et les affaires qui y sont liées se font une place pérenne dans le débat public, du scandale Facebook-Cambridge Analytica au vol de données à la Croix-Rouge, en passant par les récents blocages d’hôpitaux par des rançongiciels (ou ransomware) et l’interdiction de l’application TikTok pour les fonctionnaires de plusieurs pays.

Mais si l’on sait de plus en plus que nos données personnelles sont « précieuses » et offrent des possibilités sans précédent en matière de commercialisation et d’innovation, il est parfois difficile de saisir ou d’expliquer pourquoi il faudrait les protéger.

QQuels sont les risques liés à la divulgation de mes données personnelles ?

Le premier risque concerne la perte du contrôle sur nos propres données. C’est ce qui arrive par exemple quand on autorise le traçage par des sites ou des applications : on autorise l’enregistrement de nos activités sur le Web ou sur notre smartphone (pages visitées, géolocalisation) et l’échange de ces données, et, une fois cet accord donné, nous n’avons plus aucun pouvoir sur la circulation de nos données.

Ces informations sont utilisées le plus souvent pour du profilage qui permet d’alimenter l’économie de la publicité personnalisée régie dorénavant par des plates-formes d’enchères valorisant les données relatives aux profils utilisateurs contre des emplacements publicitaires.

Mais, ces informations peuvent également être utilisées à mauvais escient. La connaissance de votre localisation peut aider le passage à l’acte d’un cambrioleur par exemple, et la connaissance de vos centres d’intérêts ou opinion politique peut vous exposer à des opérations d’influence.

Le scandale Cambridge Analytica en est un exemple, avec l’exploitation de données personnelles de millions d’utilisateurs Facebook pour des campagnes de désinformation ciblées afin d’influencer des intentions de vote. Plus récemment, les révélations du Monde sur les entreprises de désinformation indiquent que cette pratique n’est pas un cas isolé.

Un autre risque concerne l’hameçonnage : si des informations personnelles sont présentes dans un courriel ou SMS frauduleux, il vous paraîtra plus réaliste et abaissera vos barrières de vigilance. L’hameçonnage sert souvent à infecter la cible avec un rançongiciel (ransomware en anglais) : les cybercriminels utilisent des informations personnalisées pour gagner la confiance des destinataires et les inciter à ouvrir des pièces jointes, ou à cliquer sur des liens ou documents malveillants, ce qui permet dans un second temps de verrouiller les données de la victime et d’en interdire l’accès. Une rançon est ensuite réclamée pour les déverrouiller.

Bien que les attaques par rançongiciel les plus médiatisées concernent des organisations, des hôpitaux par exemple, les particuliers sont également touchés.

Dans le cas de l’usurpation d’identité, une personne malveillante utilise des informations personnelles qui permettent de nous identifier (« se logger ») sans notre accord : par exemple, en créant un faux profil sur une plate-forme et en rédigeant des commentaires sous l’identité de la victime afin de nuire à sa réputation.

À un autre niveau, la surveillance de masse exercée par certains États capture les informations personnelles de leurs citoyens afin d’entraver la liberté d’expression ou de ficher les individus par exemple. Une surveillance accrue peut tendre vers un sentiment d’absence de sphère privée et ainsi brider le comportement des individus.

En Europe, le RGPD (règlement général sur la protection des données) limite la récolte des données personnelles, notamment par les gouvernements, qui doivent justifier d’une raison suffisante pour toute surveillance.

CChacun d’entre nous a une empreinte numérique unique

Ces problèmes touchent chacun d’entre nous. En effet, dans un monde de plus en plus numérique où nous générons quotidiennement des données à travers notre navigation sur Internet, nos smartphones, ou nos montres connectées, nous avons tous une « empreinte numérique unique ».

En clair, il est généralement possible de ré-identifier quelqu’un juste à partir des « traces » que nous laissons derrière nous sur nos appareils numériques.

une empreinte digitale à la craie

Nos données personnelles permettent de nous identifier, comme une empreinte digitale numérique. Immo Wegmann/Unsplash, CC BY

Par exemple, l’observation aléatoire de quatre lieux visités seulement représente une signature unique pour 98 % des individus. Cette unicité est généralisable dans un grand nombre de comportements humains.

Cacher l’identité du propriétaire de données personnelles uniquement derrière un pseudonyme n’est pas une protection suffisante face au risque de réidentification, il est nécessaire d’anonymiser les données.

DDonnées synthétiques, apprentissage fédéré : les nouvelles méthodes pour protéger les données personnelles

Tels les membres d’un « black bloc » essayant d’être indistinguables entre eux en s’habillant de manière identique dans une manifestation houleuse, l’anonymisation de données a pour but d’éviter qu’une personne ne se démarque du reste de la population considérée, afin de limiter l’information qu’un cyberattaquant pourrait extraire.

Dans le cas de données de géolocalisation, on pourrait par exemple modifier les données afin que plusieurs utilisateurs partagent les mêmes lieux visités, ou alors introduire du bruit pour ajouter une incertitude sur les lieux réellement visités.

Mais cette anonymisation a un coût car elle « déforme » les données et diminue leur valeur : une trop grande modification des données brutes dénature l’information véhiculée dans les données anonymisées. De plus, pour s’assurer de l’absence d’une empreinte réidentifiante, les modifications nécessaires sont très importantes et souvent incompatibles avec nombre d’applications.

Trouver le bon compromis entre protection et utilité des informations anonymisées reste un challenge. À l’heure où certains voient les données comme le nouveau pétrole du XXIe siècle, l’enjeu est de taille car une donnée anonyme n’est plus considérée comme une donnée personnelle et échappe au RGPD, ce qui veut dire qu’elle peut être partagée sans consentement du propriétaire.

Cette difficulté de trouver un compromis acceptable entre protection et utilité des données au travers de mécanismes d’anonymisation a fait évoluer les pratiques. De nouveaux paradigmes de protection des données personnelles ont vu le jour.

Une première tendance consiste à générer des données synthétiques reproduisant les mêmes propriétés statistiques que les vraies données.

Ces données générées de manière artificielle ne sont par conséquent pas liées à une personne et ne seraient plus encadrées par le RGPD. Un grand nombre d’entreprises voient en cette solution des promesses de partage d’information moins limitées. En pratique, les risques résiduels des modèles de génération synthétique ne sont pas négligeables et sont encore à l’étude.

Une autre solution limitant le risque de partage de données personnelles est l’apprentissage fédéré. Dans l’apprentissage machine conventionnel, les données sont centralisées par une entité pour entraîner un modèle.

Dans l’apprentissage fédéré, chaque utilisateur se voit attribuer un modèle qu’il entraîne localement sur ses propres données. Il envoie ensuite le résultat à une entité qui s’occupe d’agréger l’ensemble des modèles locaux. De manière itérative, cet apprentissage décentralisé permet de créer un modèle d’apprentissage sans divulguer de données personnelles.

Ce nouveau paradigme de protection des données personnelles suscite beaucoup d’engouement. Cependant, plusieurs limitations subsistent, notamment sur la robustesse face aux acteurs malveillants qui souhaiteraient influencer le processus d’entraînement. Un participant pourrait par exemple modifier ses propres données pour que le modèle se trompe lors d’une tâche de classification particulière.The Conversation

 

Publié  sur The Conversation le 29 mars 2023

Auteur : Antoine Boutet, Maitre de conférence, Privacy, IA, au laboratoire CITI, Inria, INSA Lyon – Université de Lyon

Cet article est republié à partir de The Conversation sous licence Creative Commons.

>> Lire l’article original :

The conversation

>> Cet article a été actualisé le 28 octobre 2024 : 

L’opérateur mobile et fournisseur d’accès internet Free a annoncé avoir été victime d’une cyberattaque. Selon l’entreprise : « cette attaque a entraîné un accès non autorisé à une partie des données personnelles ».  Quels sont les risques si vos données ont fuité ?

Lire l’article actualisé :

The Conversation

Comment sont élaborés les simulateurs d’empreinte carbone ?

CComment sont élaborés les simulateurs d’empreinte carbone ?

Alors que Paris accueillait les Jeux Olympiques et Paralympiques 2024, Laetitia Guérout, élève-ingénieure au département biotechnologies et bioinformatique, et stagiaire chez WeCount, a contribué au développement d’un calculateur d’empreinte carbone destiné aux supporters.

Cet outil pédagogique permet de mesurer les émissions de CO2 liées aux transports, à l’alimentation et à l’hébergement pour se rendre aux Jeux. L’objectif ? Profiter du tremplin exceptionnel que sont les Jeux Olympiques et Paralympiques de Paris 2024 pour éduquer un maximum de spectateurs au sujet de la lutte contre le changement climatique et déclencher l’envie d’agir. « L’objectif n’étant pas de culpabiliser les spectateurs, mais bel et bien de pouvoir leur apporter des connaissances et des clés d’action », explique l’étudiante.

>Simulateur d’empreinte carbone individuelle : comment sont-ils élaborés ?

Laetitia GuéroutOutil de sensibilisation idéal du grand public, le simulateur d’empreinte carbone permet de prendre conscience des usages individuels qui contribuent le plus au changement climatique, et de découvrir les actions qui auraient le plus d’impact pour réduire son bilan carbone. La prise en main se veut facile, rapide et ludique.  « C’est un questionnaire qui permet de calculer en quelques minutes les émissions associées à différents postes comme le transport, l’alimentation, ou encore l’hébergement », introduit Laetitia Guérout. Basé sur des facteurs d’émissions provenant d’une base de données de l’ADEME, le calculateur estime ainsi un équivalent en kg ou tonnes de CO2 émis. « Le CO2 n’est bien sûr pas le seul gaz à effet de serre émis par les activités humaines, cependant, ramener le calcul à un équivalent en tonnes de CO2 pose un chiffre sur le concept parfois flou que sont les émissions de gaz à effet de serre. Cela le rend plus concret dans l’esprit des gens. Grâce à ces facteurs d’émission et aux réponses de l’utilisateur à un panel de questions simples, le simulateur affiche un impact chiffré. Et surtout, à l’issue du questionnaire, l’utilisateur dispose de pistes d’actions lui permettant d’agir sur son empreinte carbone et de la réduire. S’il souhaite aller plus loin, des ressources sont également mises à sa disposition pour en apprendre davantage sur le sujet. C’est un outil de sensibilisation et de mise en action assez puissant», poursuit l’étudiante de l’INSA Lyon en stage chez WeCount.

>Le cas des JO 2024 : le poste des transports

À l’occasion des Jeux Olympiques et Paralympiques 2024, Laetitia Guérout a participé à l’élaboration de celui-ci d’une plateforme dédiée à l’évènement mondial. « Un calculateur d’empreinte carbone qui cible un évènement particulier ne considère pas exactement les mêmes postes d’émission qu’un calculateur d’empreinte carbone lié aux activités quotidiennes, même si certains postent se retrouvent presque systématiquement comme le transport ou l’alimentation. »
En premier lieu, le développement de l’outil a donc nécessité un important travail de définition du périmètre de calcul. « Il faut réussir à ne pas oublier de poste d’émission important, tout en n’alourdissant pas trop le questionnaire pour qu’il reste rapide et simple à remplir. L’idée est donc de cibler (…)

>> Lire l’article sur le site :

insa

Amérique latine : ruptures politiques récurrentes, inégalités sociales persistantes | The Conversation

AAmérique latine : ruptures politiques récurrentes, inégalités sociales persistantes | The Conversation

Les pays d’Amérique latine connaissent régulièrement des alternances politiques mouvementées, qui à la fois s’inscrivent dans les dynamiques sociales en cours sur le continent et les influencent. Un ouvrage collectif qui vient de paraître aux Presses de l’Université de Rennes, Alternances critiques et dominations ordinaires en Amérique latine, s’efforce d’éclairer l’entrelacement entre le politique et le social, à travers neuf enquêtes mêlant approches « par le haut » et « par le bas ». Nous vous proposons ici un extrait de l’introduction, où les quatre spécialistes ayant dirigé cette publication expliquent les interrogations à l’origine du livre et les méthodes employées pour y apporter des réponses.

Depuis la Révolution cubaine de 1959, l’Amérique latine est souvent pensée à travers les évènements et faits d’armes les plus spectaculaires qui jalonnent son histoire politique. Vastes mobilisations protestataires et insurrections, guérillas et révolutions, coups d’État et dictatures militaires rythment les dernières décennies.

En Europe, en partie du fait d’un rapport à la région pétri d’un « exotisme familier » (c’est-à-dire où la proximité linguistique et plus généralement culturelle tend à donner l’illusion d’une meilleure prise sur les réalités du terrain), les représentations les plus ordinaires de la politique latino-américaine sont souvent bien plus tranchées que s’agissant d’autres régions du monde. Entre le poids des certitudes et la force des émotions, les bouleversements réguliers des scènes politiques outre-Atlantique déchaînent les passions et polarisent les discours politico-médiatiques, militants et académiques.

À partir du milieu des années 1990, dans un contexte de luttes contre des gouvernements néolibéraux, cette dialectique de fascination-répulsion s’est intensifiée. Ces luttes ont pris de multiples visages : des résistances indigènes centre-américaines à celles des pays andins en passant par les paysans Sans-terre brésiliens, les combats des chômeurs (piqueteros) et travailleurs argentins ; de la fondation de communautés zapatistes du Chiapas (Mexique) aux processus constituants et « révolutions » se réclamant du « socialisme du XXIe siècle » (Venezuela, Bolivie, Équateur), en passant par la démocratie participative à Porto Alegre (Brésil). Populistes sinon autoritaires pour les uns, démocrates et émancipateurs pour les autres, les mouvements associés au « tournant à gauche » des années 2000 ont ainsi suscité des réactions contrastées. À partir de 2015, on a assisté à un « virage à droite » qui a entraîné son lot de réactions symétriquement inverses.

Enfin, ces dernières années, d’immenses mobilisations féministes (Argentine, Chili) et des protestations antigouvernementales multiformes ont émaillé la région (Venezuela, Nicaragua, Chili, Équateur, Bolivie, Colombie). Ce contexte de polarisation a reconduit les politiques et médias européens dans leur enclin à la romantisation ou au dénigrement des acteurs politiques latino-américains du moment.

Au demeurant, force est de constater que malgré la fréquence des reconfigurations partisanes et des entreprises charismatiques prétendant conjurer une instabilité économique et politique chronique, la région reste des plus inégalitaires et violente au monde. Les injustices de classe, les tensions raciales et les violences patriarcales se perpétuent. Ainsi, par-delà les multiples formes qu’emprunte le politique, les structures sociales de domination demeurent relativement stables. C’est là le constat paradoxal qui est au fondement de nos réflexions.

Identifier et penser ensemble alternances critiques et dominations ordinaires

Si la recherche en sciences sociales n’est pas toujours étanche à la polarisation suscitée par la politique latino-américaine, elle a pu suivre deux tendances analytiques principales pour interpréter les évolutions régionales des dernières décennies.

La première donne une place centrale à la caractérisation de la nature des régimes politiques. Depuis les années 1980, les « transitions démocratiques » et « sorties de conflit » ont fait l’objet de travaux sur les transformations des institutions qui les accueillent, la qualité ou stabilité de leurs « performances » et les adaptations des populations au rôle de citoyen actif dans de nouvelles démocraties, plus ou moins libérales.

À partir des années 2000, une série d’analyses « par le haut » se sont penchées sur les crises et les alternances vécues dans différents pays, les cadres sociaux produits par les réformes néolibérales des années 1980 et 1990, l’arrivée de gouvernements progressistes au pouvoir à la suite d’une vague de mouvements sociaux, les « populismes ». À l’étude de modes de gouvernance « progressistes » devenus de moins en moins pluralistes – voire autoritaires –, a succédé celle des retours des droites dans certains pays et de leur très grande hétérogénéité, de ses variantes libérales plus classiques aux formes plus conservatrices ou réactionnaires, sinon fascisantes. Si ces travaux informent sur les variables et tendances macrosociologiques qui traversent ces sociétés, ils peuvent écraser, sous le poids de catégories générales (et en particulier celles de classification de régimes), la complexité de phénomènes dont les logiques dépassent celles des soubresauts politiques conjoncturels.

Une deuxième perspective de recherches explore plutôt les différentes évolutions politiques, économiques et sociales des sociétés latino-américaines à partir de l’observation d’acteurs non institutionnels et au moyen d’une approche « par le bas ». Si ces analyses ne prétendent pas faire l’économie de l’étude du champ politique et de son influence sur la société et son devenir, elles se préoccupent avant tout d’observer de près des dynamiques construites par d’autres acteurs, en général sous les angles de la « participation » et des mobilisations collectives protestataires. Il s’agit là d’un éventail large et pluriel de travaux qui s’emploient à saisir le gouvernement du social, ses résiliences et mutations, à partir de ses expressions hétérogènes dans l’expérience concrète de groupes pour la plupart dominés. Ces analyses tendent toutefois à ne pas prendre parti – ou seulement implicitement – quant à la théorisation de l’évolution des structures de domination. La montée en généralité est d’autant plus difficile que les terrains dits « subalternes » sont souvent cantonnés à des productions monographiques. L’un dans l’autre, on assiste souvent à une validation tacite des cadres analytiques macrosociaux préexistants en termes de classification de régimes et, par extension, de leur superposition avec les clivages gauche/droite et des biais qu’ils tendent à reproduire.

Ainsi, s’il nous apparaît nécessaire de prendre appui sur ces traditions de recherche, c’est avec l’objectif de les questionner et de les approfondir conjointement. On constate en effet que les sociétés de la région font régulièrement l’expérience d’alternances gouvernementales que l’on peut qualifier de critiques. Critiques, d’abord, au sens où celles-ci sont communément assimilées à des ruptures plus ou moins radicales avec le passé, qu’elles prennent la forme de « refondations » ou de « durcissements de régime », « révolutions » ou « contre-révolutions ». Critiques, ensuite, car ces alternances ont très souvent lieu à la suite de moments de crise politique plus ou moins intense, quand des leaders et gouvernements nouvellement élus prétendent traduire, aménager ou au contraire conjurer les revendications protestataires qui ont émergé au cours des crises. Critiques, enfin, parce qu’en certains cas elles débouchent assez rapidement sur de nouvelles crises ouvertes.

Or, quelles que soient les formes qu’elles aient revêtues, ces alternances critiques n’ont que marginalement affecté les logiques ordinaires d’exploitation et de domination dans la région. Quoique selon des modalités et avec des temporalités diverses d’un pays à l’autre, on constate la reproduction de structures économiques et sociales profondément inégalitaires, dans lesquelles l’accumulation de richesses par les uns produit l’exclusion des autres. Aussi, ces continuités ont pu prendre place au sein de cadres juridicopolitiques de moins en moins pluralistes. Il s’agit là d’une dynamique qui transcende largement les clivages partisans entre gouvernants des pays de la région.

Cet extrait est issu de « Alternances critiques et dominations ordinaires en Amérique latine », sous la direction de Fabrice Andréani, Yoletty Bracho, Lucie Laplace et Thomas Posado. Éditions des Presses universitaires de Rennes

Pour une approche pluridisciplinaire et ethnographique des alternances et dominations

Pour saisir les alternances critiques et leurs relations aux dominations ordinaires, une approche pluridisciplinaire et empirico-inductive basée sur une recherche de terrain de type ethnographique est essentielle. Différentes traditions de recherches en sciences sociales peuvent être mobilisées pour parvenir à cette fin : les travaux portant sur l’analyse des régimes politiques, des crises et des transformations institutionnelles, les recherches sur l’État et les politiques publiques, les travaux sur les organisations politiques et l’action collective dans ses diverses expressions syndicales et contestataires, les recherches sur les inégalités et leurs conséquences quotidiennes sur individus, les groupes sociaux et les espaces.

Plusieurs disciplines, dont les frontières divergent selon les pays et dans le temps, ont un apport significatif sur plusieurs de ces thématiques sur les terrains latino-américains. Pour certaines, ces thématiques renouvellent leurs recherches, à l’instar de l’anthropologie, de l’histoire, de l’économie, du droit au travers de questions de recherche somme toute très proches, voire parfois au travers d’approches interdisciplinaires qui décloisonnent les savoirs et les compétences. Le point de rencontre entre ces différentes disciplines, qui permet de proposer un regard pluridisciplinaire sur les alternances critiques et les dominations ordinaires en Amérique latine est la pratique de l’ethnographie en tant que méthode de recherche.

En effet, les divers travaux réunis dans cet ouvrage se construisent à partir d’enquêtes de terrain dans lesquelles les différents chercheurs ont observé et parfois participé à construire les dynamiques sociales qu’ils se sont proposé d’étudier. Si la relation au terrain est une question centrale, c’est aussi la manière dont elle pèse sur le choix des catégories d’analyse et la définition des problématiques de recherche qui nourrit la réflexion collective. Ainsi se pose la question de la circulation de méthodologies et de connaissances. Les manières d’entrer et d’exister sur le terrain de part et d’autre de l’Atlantique dialoguent entre elles pour saisir ce que le politique fait au social.

Enfin, notre attention toute particulière aux dominations ordinaires est pour partie nourrie par l’approche intersectionnelle. Conscients des croisements des diverses formes de domination, et des spécificités de chaque forme d’hybridation possible des minorations par la classe, la race et le genre, nous concevons les dominations ordinaires comme agissant en système, tout en étant dépendantes de contextes spécifiques. Dans ce sens, les diverses expectatives propres aux périodes de crise et d’alternance politique sont une variable importante pour la compréhension des évolutions de ces phénomènes de domination, d’altérisation et de minoration.The Conversation

> Les auteur.e.s

Fabrice Andréani, Doctorant en science politique Univ. Lyon 2 (Triangle). Chargé de cours, AUP & Paris 8, Université Lumière Lyon 2 ;

Lucie Laplace, étudiante en science politique – Amérique latine – migrations, Université Lumière Lyon 2 ;

Thomas Posado, maître de conférences en civilisation latino-américaine contemporaine, Université de Rouen Normandie ;

Yoletty Bracho, maîtresse de conférences contractuelle en science politique, Université d’Avignon

Cet article est republié sous licence Creative Commons.

>> Lire l’article original :

The Conversation

Depuis Garry Kasparov contre Deep Blue, ce que nous apprend l’histoire des échecs sur les risques de l’IA | The Conversation

DDepuis Garry Kasparov contre Deep Blue, ce que nous apprend l’histoire des échecs sur les risques de l’IA | The Conversation

En 1997, le champion du monde d’échecs Garry Kasparov perd pour la première fois de l’histoire un match face à un ordinateur, Deep Blue. Cet événement historique pour le jeu comme pour l’informatique est aujourd’hui porté à l’écran dans une minisérie d’Arte, Remacth. 27 ans plus tard, qu’est-ce que la défaite de l’humain contre la machine nous a appris, et ces leçons peuvent-elles éclairer l’arrivée massive de l’IA dans nos vies ?

Les récents progrès de l’intelligence artificielle (IA), comme le développement des IA génératives avec l’apparition de ChatGPT en novembre 2022, ont soulevé beaucoup d’interrogations, d’espoirs, et de craintes. Courant printemps 2023, le Congrès américain a auditionné OpenAI, la société ayant développé ChatGPT et l’Union européenne vient d’adopter son premier texte législatif au sujet de l’IA.

Dans les parlements comme sur les réseaux sociaux, les rapides progrès de l’IA animent les discussions. À l’avenir, à quels impacts faut-il s’attendre sur notre société ? Pour tenter de répondre à cette question de manière dépassionnée, nous proposons de regarder ce qui s’est passé dans un secteur qui a déjà connu l’arrivée et la victoire de l’IA sur les capacités humaines : les échecs. La machine y a en effet un niveau supérieur à celui des humains depuis maintenant plus d’un quart de siècle.

Pourquoi le jeu d’échecs comme indicateur ?

Depuis les débuts de l’informatique, les échecs ont été utilisés comme un indicateur des progrès logiciels et matériels. C’est un jeu intéressant à de multiples niveaux pour étudier les impacts des IA sur la société :

  • C’est une activité intellectuelle qui demande différentes compétences : visualisation spatiale, mémoire, calcul mental, créativité, capacité d’adaptation, etc., compétences sur lesquelles l’IA vient concurrencer l’esprit humain.
  • Le jeu n’a pas changé depuis des siècles. Les règles sont bien établies et cela donne une base stable pour étudier l’évolution des joueurs.
  • Il est possible de mesurer la force des machines de manière objective et de comparer ce niveau à celui des humains avec le classement Elo.
  • Le champ d’études est restreint : il est clair que les échecs ne sont qu’un tout petit aspect de la vie, mais c’est justement le but. Cette étroitesse du sujet permet de mieux cibler les impacts des IA sur la vie courante.
  • Les IA ont dépassé le niveau des meilleurs joueurs humains depuis plus de 20 ans. Il est donc possible de voir quels ont été les impacts concrets sur le jeu d’échecs et la vie de sa communauté, qui peut être vue comme un microcosme de la société. On peut également étudier ces impacts en regard de la progression des IA au cours du temps.

Explorons quelles ont été les évolutions dans le monde des échecs depuis que Garry Kasparov, alors champion du monde en titre, a perdu une partie contre Deep Blue en 1996, puis le match revanche joué en 1997. Nous allons passer en revue plusieurs thèmes qui reviennent dans la discussion sur les risques liés aux IA et voir ce qu’il en a été de ces spéculations dans le domaine particulier des échecs.

Les performances de l’IA vont-elles continuer à augmenter toujours plus vite ?

Il existe deux grandes écoles pour programmer un logiciel d’échecs : pendant longtemps, seule la force brute fonctionnait. Il s’agissait essentiellement de calculer le plus vite possible pour avoir un arbre de coups plus profonds, c’est-à-dire capable d’anticiper la partie plus loin dans le futur.

Un arbre des coups : une situation initiale, 3 positions possibles au coup d’après, puis pour chaque position encore 3 possibilités

À partir d’une position initiale, l’ordinateur calcule un ensemble de possibilités, à une certaine profondeur, c’est-à-dire un nombre de coups futurs dans la partie. | ©BY-SA Chris Butner

 

Aujourd’hui, la force brute est mise en concurrence avec des techniques d’IA issues des réseaux de neurones. En 2018, la filiale de Google DeepMind a produit AlphaZero, une IA d’apprentissage profond par réseau de neurones artificiels, qui a appris tout seul en jouant contre lui-même aux échecs. Parmi les logiciels les plus puissants de nos jours, il est remarquable que LC0, qui est une IA par réseau de neurones, et Stockfish, qui est essentiellement un logiciel de calcul par force brute, aient tous les deux des résultats similaires. Dans le dernier classement de l’Association suédoise des échecs sur ordinateur (SSDF), ils ne sont séparés que de 4 points Elo : 3 582 pour LC0 contre 3 586 pour Stockfish. Ces deux manières totalement différentes d’implanter un moteur d’échecs sont virtuellement indistinguables en termes de force.

En termes de points Elo, la progression des machines a été linéaire. Le graphique suivant donne le niveau du meilleur logiciel chaque année selon le classement SSDF qui a commencé depuis le milieu des années 1980. Le meilleur logiciel actuel, LC0, en est à 3586, ce qui prolonge la figure comme on pourrait s’y attendre.

Cette progression linéaire est en fait le reflet d’une progression assez lente des logiciels. En effet, le progrès en puissance de calcul est, lui, exponentiel. C’est la célèbre loi de Moore qui stipule que les puissances de calcul des ordinateurs doublent tous les dix-huit mois.

Cependant, Ken Thompson, informaticien américain ayant travaillé dans les années 80 sur Belle, à l’époque le meilleur programme d’échecs, avait expérimentalement constaté qu’une augmentation exponentielle de puissance de calcul conduisait à une augmentation linéaire de la force des logiciels, telle qu’elle a été observée ces dernières dizaines d’années. En effet, le fait d’ajouter un coup supplémentaire de profondeur de calcul implique de calculer bien plus de nouvelles positions. On voit ainsi que l’arbre des coups possibles est de plus en plus large à chaque étape.

Les progrès des IA en tant que tels semblent donc faibles : même si elles ne progressaient pas, on observerait quand même une progression de la force des logiciels du simple fait de l’amélioration de la puissance de calcul des machines. On ne peut donc pas accorder aux progrès de l’IA tout le crédit de l’amélioration constante des ordinateurs aux échecs.

La réception par la communauté de joueurs d’échecs

Avec l’arrivée de machines puissantes dans le monde des échecs, la communauté a nécessairement évolué. Ce point est moins scientifique mais est peut-être le plus important. Observons quelles ont été ces évolutions.

« Pourquoi les gens continueraient-ils de jouer aux échecs ? » Cette question se posait réellement juste après la défaite de Kasparov, alors que le futur des échecs amateurs et professionnels paraissait sombre. Il se trouve que les humains préfèrent jouer contre d’autres humains et sont toujours intéressés par le spectacle de forts grands maîtres jouant entre eux, et ce même si les machines peuvent déceler leurs erreurs en temps réel. Le prestige des joueurs d’échecs de haut niveau n’a pas été diminué par le fait que les machines soient capables de les battre.

Le style de jeu a quant à lui été impacté à de nombreux niveaux. Essentiellement, les joueurs se sont rendu compte qu’il y avait beaucoup plus d’approches possibles du jeu qu’on le pensait. C’est l’académisme, les règles rigides, qui en ont pris un coup. Encore faut-il réussir à analyser les choix faits par les machines. Les IA sont par ailleurs très fortes pour pointer les erreurs tactiques, c’est-à-dire les erreurs de calcul sur de courtes séquences. En ligne, il est possible d’analyser les parties de manière quasi instantanée. C’est un peu l’équivalent d’avoir un professeur particulier à portée de main. Cela a sûrement contribué à une augmentation du niveau général des joueurs humains et à la démocratisation du jeu ces dernières années. Pour le moment, les IA n’arrivent pas à prodiguer de bons conseils en stratégie, c’est-à-dire des considérations à plus long terme dans la partie. Il est possible que cela change avec les modèles de langage, tel que ChatGPT.

Les IA ont aussi introduit la possibilité de tricher. Il y a eu de nombreux scandales à ce propos, et on se doit de reconnaître qu’il n’a pas à ce jour de « bonne solution » pour gérer ce problème qui rejoint les interrogations des professeurs qui ne savent plus qui, de ChatGPT ou des étudiants, leur rendent les devoirs.

Conclusions temporaires

Cette revue rapide semble indiquer qu’à l’heure actuelle, la plupart des peurs exprimées vis-à-vis des IA ne sont pas expérimentalement justifiées. Le jeu d’échecs est un précédent historique intéressant pour étudier les impacts de ces nouvelles technologies quand leurs capacités se mettent à dépasser celles des humains. Bien sûr, cet exemple est très limité, et il n’est pas possible de le généraliser à l’ensemble de la société sans précaution. En particulier, les modèles d’IA qui jouent aux échecs ne sont pas des IA génératives, comme ChatGPT, qui sont celles qui font le plus parler d’elles récemment. Néanmoins, les échecs sont un exemple concret qui peut être utile pour mettre en perspective les risques associés aux IA et à l’influence notable qu’elles promettent d’avoir sur la société.The Conversation

>> L’auteur :

Frédéric Prost, Maître de conférences en informatique, INSA Lyon – Université de Lyon

Cet article est republié sous licence Creative Commons.

>> Lire l’article original :

The Conversation

Les stations thermales doivent se réinventer pour survivre à la crise énergétique | The Conversation

LLes stations thermales doivent se réinventer pour survivre à la crise énergétique | The Conversation

Près de la moitié des stations thermales chauffent leur eau, ce qui génère des dépenses énergétiques considérables. Pour éviter cela, à l’heure où de plus en plus de stations sont obligées de fermer suite à la hausse des tarifs de l’électricité, la géothermie est une piste prometteuse.

En avril 2023, le centre thermal de Camoins-les-Bains, à Marseille, annonçait sa fermeture définitive après deux siècles de fonctionnement. Derrière cette nouvelle locale se cache en fait les répercussions inattendues de la crise énergétique mondiale que nous traversons, marquée par des hausses de tarifs du gaz et de l’électricité impactant les activités économiques françaises. Le thermalisme n’en est pas exclu, le propriétaire du centre de Camoins-les-Bains, expliquant la décision de fermer cette institution du thermalisme marseillais par l’important déficit d’exploitation lié en grande partie à l’augmentation du coût de l’énergie gaz et électricité qui a été multiplié par quatre.

Même constat à Budapest, ville emblématique du thermalisme, avec des bains visités chaque année par des millions de touristes, mais où les prix de l’énergie ont fait augmenter les coûts d’exploitation des thermes de 170 % entre 2023 et 2022. Pour y faire face, différentes mesures d’économies sont mises en place (service réduit, bassins extérieurs recouvertes, augmentation des tarifs…).

Un secteur d’activité vital pour les communes rurales et petites villes

En France, ce vent mauvais qui touche le secteur thermal inquiète car il fait travailler, directement ou non un nombre non négligeable de personne et demeure une partie importante de l’identité de certaine commune.

La France est de fait au troisième rang européen en nombre d’établissements thermaux avec 115 thermes sur 89 communes. Le secteur national pèse pour 10 000 emplois directs et 40 000 emplois indirects (hébergement, restauration…) pour une fréquentation de 457 000 curistes en 2023.

Le thermalisme est de surcroit une activité qui permet le développement du territoire, car il s’agit majoritairement d’espaces ruraux et montagnards, où l’économie est peu diversifiée, voire en situation de mono-activité. Près de 70 % des communes thermales font moins de 5 000 habitants et concentrent près de 54 % de la fréquentation nationale.

Près de la moitié des établissements doivent chauffer leurs eaux

Pour comprendre comment ce secteur d’activité, discret et peu connu, peut être autant affecté par le coût de l’énergie, commençons par rappeler plusieurs choses. D’abord un établissement thermal ne rime pas systématiquement avec eau chaude. Près de la moitié doivent même chauffer leurs eaux.

Fourni par l’auteur ©Guillaume Pfund

Aujourd’hui encore, la dénomination thermale regroupe à la fois des lieux alimentés en Eau Minérale Naturelle (EMN) naturellement chaudes, mais aussi froides ou tièdes, devant être réchauffées artificiellement. Il existe donc un large éventail de situations locales allant des thermes de Chaudes-Aigues, dans le Cantal, avec des émergences à 82 °C, et les thermes de Contrexéville, dans les Vosges qui utilisent un captage d’eau froide à 11 °C.

Sur l’ensemble des 706 captages d’eaux minérales naturelles exploitées par les usages économiques en France, près de la moitié des sources sont des eaux dites hypothermales (inférieur à 20 °C). Le reste des sources sont pour un quart des eaux chaudes (entre 30 et 50 °C), et à part égale des eaux tièdes (entre 20 et 29 °C) et hyperthermale (supérieur à 50 °C). Les eaux naturellement chaudes, supérieures à 30 °C ne représentent donc que 38 % des émergences exploitées. Cette tendance est cependant renforcée pour les sources utilisées par l’usage thermal. Sur les 259 émergences qui alimentent un établissement thermal, un tiers sont des eaux froides (inférieures à 20 °C), 15 % sont tièdes (20-29 °C), un tiers sont chaudes (30-50 °C) et 20 % sont hyperthermales supérieures à 50 °C.

Fourni par l’auteur ©Guillaume Pfund

Cette situation montre qu’à minima près de 45 % des établissements thermaux doivent donc chauffer les eaux thermales dans les bassins et pour les soins. L’impact est d’autant plus significatif que le premier poste de charge pour les établissements thermaux concerne le chauffage de l’eau, dans un contexte global d’équilibre d’exploitation qui reste fragile.

Une occasion pour développer la géothermie ?

Dans le contexte actuel de crise énergétique mondiale, les établissements thermaux doivent donc se réinventer pour survivre. La géothermie basse température est peut être une partie de la solution. Les 63 d’établissement thermaux disposant d’une ressource en eau naturellement chaude pourraient sembler avantagés à mettre en place un système de récupération des calories. Mais dans les faits, très peu de sites ont mis en place de tels dispositifs qui permettent pourtant de couvrir la totalité des besoins en chaleur (chauffage, la production d’eau chaude sanitaire, ainsi que le réchauffement et le maintien de la température des bassins en eau).

Fourni par l’auteur ©Guillaume Pfund

Ainsi, le complexe thermal de Chaudes Aigues (Cantal) inauguré en 2009, qui exploite la source du Par à 82 °C, la plus chaude d’Europe, n’a pas intégré la géothermie basse énergie. À l’inverse, la commune de Saint Gervais, en Haute Savoie, a intégré il y a une quinzaine d’années une valorisation des calories de l’eau à 39 °C dès 2009 pour remplacer la chaudière au gaz. Grâce à cet investissement, la réduction annuelle de charge d’exploitation est de l’ordre de 122 000€, pour un investissement initial de 350 000 € dont 60 % de subvention par l’Ademe et la Région.

De la même manière, les thermes de Luchon, en Haute-Garonne ont installé, il y a huit ans un système d’échangeur thermiques sur les sources Pré et Reine, ce qui permet une réduction des charges de 200 000€ par an.

Une pratique de la géothermie plus ancienne qu’il n’y parait

Mais l’on retrouve des chantiers bien plus anciens d’utilisation de la géothermie dans des établissements pour curistes. Elle a ainsi été mobilisée par les thermes de Lavey-les-Bains, dans le canton de Vaud en Suisse, depuis 1970 grâce à une eau thermale à 62 °C. Si le système couvrait seulement 40 % des besoins de chaleur de 1970 à 1992, la nouvelle installation inaugurée en 2000 permet une autonomie complète. L’antériorité de ce type de projet en Suisse est directement liée aux actions de l’Office fédéral de l’énergie (OFEN), qui a étudié dès 1992 les moyens d’optimiser la ressource géothermique.

La géothermie basse énergie (30-89 °C) est également une solution valorisée par des usages dédiés en France depuis longtemps (serres végétales, chauffage urbain, etc…). Sur la commune de Chaudes-Aigues (Cantal), la valorisation des calories de l’eau thermale par un réseau de chaleur pour des habitations est attestée depuis 1332, avant l’apparition de l’usage thermal au XIXe siècle.

Jusqu’en 2004, une centaine d’habitations étaient ainsi chauffées grâce à l’eau chaude des sources. Désormais orientée en priorité pour l’usage thermal, aujourd’hui, seulement une trentaine de maisons bénéficient de ce chauffage urbain. Mais le trop-plein des thermes est valorisé pour chauffer l’église, la piscine municipale et le collège. A Dax, dans le département des Landes, entre 1940 et 1990, la ville a alimenté en eau thermale naturellement chaude près de 1 600 abonnés particuliers du centre-ville. La diminution des prélèvements d’eau thermale de 40 %, a également permis une remontée de température de 14 °C aux émergences et de prioriser les usages économiques et d’intérêt public (thermes, centre aquatique, Lycée Borda, piscine et des serres municipales).

Assez peu développé en France, les projets de géothermie basse énergie émergent au moment des crises énergétiques. C’est le cas entre 1961 et 1980 par exemple. Mais aujourd’hui, sur les 112 forages profonds dédiés en France, seulement 34 installations géothermales basse énergie sont en fonctionnement dans le Bassin parisien et le Bassin aquitain (Bordeaux, Mont-de-Marsan, Dax).

Différents projets émergent à nouveau sur les communes thermales. C’est le cas de l’écoquartier des Rives de l’Allier à Vichy, de l’écoquartier de la Duranne à Aix-en-Provence, ou du projet de micro-centrale géothermique à Chaudes Aigues.

Plus que jamais, la valorisation des calories des émergences d’eau naturellement chaude par un système de géothermie basse température est une opportunité à saisir pour plus de la moitié des établissements thermaux français. Pour les autres, la capacité de résilience est à rechercher ailleurs comme c’est le cas à Vals-les-Bains) avec la mise en place de plusieurs solutions notamment, des travaux d’isolation, l’installation de pompe à chaleur, et le recyclage de la chaleur des eaux usées.The Conversation

>> L’auteur :

Guillaume Pfund, Docteur en Géographie Economique associé au laboratoire de recherche EVS, Université Lumière Lyon 2

Cet article est republié sous licence Creative Commons.

>> Lire l’article original :

The Conversation

Faire face aux maladies de société

FFaire face aux maladies de société

Selon les données du 6e rapport du GIEC, le changement climatique est la plus grande menace pour la santé humaine. Maladies cardiovasculaires causées par les hausses des températures, maladies respiratoires liées à la pollution atmosphérique, maladies animales transmissibles à l’homme causées par l’effondrement de la biodiversité et l’agriculture intensive, ou encore problèmes de santé mentale, avec le développement de troubles anxieux et des traumatismes causés par les catastrophes naturelles.

Toutes ces maladies de société ont un trait commun : « Elles sont intrinsèquement liées aux nouveaux modes de vie de nos sociétés industrialisées. C’est un constat difficile, dont il ne faut pas se détourner », ont affirmé Marianne Chouteau et Adina Lazar, enseignantes chercheuses à l’INSA Lyon. À l’occasion du deuxième séminaire « Let’s look up! » en mai dernier, le collectif de chercheurs et d’enseignants-chercheurs de l’INSA Lyon et de l’Université Lyon 1 ont exploré cette thématique.

>> Le cas des zoonoses
Les dernières décennies ont montré une accélération dans l’émergence de zoonoses, ces maladies qui passent de l’animal à l’homme. Déjà identifié depuis le Néolithique, il est désormais connu que ce mécanisme de contamination peut être à l’œuvre dans différents cas : lors d’un contact direct avec un animal contaminé ; par l’intermédiaire de l’environnement (eau, sols) ; par l’intermédiaire d’un animal vecteur ; ou encore par la consommation d’aliments d’origine animale contaminés. C’est avec la présentation détaillée de cette pathologie bovine que débute la présentation de Thierry Baron1,chef de l’Unité Maladies Neurodégénératives de Lyon. Après des années de recherches sur les maladies à prions, il dirige aujourd’hui des études sur la maladie de Parkinson et autres variants. À travers ses travaux, il a pu montrer que le développement de cette maladie pouvait être favorisé par l’exposition à divers composés naturels ou artificiels comme les pesticides. « Les maladies à prions sont, dans la plupart des cas, considérées comme sporadiques, et leur cause est inconnue. Mais parfois des clusters de malades sont observés localement, il est alors possible d’aller rechercher les déterminants possibles de ces maladies par des enquêtes de terrain », explique le directeur de recherches de l’ANSES.

>> Environnement et technologie : les autres déterminants de la santé
Dans les années quatre-vingt, la crise de la vache folle avait sévi en Europe, causé notamment par la concentration d’animaux d’élevage. La crise avait entraîné des victimes humaines, des milliers de vaches abattues et une crise économique pour la filière bovine, conséquences d’un changement du procédé industriel de fabrication de farines animales. La baisse de la température de cuisson, qui visait à optimiser la qualité nutritive, limiter le coût de production, et réduire l’impact sur l’environnement et le personnel technique, a conduit à une crise de grande ampleur. Ainsi, dans le cas de la crise de la vache folle, la barrière de l’espèce a été franchie : le prion est passé du mouton à la vache, puis de la vache à l’homme via l’alimentation causant 28 décès recensés et confirmés. Intrinsèquement liée à l’organisation industrielle, cette crise a souligné les limites de la logique de performance de nos sociétés. « C’est une illustration de la nécessité de (…)

>> Lire la suite de l’article sur le site :

Insa lyon