LLes cafés de la statistique : Sagesse ou folie des foules ? « Comment la statistique peut éclairer le débat public »Les foules sont souvent considérées comme dangereuses, impulsives, moutonnières par défaut, et une des critiques récurrentes contre le règne de la majorité est que celui-ci favoriserait la convention, le conservatisme voire la bêtise. Rien n’est plus faux !Le plus grand nombre est bien souvent à l’origine des meilleures décisions. Nous explorerons dans ce café la théorie de la sagesse des foules, qui s’applique dans de nombreux domaines comme la politique, l’économie, le management …Intervenant : Aurélien Baillon, professeur, emlyon business school & GATEPour en savoir plus :Les cafés de la statistique
DDonnées personnelles : rien à cacher, mais beaucoup à perdre | The Conversation Nos données personnelles circulent sur Internet : nom, adresses, coordonnées bancaires ou de sécurité sociale, localisation en temps réel… et les affaires qui y sont liées se font une place pérenne dans le débat public, du scandale Facebook-Cambridge Analytica au vol de données à la Croix-Rouge, en passant par les récents blocages d’hôpitaux par des rançongiciels (ou ransomware) et l’interdiction de l’application TikTok pour les fonctionnaires de plusieurs pays.Mais si l’on sait de plus en plus que nos données personnelles sont « précieuses » et offrent des possibilités sans précédent en matière de commercialisation et d’innovation, il est parfois difficile de saisir ou d’expliquer pourquoi il faudrait les protéger.QQuels sont les risques liés à la divulgation de mes données personnelles ?Le premier risque concerne la perte du contrôle sur nos propres données. C’est ce qui arrive par exemple quand on autorise le traçage par des sites ou des applications : on autorise l’enregistrement de nos activités sur le Web ou sur notre smartphone (pages visitées, géolocalisation) et l’échange de ces données, et, une fois cet accord donné, nous n’avons plus aucun pouvoir sur la circulation de nos données.Ces informations sont utilisées le plus souvent pour du profilage qui permet d’alimenter l’économie de la publicité personnalisée régie dorénavant par des plates-formes d’enchères valorisant les données relatives aux profils utilisateurs contre des emplacements publicitaires.Mais, ces informations peuvent également être utilisées à mauvais escient. La connaissance de votre localisation peut aider le passage à l’acte d’un cambrioleur par exemple, et la connaissance de vos centres d’intérêts ou opinion politique peut vous exposer à des opérations d’influence.Le scandale Cambridge Analytica en est un exemple, avec l’exploitation de données personnelles de millions d’utilisateurs Facebook pour des campagnes de désinformation ciblées afin d’influencer des intentions de vote. Plus récemment, les révélations du Monde sur les entreprises de désinformation indiquent que cette pratique n’est pas un cas isolé.Un autre risque concerne l’hameçonnage : si des informations personnelles sont présentes dans un courriel ou SMS frauduleux, il vous paraîtra plus réaliste et abaissera vos barrières de vigilance. L’hameçonnage sert souvent à infecter la cible avec un rançongiciel (ransomware en anglais) : les cybercriminels utilisent des informations personnalisées pour gagner la confiance des destinataires et les inciter à ouvrir des pièces jointes, ou à cliquer sur des liens ou documents malveillants, ce qui permet dans un second temps de verrouiller les données de la victime et d’en interdire l’accès. Une rançon est ensuite réclamée pour les déverrouiller.Bien que les attaques par rançongiciel les plus médiatisées concernent des organisations, des hôpitaux par exemple, les particuliers sont également touchés.Dans le cas de l’usurpation d’identité, une personne malveillante utilise des informations personnelles qui permettent de nous identifier (« se logger ») sans notre accord : par exemple, en créant un faux profil sur une plate-forme et en rédigeant des commentaires sous l’identité de la victime afin de nuire à sa réputation.À un autre niveau, la surveillance de masse exercée par certains États capture les informations personnelles de leurs citoyens afin d’entraver la liberté d’expression ou de ficher les individus par exemple. Une surveillance accrue peut tendre vers un sentiment d’absence de sphère privée et ainsi brider le comportement des individus.En Europe, le RGPD (règlement général sur la protection des données) limite la récolte des données personnelles, notamment par les gouvernements, qui doivent justifier d’une raison suffisante pour toute surveillance.CChacun d’entre nous a une empreinte numérique uniqueCes problèmes touchent chacun d’entre nous. En effet, dans un monde de plus en plus numérique où nous générons quotidiennement des données à travers notre navigation sur Internet, nos smartphones, ou nos montres connectées, nous avons tous une « empreinte numérique unique ».En clair, il est généralement possible de ré-identifier quelqu’un juste à partir des « traces » que nous laissons derrière nous sur nos appareils numériques.Nos données personnelles permettent de nous identifier, comme une empreinte digitale numérique. Immo Wegmann/Unsplash, CC BYPar exemple, l’observation aléatoire de quatre lieux visités seulement représente une signature unique pour 98 % des individus. Cette unicité est généralisable dans un grand nombre de comportements humains.Cacher l’identité du propriétaire de données personnelles uniquement derrière un pseudonyme n’est pas une protection suffisante face au risque de réidentification, il est nécessaire d’anonymiser les données.DDonnées synthétiques, apprentissage fédéré : les nouvelles méthodes pour protéger les données personnellesTels les membres d’un « black bloc » essayant d’être indistinguables entre eux en s’habillant de manière identique dans une manifestation houleuse, l’anonymisation de données a pour but d’éviter qu’une personne ne se démarque du reste de la population considérée, afin de limiter l’information qu’un cyberattaquant pourrait extraire.Dans le cas de données de géolocalisation, on pourrait par exemple modifier les données afin que plusieurs utilisateurs partagent les mêmes lieux visités, ou alors introduire du bruit pour ajouter une incertitude sur les lieux réellement visités.Mais cette anonymisation a un coût car elle « déforme » les données et diminue leur valeur : une trop grande modification des données brutes dénature l’information véhiculée dans les données anonymisées. De plus, pour s’assurer de l’absence d’une empreinte réidentifiante, les modifications nécessaires sont très importantes et souvent incompatibles avec nombre d’applications.Trouver le bon compromis entre protection et utilité des informations anonymisées reste un challenge. À l’heure où certains voient les données comme le nouveau pétrole du XXIe siècle, l’enjeu est de taille car une donnée anonyme n’est plus considérée comme une donnée personnelle et échappe au RGPD, ce qui veut dire qu’elle peut être partagée sans consentement du propriétaire.Cette difficulté de trouver un compromis acceptable entre protection et utilité des données au travers de mécanismes d’anonymisation a fait évoluer les pratiques. De nouveaux paradigmes de protection des données personnelles ont vu le jour.Une première tendance consiste à générer des données synthétiques reproduisant les mêmes propriétés statistiques que les vraies données.Ces données générées de manière artificielle ne sont par conséquent pas liées à une personne et ne seraient plus encadrées par le RGPD. Un grand nombre d’entreprises voient en cette solution des promesses de partage d’information moins limitées. En pratique, les risques résiduels des modèles de génération synthétique ne sont pas négligeables et sont encore à l’étude.Une autre solution limitant le risque de partage de données personnelles est l’apprentissage fédéré. Dans l’apprentissage machine conventionnel, les données sont centralisées par une entité pour entraîner un modèle.Dans l’apprentissage fédéré, chaque utilisateur se voit attribuer un modèle qu’il entraîne localement sur ses propres données. Il envoie ensuite le résultat à une entité qui s’occupe d’agréger l’ensemble des modèles locaux. De manière itérative, cet apprentissage décentralisé permet de créer un modèle d’apprentissage sans divulguer de données personnelles.Ce nouveau paradigme de protection des données personnelles suscite beaucoup d’engouement. Cependant, plusieurs limitations subsistent, notamment sur la robustesse face aux acteurs malveillants qui souhaiteraient influencer le processus d’entraînement. Un participant pourrait par exemple modifier ses propres données pour que le modèle se trompe lors d’une tâche de classification particulière. Publié sur The Conversation le 29 mars 2023Auteur : Antoine Boutet, Maitre de conférence, Privacy, IA, au laboratoire CITI, Inria, INSA Lyon – Université de LyonCet article est republié à partir de The Conversation sous licence Creative Commons. >> Lire l’article original :The conversation>> Cet article a été actualisé le 28 octobre 2024 : L’opérateur mobile et fournisseur d’accès internet Free a annoncé avoir été victime d’une cyberattaque. Selon l’entreprise : « cette attaque a entraîné un accès non autorisé à une partie des données personnelles ». Quels sont les risques si vos données ont fuité ?Lire l’article actualisé :The Conversation
CComment sont élaborés les simulateurs d’empreinte carbone ? Alors que Paris accueillait les Jeux Olympiques et Paralympiques 2024, Laetitia Guérout, élève-ingénieure au département biotechnologies et bioinformatique, et stagiaire chez WeCount, a contribué au développement d’un calculateur d’empreinte carbone destiné aux supporters. Cet outil pédagogique permet de mesurer les émissions de CO2 liées aux transports, à l’alimentation et à l’hébergement pour se rendre aux Jeux. L’objectif ? Profiter du tremplin exceptionnel que sont les Jeux Olympiques et Paralympiques de Paris 2024 pour éduquer un maximum de spectateurs au sujet de la lutte contre le changement climatique et déclencher l’envie d’agir. « L’objectif n’étant pas de culpabiliser les spectateurs, mais bel et bien de pouvoir leur apporter des connaissances et des clés d’action », explique l’étudiante.>Simulateur d’empreinte carbone individuelle : comment sont-ils élaborés ?Outil de sensibilisation idéal du grand public, le simulateur d’empreinte carbone permet de prendre conscience des usages individuels qui contribuent le plus au changement climatique, et de découvrir les actions qui auraient le plus d’impact pour réduire son bilan carbone. La prise en main se veut facile, rapide et ludique. « C’est un questionnaire qui permet de calculer en quelques minutes les émissions associées à différents postes comme le transport, l’alimentation, ou encore l’hébergement », introduit Laetitia Guérout. Basé sur des facteurs d’émissions provenant d’une base de données de l’ADEME, le calculateur estime ainsi un équivalent en kg ou tonnes de CO2 émis. « Le CO2 n’est bien sûr pas le seul gaz à effet de serre émis par les activités humaines, cependant, ramener le calcul à un équivalent en tonnes de CO2 pose un chiffre sur le concept parfois flou que sont les émissions de gaz à effet de serre. Cela le rend plus concret dans l’esprit des gens. Grâce à ces facteurs d’émission et aux réponses de l’utilisateur à un panel de questions simples, le simulateur affiche un impact chiffré. Et surtout, à l’issue du questionnaire, l’utilisateur dispose de pistes d’actions lui permettant d’agir sur son empreinte carbone et de la réduire. S’il souhaite aller plus loin, des ressources sont également mises à sa disposition pour en apprendre davantage sur le sujet. C’est un outil de sensibilisation et de mise en action assez puissant», poursuit l’étudiante de l’INSA Lyon en stage chez WeCount.>Le cas des JO 2024 : le poste des transportsÀ l’occasion des Jeux Olympiques et Paralympiques 2024, Laetitia Guérout a participé à l’élaboration de celui-ci d’une plateforme dédiée à l’évènement mondial. « Un calculateur d’empreinte carbone qui cible un évènement particulier ne considère pas exactement les mêmes postes d’émission qu’un calculateur d’empreinte carbone lié aux activités quotidiennes, même si certains postent se retrouvent presque systématiquement comme le transport ou l’alimentation. »En premier lieu, le développement de l’outil a donc nécessité un important travail de définition du périmètre de calcul. « Il faut réussir à ne pas oublier de poste d’émission important, tout en n’alourdissant pas trop le questionnaire pour qu’il reste rapide et simple à remplir. L’idée est donc de cibler (…)>> Lire l’article sur le site :insa
DDepuis Garry Kasparov contre Deep Blue, ce que nous apprend l’histoire des échecs sur les risques de l’IA | The Conversation En 1997, le champion du monde d’échecs Garry Kasparov perd pour la première fois de l’histoire un match face à un ordinateur, Deep Blue. Cet événement historique pour le jeu comme pour l’informatique est aujourd’hui porté à l’écran dans une minisérie d’Arte, Remacth. 27 ans plus tard, qu’est-ce que la défaite de l’humain contre la machine nous a appris, et ces leçons peuvent-elles éclairer l’arrivée massive de l’IA dans nos vies ?Les récents progrès de l’intelligence artificielle (IA), comme le développement des IA génératives avec l’apparition de ChatGPT en novembre 2022, ont soulevé beaucoup d’interrogations, d’espoirs, et de craintes. Courant printemps 2023, le Congrès américain a auditionné OpenAI, la société ayant développé ChatGPT et l’Union européenne vient d’adopter son premier texte législatif au sujet de l’IA.Dans les parlements comme sur les réseaux sociaux, les rapides progrès de l’IA animent les discussions. À l’avenir, à quels impacts faut-il s’attendre sur notre société ? Pour tenter de répondre à cette question de manière dépassionnée, nous proposons de regarder ce qui s’est passé dans un secteur qui a déjà connu l’arrivée et la victoire de l’IA sur les capacités humaines : les échecs. La machine y a en effet un niveau supérieur à celui des humains depuis maintenant plus d’un quart de siècle.Pourquoi le jeu d’échecs comme indicateur ?Depuis les débuts de l’informatique, les échecs ont été utilisés comme un indicateur des progrès logiciels et matériels. C’est un jeu intéressant à de multiples niveaux pour étudier les impacts des IA sur la société :C’est une activité intellectuelle qui demande différentes compétences : visualisation spatiale, mémoire, calcul mental, créativité, capacité d’adaptation, etc., compétences sur lesquelles l’IA vient concurrencer l’esprit humain.Le jeu n’a pas changé depuis des siècles. Les règles sont bien établies et cela donne une base stable pour étudier l’évolution des joueurs.Il est possible de mesurer la force des machines de manière objective et de comparer ce niveau à celui des humains avec le classement Elo.Le champ d’études est restreint : il est clair que les échecs ne sont qu’un tout petit aspect de la vie, mais c’est justement le but. Cette étroitesse du sujet permet de mieux cibler les impacts des IA sur la vie courante.Les IA ont dépassé le niveau des meilleurs joueurs humains depuis plus de 20 ans. Il est donc possible de voir quels ont été les impacts concrets sur le jeu d’échecs et la vie de sa communauté, qui peut être vue comme un microcosme de la société. On peut également étudier ces impacts en regard de la progression des IA au cours du temps.Explorons quelles ont été les évolutions dans le monde des échecs depuis que Garry Kasparov, alors champion du monde en titre, a perdu une partie contre Deep Blue en 1996, puis le match revanche joué en 1997. Nous allons passer en revue plusieurs thèmes qui reviennent dans la discussion sur les risques liés aux IA et voir ce qu’il en a été de ces spéculations dans le domaine particulier des échecs.Les performances de l’IA vont-elles continuer à augmenter toujours plus vite ?Il existe deux grandes écoles pour programmer un logiciel d’échecs : pendant longtemps, seule la force brute fonctionnait. Il s’agissait essentiellement de calculer le plus vite possible pour avoir un arbre de coups plus profonds, c’est-à-dire capable d’anticiper la partie plus loin dans le futur.À partir d’une position initiale, l’ordinateur calcule un ensemble de possibilités, à une certaine profondeur, c’est-à-dire un nombre de coups futurs dans la partie. | ©BY-SA Chris Butner Aujourd’hui, la force brute est mise en concurrence avec des techniques d’IA issues des réseaux de neurones. En 2018, la filiale de Google DeepMind a produit AlphaZero, une IA d’apprentissage profond par réseau de neurones artificiels, qui a appris tout seul en jouant contre lui-même aux échecs. Parmi les logiciels les plus puissants de nos jours, il est remarquable que LC0, qui est une IA par réseau de neurones, et Stockfish, qui est essentiellement un logiciel de calcul par force brute, aient tous les deux des résultats similaires. Dans le dernier classement de l’Association suédoise des échecs sur ordinateur (SSDF), ils ne sont séparés que de 4 points Elo : 3 582 pour LC0 contre 3 586 pour Stockfish. Ces deux manières totalement différentes d’implanter un moteur d’échecs sont virtuellement indistinguables en termes de force.En termes de points Elo, la progression des machines a été linéaire. Le graphique suivant donne le niveau du meilleur logiciel chaque année selon le classement SSDF qui a commencé depuis le milieu des années 1980. Le meilleur logiciel actuel, LC0, en est à 3586, ce qui prolonge la figure comme on pourrait s’y attendre.Cette progression linéaire est en fait le reflet d’une progression assez lente des logiciels. En effet, le progrès en puissance de calcul est, lui, exponentiel. C’est la célèbre loi de Moore qui stipule que les puissances de calcul des ordinateurs doublent tous les dix-huit mois.Cependant, Ken Thompson, informaticien américain ayant travaillé dans les années 80 sur Belle, à l’époque le meilleur programme d’échecs, avait expérimentalement constaté qu’une augmentation exponentielle de puissance de calcul conduisait à une augmentation linéaire de la force des logiciels, telle qu’elle a été observée ces dernières dizaines d’années. En effet, le fait d’ajouter un coup supplémentaire de profondeur de calcul implique de calculer bien plus de nouvelles positions. On voit ainsi que l’arbre des coups possibles est de plus en plus large à chaque étape.Les progrès des IA en tant que tels semblent donc faibles : même si elles ne progressaient pas, on observerait quand même une progression de la force des logiciels du simple fait de l’amélioration de la puissance de calcul des machines. On ne peut donc pas accorder aux progrès de l’IA tout le crédit de l’amélioration constante des ordinateurs aux échecs.La réception par la communauté de joueurs d’échecsAvec l’arrivée de machines puissantes dans le monde des échecs, la communauté a nécessairement évolué. Ce point est moins scientifique mais est peut-être le plus important. Observons quelles ont été ces évolutions.« Pourquoi les gens continueraient-ils de jouer aux échecs ? » Cette question se posait réellement juste après la défaite de Kasparov, alors que le futur des échecs amateurs et professionnels paraissait sombre. Il se trouve que les humains préfèrent jouer contre d’autres humains et sont toujours intéressés par le spectacle de forts grands maîtres jouant entre eux, et ce même si les machines peuvent déceler leurs erreurs en temps réel. Le prestige des joueurs d’échecs de haut niveau n’a pas été diminué par le fait que les machines soient capables de les battre.Le style de jeu a quant à lui été impacté à de nombreux niveaux. Essentiellement, les joueurs se sont rendu compte qu’il y avait beaucoup plus d’approches possibles du jeu qu’on le pensait. C’est l’académisme, les règles rigides, qui en ont pris un coup. Encore faut-il réussir à analyser les choix faits par les machines. Les IA sont par ailleurs très fortes pour pointer les erreurs tactiques, c’est-à-dire les erreurs de calcul sur de courtes séquences. En ligne, il est possible d’analyser les parties de manière quasi instantanée. C’est un peu l’équivalent d’avoir un professeur particulier à portée de main. Cela a sûrement contribué à une augmentation du niveau général des joueurs humains et à la démocratisation du jeu ces dernières années. Pour le moment, les IA n’arrivent pas à prodiguer de bons conseils en stratégie, c’est-à-dire des considérations à plus long terme dans la partie. Il est possible que cela change avec les modèles de langage, tel que ChatGPT.Les IA ont aussi introduit la possibilité de tricher. Il y a eu de nombreux scandales à ce propos, et on se doit de reconnaître qu’il n’a pas à ce jour de « bonne solution » pour gérer ce problème qui rejoint les interrogations des professeurs qui ne savent plus qui, de ChatGPT ou des étudiants, leur rendent les devoirs.Conclusions temporairesCette revue rapide semble indiquer qu’à l’heure actuelle, la plupart des peurs exprimées vis-à-vis des IA ne sont pas expérimentalement justifiées. Le jeu d’échecs est un précédent historique intéressant pour étudier les impacts de ces nouvelles technologies quand leurs capacités se mettent à dépasser celles des humains. Bien sûr, cet exemple est très limité, et il n’est pas possible de le généraliser à l’ensemble de la société sans précaution. En particulier, les modèles d’IA qui jouent aux échecs ne sont pas des IA génératives, comme ChatGPT, qui sont celles qui font le plus parler d’elles récemment. Néanmoins, les échecs sont un exemple concret qui peut être utile pour mettre en perspective les risques associés aux IA et à l’influence notable qu’elles promettent d’avoir sur la société.>> L’auteur :Frédéric Prost, Maître de conférences en informatique, INSA Lyon – Université de LyonCet article est republié sous licence Creative Commons.>> Lire l’article original :The Conversation
FFaire face aux maladies de société Selon les données du 6e rapport du GIEC, le changement climatique est la plus grande menace pour la santé humaine. Maladies cardiovasculaires causées par les hausses des températures, maladies respiratoires liées à la pollution atmosphérique, maladies animales transmissibles à l’homme causées par l’effondrement de la biodiversité et l’agriculture intensive, ou encore problèmes de santé mentale, avec le développement de troubles anxieux et des traumatismes causés par les catastrophes naturelles. Toutes ces maladies de société ont un trait commun : « Elles sont intrinsèquement liées aux nouveaux modes de vie de nos sociétés industrialisées. C’est un constat difficile, dont il ne faut pas se détourner », ont affirmé Marianne Chouteau et Adina Lazar, enseignantes chercheuses à l’INSA Lyon. À l’occasion du deuxième séminaire « Let’s look up! » en mai dernier, le collectif de chercheurs et d’enseignants-chercheurs de l’INSA Lyon et de l’Université Lyon 1 ont exploré cette thématique.>> Le cas des zoonosesLes dernières décennies ont montré une accélération dans l’émergence de zoonoses, ces maladies qui passent de l’animal à l’homme. Déjà identifié depuis le Néolithique, il est désormais connu que ce mécanisme de contamination peut être à l’œuvre dans différents cas : lors d’un contact direct avec un animal contaminé ; par l’intermédiaire de l’environnement (eau, sols) ; par l’intermédiaire d’un animal vecteur ; ou encore par la consommation d’aliments d’origine animale contaminés. C’est avec la présentation détaillée de cette pathologie bovine que débute la présentation de Thierry Baron1,chef de l’Unité Maladies Neurodégénératives de Lyon. Après des années de recherches sur les maladies à prions, il dirige aujourd’hui des études sur la maladie de Parkinson et autres variants. À travers ses travaux, il a pu montrer que le développement de cette maladie pouvait être favorisé par l’exposition à divers composés naturels ou artificiels comme les pesticides. « Les maladies à prions sont, dans la plupart des cas, considérées comme sporadiques, et leur cause est inconnue. Mais parfois des clusters de malades sont observés localement, il est alors possible d’aller rechercher les déterminants possibles de ces maladies par des enquêtes de terrain », explique le directeur de recherches de l’ANSES.>> Environnement et technologie : les autres déterminants de la santéDans les années quatre-vingt, la crise de la vache folle avait sévi en Europe, causé notamment par la concentration d’animaux d’élevage. La crise avait entraîné des victimes humaines, des milliers de vaches abattues et une crise économique pour la filière bovine, conséquences d’un changement du procédé industriel de fabrication de farines animales. La baisse de la température de cuisson, qui visait à optimiser la qualité nutritive, limiter le coût de production, et réduire l’impact sur l’environnement et le personnel technique, a conduit à une crise de grande ampleur. Ainsi, dans le cas de la crise de la vache folle, la barrière de l’espèce a été franchie : le prion est passé du mouton à la vache, puis de la vache à l’homme via l’alimentation causant 28 décès recensés et confirmés. Intrinsèquement liée à l’organisation industrielle, cette crise a souligné les limites de la logique de performance de nos sociétés. « C’est une illustration de la nécessité de (…)>> Lire la suite de l’article sur le site :Insa lyon
FFestival Arts Sciences et Sociétés de l’INSA Lyon : FASSIL Ouverture du premier Festival Arts Sciences et Sociétés de l’INSA Lyon : FASSIL.À partir du 5 novembre, se tiendra un nouveau rendez-vous dédié aux Arts et à la Culture sur le campus LyonTech-la Doua : le Festival Arts Sciences et Sociétés de l’INSA Lyon. FASSIL est porté par le Service Culturel, le Centre des Humanités, mais aussi l’Institut Gaston Berger, la Bibliothèque Marie Curie et d’autres composantes de l’INSA Lyon comme les sections artistiques, les associations étudiantes, certains laboratoires…Pour cette première édition, ouverte sur la ville, l’équipe a décidé de porter son regard sur « l’intime ».Intimes, pour cette première édition, questionne notre rapport aux autres, à la technologie, aux sciences, dans une société plurielle, en perpétuel ou impossible mouvement. Quels changements ? Quels futurs ? Intimes s’empare aussi de nos rapports ambivalents aux dérèglements socio-écologiques et aux réponses qui sont apportées.Une thématique explorée avec un programme de spectacles, conférences, ateliers, projections. Pendant près de deux mois, ce grand événement offre une expérience inédite à l’intersection de la culture des sciences, de la recherche et de la vie de campus. Une première édition qui fait déjà un pas vers la métropole puisque ce rendez-vous est proposé sur le campus, mais aussi dans plusieurs espaces culturels de Villeurbanne et de Lyon.PROGRAMME DU FESTIVAL FASSIL : ici >> Pour plus d’information, rendez-vous sur le site : INSA Lyon©Clémence Estingoy – Photographie 05
DDécouvrez « Point de bascule » : le média qui invite à changer de regard et façonne les possibles ! Citoyens, ingénieurs, chercheurs : si vous êtes à la recherche de contenus pour élargir vos horizons, l’L’Institut national des sciences appliquées de Lyon – INSA Lyon – propose un média fait pour vous !Prenez quelques minutes pour découvrir « Point de bascule » qui offre au grand public une porte vers une connaissance accessible. Découvrez également la lecture filtrée par « objectif de développement durable » ou par « thématique ».>> Rendez-vous sur le site POINT2BASCULE©Point de bascule
LLégislatives : le mode de scrutin actuel est-il juste ? | The Conversation C’est un sujet qui revient avec chaque élection nationale en France, qu’il s’agisse de la présidentielle ou des législatives. Le mode de scrutin actuel, appelé « scrutin majoritaire uninominal à deux tours », est-il juste ? Des deux côtés de l’échiquier, Marine Le Pen (RN) et Jean-Luc Mélenchon (LFI) estiment que ce mode de scrutin n’est plus compatible avec le « pluralisme de notre vie politique ».En 1947 déjà, Michel Debré déclarait dans son ouvrage La mort de l’état républicain :« Nous considérons volontiers, en France, le mode de scrutin comme un mécanisme secondaire. C’est une erreur, une erreur grave[…]. Le mode de scrutin fait le pouvoir, c’est-à-dire qu’il fait la démocratie ou la tue. »Nous ne pouvons qu’être d’accord avec M. Debré, l’un des rédacteurs de notre constitution et chacun pressent qu’effectivement le mode du scrutin est tout sauf neutre dans la détermination de qui est élu.En tant que chercheurs, nous nous efforçons de comprendre les propriétés, au sens mathématique, des différents modes de scrutins. En tant que citoyens, nous sommes persuadés d’un réel débat autour de cette question pourrait permettre de remobiliser nos concitoyennes et concitoyens autour de la question électorale, fondamentale à notre démocratie.Le scrutin majoritaire à deux tours : cet outil archaïqueS’il permet de dégager un ou une gagnante à chaque fois, le « scrutin majoritaire uninominal à deux tours », ne présente pas que des propriétés positives.La grande qualité de ce scrutin est, comme son nom l’indique, de dégager une majorité de votants en faveur du vainqueur. Majorité absolue dans le cas de l’élection présidentielle, éventuellement majorité relative dans le cadre de triangulaire lors des législatives, mais à chaque fois majorité tout de même.Mais cette majorité ne tient pas compte de la minorité : avec ce système un candidat peut être élu à la majorité absolue même si son programme est jugé très négativement par 49,9 % des électeurs. En ce sens, cette « tyrannie de la majorité », comme le dit Alexis de Tocqueville, peut mener à l’élection de candidats très clivants : convaincre une moitié des électeurs (plus un) suffit, quitte à se faire détester par l’autre moitié.Cette caractéristique forte se double de plusieurs défauts : le premier d’entre eux est qu’il peut nous pousser à « voter utile » plutôt que de voter pour notre candidat favori : à quoi sert de voter pour un candidat qui ne sera pas au deuxième tour ? A rien ! Donc autant voter dès le premier tour pour son meilleur choix parmi les candidats qui ont des chances de se qualifier.Souhaite-t-on vraiment un moyen d’expression démocratique qui incite fortement les votants à ne pas être sincères ? Un autre défaut bien connu est que le résultat du scrutin majoritaire à deux tours peut dépendre de la présence ou non de « petits » candidats. Par exemple, lors de l’élection présidentielle de 2002, la présence de plusieurs autres candidats de gauche au premier tour a vraisemblablement fait qu’il a manqué à Lionel Jospin les quelques centaines de milliers de voix qui lui auraient permis d’être qualifié au deuxième tour et, peut-être, de gagner l’élection. Souhaite-t-on vraiment un mode de scrutin qui soit si sensible aux manœuvres politiques ?Et ce ne sont pas les seuls défauts du scrutin majoritaire à deux tours. D’autres peuvent être trouvés dans notre ouvrage « Comment être élu à tous les coups ? » publié chez EDP Sciences.Mais c’est une chose de dire que le scrutin majoritaire à deux tours n’est pas un bon mode de scrutin, c’est autre chose de trouver le « meilleur » mode de scrutin. Depuis les travaux de Borda et Condorcet au XVIIIe, de nombreux chercheurs se sont penchés sur ce problème en proposant de non moins nombreux modes de scrutin, tous imparfaits. En 1951, l’économiste américain Kenneth Arrow semble mettre un terme à tout espoir en démontrant un théorème (dit d’impossibilité) indiquant que tout mode de scrutin ne pourra jamais vérifier de manière simultanée un petit ensemble de propriétés pourtant souhaitables. En ce milieu de XXe siècle, il semble que le mode de scrutin parfait n’existe pas et que les mathématiques ont tué la démocratie.Les modes de scrutin basés sur des évaluations : nouvel eldorado ?Cependant, Arrow ne parlait que des modes de scrutins utilisant des ordres de préférence, c’est-à-dire les modes de scrutin basés sur les classements des candidats (du plus apprécié au moins apprécié) par chaque électeur. Mais il existe une autre catégorie de modes de scrutin, qui utilise des évaluations : chaque votant peut donner une « note » ou une appréciation à chacun des candidats. L’avantage de ce mode de scrutin ? Disposer d’une information plus complète et souvent plus nuancée des votants sur les candidats.Deux familles de modes de scrutin basés sur les évaluations se distinguaient jusqu’à présent :les modes de scrutin « à la moyenne » (le « range voting », le vote par approbation) : le candidat élu est celui dont la moyenne des évaluations est la plus élevée.Les modes de scrutin « à la médiane » (le « jugement majoritaire » et autres variantes) : le candidat élu est celui dont la médiane des évaluations est la plus élevée.Le plus simple d’entre eux est le vote par approbation, chaque votant donne une voix à tous les candidats qu’il juge acceptables (l’échelle des évaluations est alors réduite au minimum : 0 : inacceptable, 1 : acceptable). Le candidat élu est celui qui reçoit au total le plus de voix. C’est exactement ce qui se passe lorsque l’on participe à un « doodle » : parmi des dates proposées, les votants choisissent celles leur convenant et la date la plus choisie l’emporte ! Ça serait très simple à mettre en pratique dans notre vie politique : il suffirait de permettre aux votants de glisser autant de bulletins différents qu’ils le désirent dans leur enveloppe (ou en d’autres termes de prévoir un « doodle » à 40 millions de lignes…).Notons que ces modes de scrutin utilisant des évaluations ne sont plus sensibles au vote utile et que le vainqueur ne dépend plus de la présence ou de l’absence d’un autre candidat proche de lui dans l’élection. Ils vérifient en outre l’ensemble des propriétés souhaitables défini par Arrow !Nous avons récemment proposé, avec Irène Gannaz et Samuela Leoni, un formalisme unificateur pour ces modes de scrutin, soit une manière de voir chacune de ces méthodes comme une variante particulière d’une unique méthode de vote.Dans une configuration où chaque votant donne une note à chaque candidat, chaque votant peut être représenté dans l’espace par un point dont les coordonnées sont ses évaluations données aux candidats. Un exemple pour une élection avec trois candidats est illustré dans la figure suivante : chaque axe représentant un candidat et chaque point un votant, les évaluations entre -2 et 2 ont été générées au hasard pour cette figure :Représentation graphique d’un système de vote par note pour 3 candidats. | ©Antoine RollandL’idée sous-jacente commune à tous ces derniers modes de scrutin est de repérer le point le plus « au centre » du nuage de points des évaluations (en rouge sur la figure), de le considérer comme le votant « type », et de déclarer élu son candidat préféré.Ce formalisme permet de proposer un modèle général pour les modes de scrutin utilisant les évaluations (range voting, vote par approbation, jugement majoritaire, etc.), mais aussi d’ouvrir la voie à de nombreux autres modes de scrutin, inconnus jusqu’alors. À chaque définition de point le plus « au centre » du nuage (et il y en a beaucoup !) est alors associé un mode de scrutin différent.Les modes de scrutin par évaluations sont bien meilleurs d’un point de vue logico-mathématique. Sociétalement parlant, ils permettraient de privilégier les candidats plus consensuels.À nous, société civile et citoyenne, de nous saisir de cette question pour redevenir acteur/actrice de notre destinée démocratique commune. Comme disait G. Bernanos : « On n’attend pas l’avenir comme on attend un train, l’avenir, on le fait. »> Les auteurs : Antoine Rolland, Maitre de conférence en statistique, Université Lumière Lyon 2 et Jean-Baptiste Aubin, Maître de conférence en statistique, INSA Lyon – Université de LyonCet article est republié sous licence Creative Commons.>> Lire l’article original :The Conversation
TTri des biodéchets : « les changements de comportement demandent du temps » Depuis le 1ᵉʳ janvier 2024, conformément à la loi contre le gaspillage et pour l’économie circulaire1, tous les particuliers ont pour obligation de trier leurs biodéchets. Pour les accompagner, les collectivités territoriales ont une obligation de proposer une solution à leurs habitants. Début 2024, la Métropole de Lyon comptait un peu plus de 1 300 bornes à compost, déployées sur sept communes. De l’assiette à la revalorisation, le tri des déchets verts et alimentaires représente un véritable enjeu en matière de transition écologique.Chantal Berdier est chercheuse au laboratoire Environnement Ville Société2 à l’INSA Lyon. Dans le cadre d’une étude dédiée à la valorisation3 des biodéchets de la Métropole lyonnaise, elle travaille sur le sujet.Biodéchets, compost, déchets végétaux, alimentaires… Il est parfois difficile de s’y retrouver. Quels types de déchets biodégradables se cachent dans nos poubelles ? Il est important de rappeler ce que sont les biodéchets. Selon le code de l’environnement, les biodéchets sont des « déchets non-dangereux biodégradables de jardin ou de parc, des déchets alimentaires ou de cuisine provenant des ménages, des bureaux, des restaurants, du commerce de gros, des cantines, des traiteurs ou des magasins de vente au détail, ainsi que les déchets comparables provenant des usines de transformation de denrées alimentaires ». Ce sont des éléments dont la décomposition se fait de façon « naturelle ».Quel volume représentent nos biodéchets à l’échelle de la Métropole lyonnaise ?D’après la méthode de caractérisation des déchets ménagers et assimilés appelée « MODECOM » par l’Ademe, les biodéchets représentent 29 % des poubelles à l’échelle de la Métropole. Parmi eux, 24 % représentent des déchets alimentaires et 5 % des déchets verts. Le volume annuel total de ces déchets produits par les ménages dans la Métropole de Lyon est estimé entre 74 000 et 75 000 tonnes, soit 53 kg par habitant et par an. Dans ce volume, 70 000 tonnes sont des déchets alimentaires. Ainsi, selon une enquête d’opinion sur le gaspillage alimentaire menée par l’institut OpinionWay et l’entreprise SmartWay, 59 % des Français jettent des produits à cause de leur apparence, 32 % à cause d’une date limite de consommation proche ou dépassée, 20 % les jettent par manque de prévoyance et 18 % estiment jouer la carte de la prudence. Aujourd’hui, ces déchets sont incinérés ou enterrés. Or, c’est une ressource indispensable pour nourrir les sols et produire du biométhane. C’est tout l’enjeu de la nouvelle obligation du tri à la source des biodéchets : depuis le 1ᵉʳ janvier 2024, tous les producteurs et détendeurs de biodéchets doivent les trier en vue de leur valorisation. (…) >> Lire la suite de l’article :insa LYON
LL’AI Act, ou comment encadrer les systèmes d’IA en Europe | The Conversation Depuis que les intelligences artificielles (IA) génératives, telles que ChatGPT pour le texte ou Stable Diffusion pour les images, sont entrées dans nos vies, elles ne laissent personne indifférent et suscitent fascination et crainte. Une machine peut en effet accomplir certaines tâches mieux qu’un humain, mais aussi commettre des erreurs. Entre les mains d’acteurs malintentionnés, une IA peut aussi servir à réaliser des deepfakes (contenus trompeurs) ou à influencer un résultat électoral.Si laisser une machine résumer un texte semble peu risqué, la prise de décision automatisée par IA dans des contextes plus ou moins sensibles nécessite d’évaluer les risques et de les encadrer. Alors que le secteur de l’IA connaît une expansion fulgurante, la question de la réglementation de l’IA devient un sujet de préoccupation majeur pour les États. C’est donc dans ce contexte de course à l’encadrement que l’Union européenne (UE) entend promouvoir sa vision de la réglementation sur l’IA avec l’AI Act.Pourquoi l’AI Act ?Si l’UE manque encore de fleurons qui pourraient lui permettre de concurrencer les États-Unis et la Chine, il est un terrain où elle peut véritablement s’affirmer : celui de la régulation. En effet, au travers de l’AI Act, l’UE se met ainsi en capacité d’imposer ses règles aux autres acteurs en conditionnant l’accès au marché européen au respect de ses valeurs. C’est une étape décisive vers son objectif d’incarner un modèle de réglementation.L’approche européenne s’articule autour du concept d’« IA digne de confiance » (ou trustworthy AI) et vise à faire de l’UE la pionnière des IA « légales », « éthiques » et « robustes ». Selon Carme Artigas, secrétaire d’État espagnole à la numérisation et à l’intelligence artificielle, il s’agit de « stimuler l’innovation et l’adoption de l’intelligence artificielle dans toute l’Europe tout en respectant pleinement les droits fondamentaux de nos citoyens. » Le défi est de taille, tant les enjeux politiques, économiques, et sociaux sont considérables. Le 13 mars dernier, les ambitions de l’UE se sont concrétisées avec l’adoption par le Parlement européen de l’AI Act au terme d’une longue procédure.L’AI Act dans sa version préfinale prévoit des obligations variables en fonction du système ou du modèle d’IA et de son impact. L’étendue des obligations s’imposant aux fournisseurs et utilisateurs est proportionnelle aux risques d’atteinte aux droits fondamentaux posés par ces derniers. Ce faisant, il distingue entre les dispositifs d’IA posant des risques inacceptables pour les Européens, ceux posant des risques systémiques, ceux à haut risque, et enfin les dispositifs à risques faibles ou limités.Une réglementation qui distingue différents niveaux de risqueLe règlement interdit d’abord les pratiques posant des risques inacceptables. Il s’agit des systèmes les plus intrusifs dont les usages peuvent avoir des conséquences néfastes démesurées sur les droits des usagers, comme l’utilisation de systèmes d’IA à des fins de manipulation pour influencer le comportement des individus (scandale Cambridge Analytica, analyse des données personnelles d’électeurs afin d’influencer leurs intentions de vote), les systèmes d’IA permettant de mettre en place un crédit social, et, sauf exception, les dispositifs d’identification à distance des personnes sur la base de caractéristiques personnelles comme la reconnaissance faciale algorithmique.Ajoutés tardivement dans le règlement, les modèles de fondation (ou general-purpose AI models), de grands modèles d’intelligence artificielle exploitant de larges quantités de données et pouvant être adaptés pour effectuer plusieurs types de tâches, font l’objet d’un régime distinct. En fonction de leurs capacités, ils pourront être considérés comme posant un « risque systémique ». Cette catégorie concerne notamment ChatGPT dans sa version actuelle. Les fournisseurs de modèles posant un risque systémique seront soumis à des obligations renforcées par rapport aux autres modèles de fondation (entre autres, obligation de notification d’incidents de cybersécurité auprès de la Commission).La catégorie des systèmes d’IA à haut risque s’applique aux systèmes susceptibles d’engendrer des conséquences néfastes importantes sur la santé, la sécurité et les droits fondamentaux des individus. L’utilisation de systèmes d’IA dans les procédures de recrutement, la détermination de l’obtention de droits sociaux ou de l’octroi de l’asile… relèvent de cette catégorie. Cette classification se traduit par des obligations variées allant de l’établissement d’un système de gestion des risques robuste, au maintien d’une documentation technique exhaustive, en passant par le respect des exigences en matière de gouvernance des données, de supervision humaine et de cybersécurité.Les dispositifs à risques faibles ou limités restent quant à eux soumis à l’obligation de transparence commune à tout système destiné à interagir directement avec les personnes. Cette catégorie concerne surtout les systèmes d’IA ayant une influence minime sur la prise de décision et inclut les systèmes cantonnés à des tâches très spécifiques comme la classification de dossier ou la correction orthographique.Un texte bienvenu mais imparfaitLa gouvernance de ce cadre sera assurée par un nombre conséquent d’institutions européennes et nationales, à l’image du Comité européen de l’intelligence artificielle et du Bureau européen de l’IA, questionnant la lisibilité du dispositif. En France, la Commission nationale de l’informatique et des libertés (CNIL) s’est déjà positionnée en renforçant son expertise sur l’IA, laquelle se traduit notamment par la publication de fiches de recommandation pour le développement et le déploiement des systèmes d’IA.Cartographie des fiches de recommandations pour le développement et le déploiement des systèmes d’IA de la CNIL | ©CC BY-NCLe texte était largement attendu, notamment par les acteurs de l’industrie créative, mais aussi par des juristes et organismes indépendants. Pourtant, l’adoption du texte n’a pas été simple, la France, l’Allemagne et l’Italie se montrant particulièrement réticentes à l’égard des dispositions portant sur les modèles de fondation, y voyant un frein potentiel au développement de l’IA en Europe. Dans ce domaine, le règlement ne semble pas satisfaire toutes les parties.Il est notamment reproché à l’AI Act de proposer une définition inadéquate des modèles de fondation « à risque systémique », une insuffisance à laquelle le Bureau européen de l’IA (chargé entre autres d’éclairer la mise en œuvre de l’AI Act) devra pallier rapidement. Par ailleurs, plusieurs compromis ont été critiqués comme pouvant donner lieu à des abus, comme la possibilité laissée aux États d’utiliser des dispositifs d’identification biométrique en temps réel pour des motifs de sécurité nationale.Combiner l’AI Act et les textes déjà en vigueurEn outre, la mise en conformité au règlement, en particulier pour les systèmes à haut risque, est subordonnée au respect de standards techniques relatifs à la qualité des systèmes, à leur sécurité ou encore à la gouvernance des données qui reste encore à déterminer. Dans cette perspective, les efforts s’intensifient pour proposer des standards techniques pertinents.L’AI Act fonctionnera en synergie avec d’autres textes européens. Antoine Boutet, Juliette Sénéchal, Margo Bernelin et William Letrone, Fourni par l’auteurEnfin, l’AI Act n’épuise pas toutes les questions soulevées par l’IA ni les besoins d’encadrement. Il faudra donc combiner sa lecture avec d’autres textes comme le Règlement général sur la protection des données (RGPD) dans le cas d’IA impliquant un traitement de données personnelles, ou le Règlement sur les services numériques (ou Digital Services Act – DSA) et le Règlement sur les marchés numériques (ou Digital Market Act – DMA) dans le cas d’IA intégrées à des plates-formes de services.Quoiqu’il en soit, en Europe comme ailleurs, il n’est plus question de laisser les grandes sociétés de l’IA s’autoréguler. Reste à espérer que la phase de mise en œuvre parvienne à réduire les zones d’ombres qui subsistent à ce stade.Le projet IPoP est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.>> Les auteur.e.sAntoine Boutet, Maitre de conférence, Privacy, IA, au laboratoire CITI, Inria, INSA Lyon – Université de Lyon;Juliette Sénéchal, Professeur de droit privé, Université de Lille;Margo Bernelin, Chargée de recherche CNRS, Université de NantesWilliam Letrone, Chercheur post-doctorant en droit de la cybersécurité et droit de la protection des données personnelles, Université de Nantes >> Cet article est republié sous licence Creative Commons, lire l’article original :The Conversation