FRCCS2022: FRENCH REGIONAL CONFERENCE ON COMPLEX SYSTEMS
PROGRAM FOR MONDAY, JUNE 20TH
Days:
next day
all days

View: session overviewtalk overview

09:10-10:40 Session 2: Conférences
Location: Auditorium
09:10
Homo moralis: on the evolutionary foundations of moral behavior

ABSTRACT. “Survival of the fittest” is often taken to imply that human life must be the Hobbesian “solitary, poor, nasty, brutish and short.” However, recent theoretical analyses of the evolution of preferences guiding behaviors of individuals show, on the contrary, that natural selection promotes a particular form of preferences, which may be interpreted as implying a partial Kantian moral concern. The talk will provide an account of the ultimate forces behind this result, and discuss implications of the said preferences.

10:00
Strategic Manipulation in Bayesian Dialogues

ABSTRACT. In a Bayesian dialogue two individuals report their Bayesian updated belief about a certain event back and forth, at each step taking into account the additional information contained in the updated belief announced by the other at the previous step. Such a process, which operates through a reduction of the set of possible states of the world, converges to a commonly known posterior belief, which can be interpreted as a dynamic foundation for Aumann’s agreement result. Certainly, if two individuals have diverging interests, truthfully reporting one’s Bayesian updated belief at every step might not be optimal. This observation could lead to the intuition that always truthfully reporting one’s Bayesian updated belief were the best that two individuals could do if they had perfectly coinciding interests and these were in line with coming to know the truth. This article provides an example which shows this intuition to be wrong. In this example, at some step of the process, one individual has an incentive to deviate from truthfully reporting his Bayesian updated belief. However, not in order to hide the truth, but to help it come out at the end: to prevent the process from settling into a commonly known belief the – ‘Aumann conditions’ – on a certain subset of the set of possible states of the world (in which the process then would be blocked), and this way make it converge to a subset of the set of possible states of the world on which it will be commonly known whether the event in question has occurred or not. The strategic movement described in this example is similar to a conversational implicature: the correct interpretation of the deviation from truthfully reporting the Bayesian updated belief thrives on it being common knowledge that the announced probability cannot possibly be the speaker’s Bayesian updated belief at this step. Finally, the argument is embedded in a game-theoretic model.

11:00-12:30 Session 4A: "conver-stations"
Location: Shakerspace
11:00
Détection de comportements inauthentiques coordonnés sur les réseaux sociaux par deep learning sur les graphes

ABSTRACT. La détection d’anomalies dans les graphes de réseaux sociaux est au coeur des enjeux actuels de lutte contre la désinformation. A l'heure des fake news et des comportements inauthentiques coordonnés (CIB), il apparaît de plus en plus crucial de disposer d'outils de détection et d'identification performants.

Plus spécifiquement, dans le cas des CIB, la construction de tels outils se heurte à la difficulté de définition du phénomène. Par essence multi-échelle, il peut se manifester sous une grande diversité de formes (faux comptes, faux contenus, astroturfing, etc). Sa détection ne peut être ramenée ni à une recherche de synchronisation, les acteurs n'étant pas nécessairement des bots, ni un clustering direct sur un graphe d'utilisateurs, les métriques usuelles ne permettant pas de rendre compte de la complexité des interactions cherchées. On doit donc développer un outil encodant l'ensemble des interactions et des caractéristiques du réseau et fournissant une représentation permettant l'identification d'acteurs agissant de "façon liée" à diverses échelles, sans qu'il soit besoin de donner un sens précis à cette expression.

Les méthodes de deep learning sur les graphes dynamiques (Temporal Graph Networks) correspondent précisément à ces besoins. Elles permettent de construire une représentation des noeuds tenant compte de leurs caractéristiques propres, de la dimension temporelle de leurs interactions et du contenu de ces interactions. Cette représentation est pertinente pour notre problème car elle est apprise dans un objectif de prédiction des interactions futures. Elle encode donc les informations de proximité souhaitées et agrège par là même plusieurs échelles spatiales et temporelles dans un même vecteur. De plus, des algorithmes tels que les TGN (Temporal Graph Networks) sont auto-supervisés et ne requièrent donc pas de données d'entraînement autres que le graphe d'étude.

Les TGN permettent non seulement de retrouver les communautés du graphe (non-dynamique) d'origine, mais également de distinguer des sous-communautés plus fines, justifiant par là même l'intérêt de son utilisation. La compréhension, dans un second temps, du fonctionnement de ces groupes d'utilisateurs permet de distinguer les groupes montrant un comportement inauthentique coordonné.

11:25
A percolating study of social explosions

ABSTRACT. PDF

11:50
Reach of vaccine-critical content on Twitter during the COVID-19 pandemic

ABSTRACT. During the ongoing COVID-19 pandemic, the discussion about related topics took place at several levels, from official channels to word-of-mouth to online social networks. We consider the discussion related to vaccines in the wider framework of COVID-19 in the French-speaking Twitter. We have collected 2M tweets with 6M retweets from 800k users related to the discussion on vaccines and COVID-19, and extracted and manually confirmed 380 URLs of vaccine-critical websites. Due to the directed nature of the Twitter online discussion, we extend the available tools based on hyper-graph to encompass directionality[1]. From the directed nature of the online discussion, encoded into a hyper-graph, we detect the community structure of users, dictated by the information flow on the hyper-graph, and their role in spreading vaccine-critical information across Twitter user base. Figure 1A reveals the heterogeneous participation of each community in sharing URLs that propose vaccine-critical contents. We could classify the communities based on their ability to reach other parts of the hyper- graph through vaccine-critical tweets or retweets (see Figure 1A). In this case we can discriminate communities that act as social bubbles (on the left part of the plot) and communities the act as spreaders of critical information (on the right part of the plot). An interesting result of this analysis is that the most prolific vaccine-critical communities act as social bubbles, with the majority of hyper-edges pointing within the community. A classification of communities based on most prolific users of each can be found on Table 1. From the concurrent clustering of communities and vaccine-critical URLs emerges a super-structure of communities and URLS (see Figure 1B). The communities in the vaccine-critical universe arrange around the most prolific ones (community 2 and community 5 in the plots), super-structures that are loosely related to right-wing and left-wing political views. Those super-communities gather most of the online information from few URLs around which a small universe of URLs with similar content is arranged.

Further, from the temporal analysis we could highlight how the user engagement with vaccine-critical URLs change in time following the real world events linked to the pandemic. We could differentiate events triggering user engagement in COVID-19 and news-media URLs (e.g. the announcement of the Pfizer vaccine release) and events triggering vaccine-critical engagement only (e.g. suspension of Astrazeneca vaccine in Denmark and other countries).

11:00-12:30 Session 4B: "conver-stations"
11:00
Systèmes complexes artificiels, systèmes multi-agents et ingénierie logicielle

ABSTRACT. Appréciés en ingénierie logicielle, notamment pour les qualités qu'ils apportent en architecture logicielle, les systèmes multi-agents sont un objet d'étude et un outil de recherche à la croisée de l’intelligence artificielle, des systèmes distribués et du génie logiciel. Dans ce cadre, l’étude de la coopération entre les agents, une forme de méta-heuristique pour guider l’émergence des fonctionnalités attendues, donne de bons résultats dans chacune des 3 branches et questionne la démarche scientifique empirique et reproductible.

11:25
Réseau de liaisons financières entre entreprises françaises

ABSTRACT. Les liaisons financières entre entreprises peuvent être considérées comme un système complexe, et représentées de manière simplifiée par un réseau. Nous considérons ici le cas du réseau de propriété (ownership nework) français, considéré comme le plus représentatif de la la répartition du pouvoir de décision entre agents économique, en se fondant sur le base LIFI (liaisons financières entre sociétés) qui répertorie plus de 700000 unités légales, et n’a pas été utilisée à cet effet, à notre connaissance. De nombreux travaux ont examiné les réseaux économiques et financiers (propriété, chaîne d’approvisionnement, crédit interbancaire, conseils d’administration, actifs financiers [1]) et ont établi que cette répartition du pouvoir de décision dépendait des propriétés topologiques du réseau. Dans le cas de la propriété, la plupart des réseaux sont monocouche, très peu denses, « small-world », avec une distribution du degré à queue épaisse. De plus, la composante faiblement connectée la plus large a le plus souvent une structure en nœud papillon (bow-tie), avec une composante fortement connectée où les entreprises du secteur financier sont sur-représentées. Nos observations préliminaires dans le cas français sur données LIFI confirment la très faible densité du réseau, et montrent la présence d’une composante géante faiblement connectée représentant plus de 30 % de l’ensemble des unités légales, ainsi qu’un très grand nombre de composantes (>150000) de taille faible et décroissant très rapidement. La distribution du degré sortant (out-degree) suit une loi approximativement lognormale, avec queue épaisse, et un degré maximal proche de 2000. Nous constatons également une disassortativité par le degré, et une transitivité décroissante en fonction du degré. Enfin nous mettons en évidence la présence de motifs caractéristiques et donnons une interprétation économique. Les perspectives incluent la prise en compte des taux de participation afin de filtrer le réseau ou de comparer les indices d’influence des différentes unités, la comparaison avec les indicateurs économiques classiques, et enfin l’analyse dynamique du comportement du réseau.

11:50
Imitation, democratic leadership, and collective intelligence in sheep

ABSTRACT. Most animal behavior studies consider collective motion as an uninterrupted, continuous process. Yet, in many animal systems as in sheep, collective motion is not a continuous process but occurs in bursts, which are preceded and followed by resting (or feeding) phases. A collective displacement, from an initially static group, is triggered by the behavioral shift of one individual, which “instigates” neighboring group members to undergo the same behavioral transition. As result, activation waves propagate through the system and the group starts moving collectively. The transition to a static phase occurs in a similar fashion. Interestingly, collective displacements are coordinated by the first individual to perform the transition to motion that is located at the front of the group and acts as an incidental temporal leader. And importantly, individuals alternate in playing the roles of leaders and followers. We demonstrate that the mathematical properties of the unveiled mechanism -- likely to be at work in many gregarious animal systems -- confers the group with the ability to perform a series of complex collective tasks such as group guidance through complex landscapes, information sharing for efficient target localization, and exploration of multiple targets.

12:15
Spatial Networks features for Brain Computer Interfaces

ABSTRACT. In the domain of motor imagery (MI)-based Brain Computer interfaces (BCI), the most frequently extracted features are brain signal powers (PS). They are usually combined with common spatial patterns (CSP), a particular type of supervised spatial filters. Although PS combined with CSP exhibits notable accuracies, there is still a non-negligible portion of subjects (∼30%) that show inefficient performance. Notably, most of current methods in BCIs consider each sensor as an isolated element, thus neglecting possibly existing interactions across them. To capture the brain’s collective behavior, we hypothesize that functional connectivity (FC) could fill in this gap, by taking into account information exchange between different brain areas. The resulting complex network topology can be then quantified using metrics from network science. To evaluate this approach’s potential, we chose a left-right hand MI BCI dataset, in which we selected a subset of subjects whose accuracy is below 70% when implementing CSP+PS (38 subjects). We estimated spectral coherence based-FC networks from 62 EEG signals in a broad alpha-beta band (8-35Hz). For each weighted and undirected network, we computed node strength (S) as our baseline metric. We also implemented segregation (Seg) and integration (Intg) measures, two laterality metrics that quantify within- and between-hemispheres interaction respectively. Since brain networks are spatially-embedded, we further computed a spatial counterpart for all the above-mentioned metrics, where each weight is replaced by the square product between the weight and the Euclidean distance between the connected nodes. The final classification scenario implementing a 5-fold cross-validated support vector machine (SVM), showed an overall accuracy improvement in terms of AUC when using network metrics (CSP+PS: 0.56, S+spatial-S: 0.62, Seg+spatial-Seg: 0.64, Intg+spatial-Intg: 0.65, mean across subjects). Moreover, these metrics allow for a coherent neurophysiological interpretation. Although still preliminary, these results suggest a potential practical advantage in considering network features to isolate organisational mechanisms of the brain and improve performance in BCI systems.

11:00-12:30 Session 4C: "conver-stations"
11:00
Grands réseaux complexes : mettre de l’ordre dans les triangles

ABSTRACT. La structure des réseaux complexes peut être caractérisée par de nombreux indicateurs, dont l’un des principaux est le nombre de triangles. Connaître la position des triangles permet de mesurer le regroupement des nœuds (clustering), ce qui a été utilisé dans la littérature pour décrire la structure du cerveau, l’évolution des réseaux sociaux, les architectures logicielles ou les citations scientifiques. Nous proposons des heuristiques pour réordonner les nœuds afin d'accélérer le listage des triangles. En moyenne, notre méthode est 30% plus rapide que les méthodes existantes si on ignore le temps de l’heuristique, et de 15 % si on l’inclut.

11:25
Co-construire un modèle de simulation et son exploration : les pratiques des agro-pasteurs de Diohine

ABSTRACT. Le projet DSCATT (Dynamic of Soil CArbon sequestration in Temperate and Tropical Forest) se donne pour objectif de répondre aux défis de l’Initiative 4p1000 sur la séquestration du carbone dans les sols pour faire face aux changements climatiques. Pour ce faire, il se propose d'explorer le potentiel de séquestration du carbone dans les sols cultivés tout en considérant le développement durable des systèmes agricoles dans un contexte de changements globaux.

Nous nous proposons d'étudier les mécanismes à l'œuvre dans un système agricole du bassin rachidier du Sénégal: Diohine, qui réussit à survivre dans un milieu particulièrement dificile. L'observation de la fertilité des sols est ici utilisée comme proxy du stockage de matières carbonnées qui est l'objet central du projet DSCATT.

Plus précisément, nous cherchons à modéliser la dynamique solidaire des pratiques agricoles de Diohine, en particulier la gestion concertée de la jachère communautaire. Alors que cette pratique coutumière a disparu des villages alentours, les agro-pasteurs de Diohine continuent de laisser une partie des terres arables du village au repos chaque année, fertilisé par la pâture du troupeau du village, et ceux des tranhumants.

Nous mobilisons les outils de la méthode COMOD (COMpanion MODeling) pour modéliser avec les acteurs les mécanismes à l'oeuvre au sein de leur communauté participant à la survie du village. COMOD facilite une explicitation réflexive d'un système par ses parties prenantes afin qu'il puisse être synthétisé dans un modèle de simulation.

Nous nous concentrons sur les pratiques foncières, notamment (i) les interactions entre agriculteurs et éleveurs (ii) la résolution de conflits (iii) la gestion collective de l’espace (iv) les réseaux de solidarité qui en découlent.

Nous proposons pour ce cas d'étude d'aller au delà de la construction du modèle, là où s'arrête habituiellement la démarche COMOD, en développant une approche innovante d'exploration d'accompagnement (ComExp). Il s'agit d'une exploration itérative de ce système complexe, avec le modèle de simulation comme médiateur entre modélisateurs et acteurs.

La démarche ComExp a pour objectif de i) calibrer le modèle (pour valider son fonctionnement) , ii) caractériser les mécanismes prépondérants dans la viabilité du système social modélisé et iii) proposer des scénarios crédibles de subsistance face au défi de la croissance démographique.

14:00-15:30 Session 6: Keynote and invited talks
Location: Auditorium
14:00
L’intelligence collective des super-organismes

ABSTRACT. De très nombreuses espèces animales vivant en groupes (certaines espèces de poissons, d’oiseaux, et d’ongulés) ou en sociétés comme les insectes sociaux (fourmis, termites ainsi que certaines espèces de guêpes et d’abeilles) manifestent des formes d’intelligence collective parfois très élaborées. Ces capacités résultent d’interactions assez rudimentaires entre les individus au cours desquelles ces derniers échangent des informations. Malgré leur simplicité, ces interactions permettent à des groupes d’individus de traiter collectivement de l’information et de s’auto-organiser. Pour analyser ces comportements collectifs, nous avons développé une méthodologie qui consiste à caractériser et quantifier à la fois et séparément les comportements aux niveaux individuel et collectif et ensuite à relier les deux échelles de phénomènes au moyen de modèles mathématiques. Grâce au décryptage et à la modélisation de ces interactions, nous connaissons un peu plus les mécanismes qui permettent aux sociétés animales de coordonner leurs déplacements, de construire des nids d’une grande complexité et de résoudre collectivement de multiples problèmes.

14:50
Network science for understanding brain complexity

ABSTRACT. In the last decades, network science has become essential for studying complex interconnected systems. Combined with neuroimaging, network science has allowed neuroscientists to visualize brain connectivity patterns and quantify their key organizational properties. Within this expanding multidisciplinary field many issues remain open, from how integrating information from multimodal connectivity, to how modeling temporally dynamic brain networks. In this talk, I will introduce novel approaches to address these challenges and discuss the potential impact through a selection of results obtained in human neuroscience.

Dans mon exposé, j’aborderai le problème de la complexité écologique en prenant comme point de départ un modèle de Lotka-Volterra avec des interactions aléatoires entre les espèces. Je dévoilerai une structure très riche et hiérarchique des équilibres possibles entre les espèces. Je relierai les propriétés critiques émergentes ainsi qu’une dynamique de relaxation de plus en plus lente à l’apparition de phases désordonnées similaires à celles rencontrées dans les systèmes vitreux. Enfin, je discuterai comment étendre ces résultats à des fonctions de croissance non-logistiques dans la dynamique des abondances d’espèces, qui s’avèrent être pertinentes pour décrire des effets de rétroaction positive.

16:00-17:30 Session 8A: Converstations
Location: Shakerspace
16:00
Sur la résilience de l'extrémisme : le modèle de Hegselmann-Krause hétérogène sur réseaux

ABSTRACT. voir fichier joint

16:25
Détection de la désinformation sur Twitter par mesure de la déformation de graph embeddings dans le temps

ABSTRACT. Les réseaux sociaux, et en particulier Twitter, permettent de collecter en temps réel un ensemble de traces numériques telles que les mentions, commentaires ou retweets. A partir de ces interactions, un graphe peut être construit avec les utilisateurs comme nœuds et les interactions prémentionnées comme liens. Les évolutions sociales telles que la polarisation peuvent ainsi être interprétées à travers des évolutions structurelles du réseau. Pour mesurer et comprendre ces transformations, nous avons développé une approche basée sur la géométrie. Les graphes sont représentés par des embeddings des nœuds à partir de Graph neural networks. L'alignement de graphes est utilisé pour garder comparer ces embeddings à différentes étapes du temps. Les changements dans l'espace latent entre les pas de temps sont représentés comme un champ de vecteurs de vitesse et les propriétés de l'espace latent peuvent être identifiées et liées aux évolutions sociales.

Les communautés sont au cœur de la propagation de l'information et donc de la désinformation. Elles canalisent l'information en ligne. L'apparition et la disparition des communautés permettent de comprendre les jeux d'influence entre les narratifs d'un débat. S'intéresser aux frontières qui se situent entre communautés nous permet ainsi d'étudier l'évolution des récits dans le temps.

A partir d'un jeu de données Twitter de plus de 300 millions de tweets sur le paysage politique français et un jeu de données de plus de 100 millions de tweets sur le débat sur le changement climatique, une reconstruction à long terme des espaces latents a été calculée. Elle permet de mieux comprendre la construction des opinions, telles que le scepticisme climatique ou l'hésitation à se faire vacciner, d'une manière unique.

Ces paysages informationnels changent organiquement avec l'évolution naturelle du réseau, mais aussi sous l'impact de chocs exogènes. Modéliser la stabilité des communautés en ligne permet de comprendre des enjeux plus fondamentaux comme l'émergence de mouvements sociaux ou la polarisation d'un paysage politique, et de détecter les sources de ces évolutions comme la désinformation.

16:50
Réduire la complexité de la percolation dirigée dans les graphes temporels

ABSTRACT. La percolation est un processus d'invasion d'un milieu poreux par un liquide où le flux de liquide entre deux pores est autorisé avec probabilité p et bloqué avec probabilité 1-p. Il existe une transition de phase à pc . En effet, à p<pc, le liquide ne va occuper qu'une partie limitée du milieu poreux. A p=pc, une majeure partie du réseau de pores, la composante géante, va être remplie de liquide. Nous considérons un réseau de connexion modélisé par un graphe aléatoire d'Erdös-Rényi où les nœuds sont les pores et les liens existent avec cette même probabilité p. La percolation permet alors aussi d'étudier la propagation d'un agent, un virus par exemple, dans un graphe. Quand on s'intéresse à un graphe temporel, c'est-à-dire que les liens entre nœuds n'apparaissent qu'à des temps précis, le temps impose naturellement une direction dans la percolation possible à travers un tel graphe, et on doit donc considérer une percolation dirigée [1]. Ainsi, l'agent qui se propage ne peut infecter un nouveau nœud que lorsque un lien actif existe entre un nœud infecté et un nœud susceptible (non infecté). Considérons un graphe d'Erdös-Rényi de n nœuds et de probabilité p. Un graphe temporel est créé en attribuant aléatoirement un temps t à chaque lien (u, v) pour devenir un événement (u, v, t). Le but désormais est simuler efficacement un processus de percolation sur ce graphe. Supposons qu'un seul nœud soit infecté initialement, quelle va être la taille de la composante sortante, c'est-à-dire le nombre de nœuds infectés à la fin du processus ? D'autre part, que pouvons-nous dire de la distribution de ces nombre de nœuds infectés sur l'ensemble des nœuds de départ ? Des travaux récents montrent que l'accessibilité (reachability) dans les graphes temporels a la même transition de phase que la percolation dirigée [2] et proposent de nouvelles méthodes pour calculer les grandeurs caractéristiques [3]. Cependant, le calcul de la taille de la composante sortante pour l'ensemble des nœuds reste coûteux. Le temps de calcul grâce au passage par un graphe d’événements est O(mlog(m) + n) et la quantité de mémoire utilisée est O(m + n) tandis qu'il faut O(nm) et O(n2) respectivement dans le cas d'un calcul sur le graphe temporel directement où n est le nombre de nœud du graphe et m est le nombre d’événements. Nous proposons donc d'étudier la réduction de complexité du problème en utilisant des fonctions de hachage sur l'ensemble des n nœuds du graphe temporel pour en réduire le nombre à k super-nœuds [4]. Certains nœuds vont donc entrer en collision dans un super-nœud. Ce phénomène engendre une perte importante d'information qui est contre-balancée par l'utilisation d'un nombre suffisant de fonctions de hachage. Selon les paramètres du graphe temporel, il est possible d'avoir une distribution des tailles des composantes sortantes avec une décroissance exponentielle. Le système se trouve dans une phase où peu de nœuds peuvent infecter un grand nombre d'autres nœuds. Les collisions par les fonctions de hachage vont rendre le graphe haché plus dense que le graphe de base. Cette densification va alors augmenter le nombre de nœuds atteignables depuis une même source. Une solution proposée est d'intersection les ensembles de nœuds atteignables par différentes fonctions de hachage pour supprimer les erreurs introduites lors des collisions cf figure 1.

Figure 1: Distribution des tailles des composantes sortantes a) dans le graphe original b) après intersection entre plusieurs fonctions de hachage c) après avoir haché avec une seule fonction.

Remerciements

Nous voudrions remercier l'agence nationale de la recherche pour son soutien au projet DATAREDUX (ANR-19-CE46-0008).

Références

[1] R. Parshani, et al., Europhysics Letters, 90, 2010, 3. [2] A. Badie-Modiri, A. K. Rizi, M. Karsai, and M. Kivelä, Physical Review Letters E, 2022, accepted paper. [3] A. Badie-Modiri, M. Karsai, and M. Kivelä, Physical Review Letters E 101, 2020, 052303 [4] M. Thorup, Y. Zhang, Proceedings of the fifteenth annual ACM-SIAM symposium on Discrete algorithms, 2004, 615-624.

16:00-17:30 Session 8B: Converstations
16:00
Prérequis à une transition agroécologique : Leçons issues de systèmes agricoles aux Antilles françaises

ABSTRACT. Cet article porte sur les motivations des exploitants agricoles à s’engager dans la transition agroécologique. Un algorithme est conçu pour appréhender les stratégies des agriculteurs. Cet algorithme fondé sur la théorie mathématique de la viabilité spécifie les règles de décision que privilégient les agriculteurs selon leurs arbitrages entre sécurisation du capital financier (revenu) et préservation du capital naturel (qualité du sol). Cette conception viabiliste des stratégies de production agricole est appliquée à des situations observées aux Antilles françaises. En considérant les habitudes de production des agriculteurs (choix de spéculation, modes de production), la viabilité des exploitations agricoles maraîchères est discutée sur les plans économique et écologique. Les résultats montrent : (i) l’existence d’un seuil pivot de qualité de sol en dessous duquel l’engagement d’une exploitation dans une trajectoire de transition agroécologique ne permet pas d’éviter une dégradation irréversible du sol (“trappe à pauvreté du sol”), (ii) la préférence pour le maintien du mode de production conventionnel qui apparaît rationnelle en pareille situation (i.e., “trappe à l’inécologisation des pratiques”), (iii) l’intérêt à accélérer la transition agroécologique dès lors que la qualité initiale du sol surpasse le seuil pivot (i.e., ne pas retarder le transformative change).

16:25
Approches réseaux pour l’analyse d’écosystèmes d’innovation ouverts

ABSTRACT. La science et l'innovation sont de plus en plus réalisées dans de larges communautés ouvertes de contributeurs, qui collaborent pour résoudre des problèmes d'une manière que les organisations traditionnelles sont mal structurées pour gérer. La nécessité et les défis de la coordination d'initiatives collaboratives ouvertes, auto-organisées et à grande échelle ont été rendus encore plus saillants durant la pandémie de Covid19 [1]. Comprendre comment de telles initiatives interdisciplinaires et participatives s’auto-organisent de manière performante et durable est donc essentiel pour la conception de programmes participatifs ainsi que pour le développement d’outils susceptibles de rendre ces actions collectives plus efficaces.

Alors que les gouvernements, les universités et les entreprises ont largement reconnu le potentiel des communautés ouvertes, nous manquons encore d'analyses quantitatives in situ sur les processus de collaboration au niveau micro qui sous-tendent leur performance. Dans cette présentation, je souhaite présenter les travaux que nous menons au Interaction Data Lab [2] à ce sujet utilisant des approches de réseaux complexes reconstruits à partir d’ensembles de données détaillées à grande échelle d’écosystèmes de science ouverte et du logiciel libre pour étudier comment les processus de collaboration ouverte intra- et inter-équipes sous-tendent la performance collective, l'apprentissage et la longévité des projets en science et en ingénierie.

Je me concentrerai en particulier sur l’analyse de carnets de laboratoires digitaux d’équipes étudiantes participant à la compétition de biologie synthétique internationale iGEM, système modèle de Science ouverte. La récolte des données des cahiers de laboratoires et de performance de ~3,000 équipes ayant participé ces 15 dernières années nous a permis de reconstituer le réseau d’activité et de partage des tâches internes à chaque équipe, le réseau de collaborations inter-équipes, et le réseau de réutilisation d’éléments d’ADN synthétiques (BioBricks). Le nombre très large d’équipes observées permet de réaliser une étude à grande échelle des caractéristiques de travail partagées par les équipes et de celles associées à la performance ainsi qu’à l’amélioration des équipes lors de multiples participations. Je montrerai d'abord que les réseaux de collaboration intra- et inter-équipes et la dynamique d'édition sont régis par des modèles stables au cours des différentes compétitions et entre des équipes de tailles très différentes (5 à 37 membres). Je montrerai ensuite que si la taille de l'équipe est un facteur prédictif important de la productivité et de la performance pour les petites équipes, son effet disparaît pour les équipes de plus de 10 rédacteurs pour lesquelles des effets réseaux inter-équipe (centralité et diversité des interactions) et intra-équipe (coordination des membres de l'équipe sur les activités du projet) sont des facteurs importants de la performance. Enfin, je mettrai en évidence un phénomène d’apprentissage social où la performance d’une équipe « diffuse » sur son réseau de collaboration, avec un effet sur la performance future d’une équipe lors de re-participations à la compétition. Je montrerai notamment que cet effet de diffusion réseau de la performance est observé de manière plus générale dans l’apprentissage collaboratif en utilisant des données dynamiques de réseau d’interaction téléphonique et de performance individuelle.

Je terminerai en ouvrant les perspectives de modélisation offertes par ce type de données, notamment avec l’utilisation de modèles de réseaux mutualistes utilisés en écologie. Les méthodologies de réseau employées dans le cadre des modélisations pourront notamment guider notre capacité à réduire le coût de coordination lors de la mise à l’échelle de grandes communautés agiles et ouvertes et servir de base à la conception de systèmes de recommandation visant à faciliter l'action collective dans des contextes d'innovation ouverte.

16:50
Coupler senseurs et questionnaires pour étudier le comportement humain : Cas de quatre conférences scientifiques

ABSTRACT. Profitant du développement de méthodes quantitatives de mesure du comportement humain, nous présentons une étude longitudinale sur quatre conférences scientifiques, durant lesquelles nous avons étudié en parallèle les contacts entre individus et les caractéristiques des participants. Les interactions ont été monitorées via la plateforme SocioPatterns, qui permet de collecter les événements de proximité face-à-face toutes les 20 secondes dans un contexte social bien défini. Les informations sur les participants collectées via des questionnaires incluent des données sociodémographiques, un test de personnalité de type Big Five, un test de perception situationnelle DIAMONDS et des mesures de l’attractivité scientifique, des motivations liées à la participation aux conférences et de certains biais de perception. Toutes les conférences étaient internationales et ont eu lieu à Cologne en Allemagne ; trois rassemblements étaient interdisciplinaires sur le thème de la Computational Social Science, le dernier concernait la communauté de Computer Science. Un tel jeu de données permet d’étudier les propriétés des interactions entre individus, et plus particulièrement entre chercheurs, pendant un événement à la fois social, professionnel et d’échange d’idées. Il permet également de tester des hypothèses sur les mécanismes en jeu, notamment le pouvoir prédictif de caractères personnels sur le comportement des individus. Nous présenterons une description générale des données ainsi que certains résultats préliminaires de nos travaux de recherche sur ces thèmes à l’interface entre physique théorique, data science et sciences sociales. Les données étant très riches, le but est également de les partager avec la communauté et d’inviter à des collaborations sur ces thématiques.

17:15
Powering Complex Business Signals’ Classification using Enriched Taxonomy by Existing Data Sources

ABSTRACT. Taxonomies play an important role in Business Intelligence (BI) applications by capturing business signals to facilitate decision support processes [1]. The business signals are complex as they are broad-ranging related to office expansions or relocations, executive changes or major hires, partnerships, mergers, acquisitions, etc. carrying diverse information related to future transcendental changes [1, 2]. Capturing and classifying these changes as business signals using online news sources for different interested parties is crucial for making company decisions at the right time. Conventionally, the classification of news documents is performed using detected keywords of the taxonomy. A taxonomy is a tree-based structure where nodes (concepts) are linked with the hypernymy relation [2]. BI processes require knowledge of the fundamental business concepts organized as taxonomies for effective decision-making. To ensure and maintain reliable data quality, it is crucial to keep the same definitions and organization of these concepts. This highlights the major significance of business taxonomies in the BI domain. However, their development in business information systems follows an ad hoc process in the majority of the cases. Existing studies do cover BI taxonomies but these are excessively generic and domain-specific [1 - 3]. As the result, the BI domain suffers from many immature, incorrect, and incomplete notions of concepts. The contribution of our research is the presentation of a method (see Figure 1) based on existing semantically-structured lexical databases to enrich the human-made taxonomy with new concepts to improve business news classification. To enrich a hand-crafted taxonomy of a company consisting 2,973 concepts, 3 datasets are used which are; 1) WordNet [4], 2) Sense2vec [5], and 3) Wiktionary [6].

16:00-17:30 Session 8C: Converstations
16:00
Dualité noeud-couche dans les réseaux multicouches

ABSTRACT. Les réseaux multicouches constituent un formalisme pertinent pour modéliser les interactions multi-échelles ou multi-niveaux de nombres de systèmes complexes [1]. A l’heure actuelle, une unique description multicouche de ces systèmes est systématiquement employée i.e., la description où les nœuds/couches sont modélisés de manière intuitive au plus proche des données (ex : un réseau social où les nœuds sont les individus et les couches différents moyens de télécommunications entre eux). Cependant, le formalisme multicouche permet théoriquement une multiplicité de descriptions pour un système donné (ex : dans la définition des couches) [2] mettant en valeur différentes facettes de celui-ci. Ainsi, certains aspects multi-échelles sont-ils systématiquement négligés. Nous établissons le principe de la dualité nœud-couche afin de combiner la description « intuitive » (description O) et une description complémentaire d’un même système, jusqu’ici inexplorée (description D). En se fondant sur une mesure simple (degré multicouche), nous montrons que seule la combinaison des deux descriptions est capable de saisir l’ensemble des différences entre deux réseaux multicouches. Nous construisons un modèle de reconnexion stochastique multi-échelle pour caractériser de manière systématique les deux descriptions et leur combinaison en partant de réseaux multicouches aléatoires. Nous étudions les relations entre les deux descriptions en fonction du nombre de nœud et de couches (dans le sens de la description O). Notamment, nous mettons en évidence que la description O est agnostique à la plupart des reconnexions dans les réseaux multiplexes (voir Figure 1), ce qui suggère que la description D est plus adaptée pour étudier ces derniers que la description O dans le cadre présenté dans notre étude. En conclusion, nous proposons la dualité nœud-couche pour mettre en évidence la pertinence d’une description multicouche alternative. Nous montrons que la combinaison des deux descriptions nous permet d’exploiter pleinement la dimension multi-échelle du formalisme multicouche. Cette dualité constitue enfin un principe très facile à implémenter et à exploiter par n’importe quelle étude utilisant le formalisme multicouche.

16:25
LinkRdata pour étudier la complexité du cerveau

ABSTRACT. Le cerveau est un phénomène complexe que les recherches en neurosciences et d’autres disciplines continuent d'examiner en détail. Cette complexité se traduit par la multiplicité des échelles (l’échelle spatiale et temporelle), son irréductibilité, ainsi que l’émergence qui pourrait être un cadre pour la relation esprit-cerveau [1]. L'organisation anatomique et fonctionnelle du cerveau des mammifères englobe de multiples sous-réseaux, dotés de connexions intrinsèques denses, regroupés sur différents sites anatomiques. Ces réseaux sont relativement spécialisés dans le traitement et le routage de différents flux d'informations liés à l'intégration sensorimotrice et cognitive, par exemple le système visuel, avec ses régions sensorielles précoces et ses multiples flux (ventraux et dorsaux). Ils sont reliés les uns aux autres de manière partiellement hiérarchique [2] : les systèmes modaux, par exemple les systèmes visuels, auditifs, somatosensoriels, y compris les régions primaires et secondaires sont intégrés au niveau des régions bimodales ou multimodales, pour le transfert d'informations inter-modales, elles-mêmes intégrées au niveau des régions d'association d'ordre supérieur, qui sont souvent en position de hubs par rapport à ces autres systèmes cérébraux [3]. Le système est massivement distribué. Cette architecture modulaire garantie à la fois l’efficacité des régions fonctionnelle et la plasticité du cerveau. Pour étudier le cerveau, la théorie des systèmes complexes apporte un éclairage nouveau et crucial sur ce problème [1]. La théorie des graphes semble s’appliquer de manière naturelle au cerveau. Ainsi la conception d’outils qui permettent à la fois de caractériser ces échelles spatiales, et de les intégrer sur la base de la même frame est essentiel pour comprendre le cerveau et ses émergences. L'intégration des graphes des différents échelles est le but de ce travail. Afin de relever le défi de cette intégration des connaissances sur le fonctionnement du cerveau, nous avons utilisé une base de données de 194 387 pics d'activation extraits automatiquement à partir de plus de 14 000 articles publiés en neuro-imagerie, et 140 974 coordonnées correctement étiquetées dans Talairach ou MNI. De plus, 460 étiquettes cognitives et sensorimotrices ont été extraites de ce corpus de plus de 14000 articles. Pour la partie génétique, nous avons utilisé l'atlas cérébral Allen (ABA), qui fournit une carte transcriptomique de l'ensemble du cerveau humain. Aussi, 1 000 coordonnées MNI ont été caractérisées en utilisant des taux de concentration d'environ 20 789 ARNm identifiés. Enfin, pour la labélisation topographique nous avons utilisé l’AAL. LinkRbrain [4] relie systématiquement (1) un ensemble de pics d'activation sur le cerveau à un ensemble d'étiquettes cognitives(Figure1.B) ; (2) un profil d'expression génétique à un ensemble d'étiquettes cognitives ; et (3) un ensemble d'étiquettes cognitives ou de profil d'expression génétique à des étiquettes neuroanatomiques. La plateforme linkRbrain fournit une cartographie du cerveau et des graphes relationnels comprenant les informations actuellement disponibles sur l'activité cérébrale, l'expression génétique et les fonctions cognitives. et les fonctions cognitives. LinkRfiber (fiber.linkrdata.fr), relie quand à lui les différentes région anatomiques en se basant sur le système de traking des fibres. Une API a été créer pour intégrer cette information structurelle avec l’information cognitives et sensorimotrice, et transcriptomique. À partir de ces différentes intégrations d’échelles réalisées par des outils de la plateforme linkRdata (linkrdata.fr), les différentes trajectoires dans le cerveau pour l'exécution de tâches cognitives et sensorimotrices, ainsi que des trajectoires de certaines pathologies du cerveau sont calculées. Ces trajectoires peuvent être considérées comme des phénomènes d’émergences dans le cadre de la complexité du cerveau.

17:30-18:20 Session 9: Conférences
Location: Auditorium
17:30
How Much Income Inequality is Fair?

ABSTRACT. Extreme economic inequality is widely seen as a serious threat to the future of stable and vibrant capitalist democracies. In 2015, the World Economic Forum in Davos identified deepening income inequality as the number one challenge of our time. Yet some inequality is inevitable, even desirable and necessary, for capitalist societies to function productively. Since different people have different skills and capacities for work, they make different contributions to society, some more, others less. Therefore, it is only fair that those who contribute more earn more.

But how much more? In other words, at the risk of sounding oxymoronic, what is the fairest inequality of income? This critical question is at the heart of the inequality debate. The debate is not so much about inequality per se as it is about fairness. This central question about fair inequality has remained unanswered in economics and in political philosophy for over two centuries. Mainstream economics has offered little guidance on fairness and the ideal distribution of income in a free-market society.

Political philosophy, meanwhile, has much to say about fairness yet relies on qualitative theories, such as the ones by Rawls and by Nozick, which cannot be verified by empirical data. In a recent book, I have proposed a normative theory, an unorthodox transdisciplinary theory that integrates foundational principles from disparate disciplines into a unified conceptual and mathematical framework that includes the key perspectives on this question – the perspectives of political philosophy, economics, game theory, statistical mechanics, information theory, and systems engineering. In this talk, I will describe this theory, its predictions, and tests using actual income data from various countries.