La géométrie des représentations internes dans les réseaux de neurones – ou comment ouvrir la boîte noire du “deep learning” grâce aux neurosciences computationnelles
ABSTRACT. La catégorisation, ou classification, est une capacité cognitive fondamentale. La catégorisation est également l’une des principales tâches auxquelles l’apprentissage machine (apprentissage profond en intelligence artificielle), s’attaque avec succès. Une conséquence perceptive caractéristique de la catégorisation chez l’homme et les autres animaux, la perception catégorielle, est notamment caractérisée par une compression intra-catégorielle et une séparation inter-catégorielle : deux éléments, proches dans l’espace des stimuli, sont perçus plus proches s’ils appartiennent à la même catégorie que s’ils appartiennent à des catégories différentes.
En utilisant des outils de la théorie de l’information et de l’inférence statistique, je présenterai des travaux sur la modélisation des bases neurales de la perception catégorielle. Je montrerai ensuite comment ils fournissent des pistes pour l’analyse de la géométrie des représentations internes dans les réseaux neuronaux artificiels dans des tâches de catégorisation. Un résultat important est l’analyse de l’interaction entre la géométrie neuronale et le bruit au cours de l’apprentissage. Cela permet en particulier de proposer une vision cohérente de l’efficacité de différentes pratiques heuristiques dans l’utilisation du dropout, la technique de régularisation la plus populaire en apprentissage automatique.
Logiques de spatialisation des activités de recherche – état des connaissances et perspectives
ABSTRACT. Quelles sont les logiques spatiales de développement des activités de recherche ? À l’échelle d’un pays donné, dans quelle mesure la répartition des activités de recherche est-elle dépendante de la hiérarchie urbaine ? Observe-t-on une relation entre la taille des villes et le type d’activités scientifiques qui s’y développe ? Ces trois questions, simples en apparence, n’admettent pas de réponses stabilisées dans la littérature actuelle.
Cela tient d’abord à des différences de définitions car il convient de s’entendre sur ce que l’on entend par « activités de recherche », et sur les méthodes et données permettant d’en mesurer la répartition. Cela s’explique aussi par l’impossibilité de fournir des réponses valables en tout temps, en tous lieux et pour tous types de recherche scientifique d’autant que la géographie de la recherche que l’on observe aujourd’hui à l’échelle d’un pays donné résulte de logiques de localisation qui ont pu varier dans le temps et l’espace. La hiérarchie urbaine n’étant pas non plus stable dans le temps, il s’agit encore de tenir compte de la coévolution entre géographie de la recherche et géographie urbaine. Enfin, cela témoigne d’une communication limitée entre historiens, économistes, sociologues, et géographes s’intéressant aux activités de recherche – conduisant à des positions apparemment peu conciliables pour comprendre et expliquer les logiques spatiales de ce secteur d’activité.
En faisant le point sur la diversité des savoirs existants sur ce sujet, en travaillant à décortiquer les termes utilisés et en prenant pour terrains d’étude le cas des systèmes de recherche contemporains français et britanniques, cette présentation propose d’éclairer les déterminants spatiaux des activités de recherche et les raisons de la surreprésentation de ces activités dans certaines catégories de villes. Elle met ainsi en lumière les facteurs permettant d’expliquer, au niveau national, l’écart entre la hiérarchie des villes sous l’angle de leurs activités de recherche et la hiérarchie urbaine traduite par la distribution de la population à une date donnée.
Bayesian Network and drought in Cévennes: an example of probabilistic modelling of socioenvironmental system
ABSTRACT. In the Mediterranean area, the aridity of the climate leads to a scarcity of available water in the watersheds during the summer period. The increase in temperature observed during the 20th century has increased the aridification of these areas and the projections made agree on an acceleration of the temperatures increase. They also estimate the beginning of a decrease in precipitation. Aridity will probably be much more pronounced during the 21st century than during the 20th century.
So, modeling drought requires a detailed understanding of the functioning of the hydrological system of a watershed during periods of water scarcity (hydrological processes and the interactions operating between the different water reservoirs). From an operational point of view (for EPTBs for example), drought has sense when it is related to a societal and/or ecological need. A clear distinction must therefore be made between what is related to water resources and what is related to water consumption in a watershed. This relationship between supply and demand is referred to as tension (weak or strong) on the water resource.
We propose to evaluate the level of drought by using indicators to determine the magnitude of the event. These indicators are multiple, of different forms and are generally produced from in situ measurement networks (hydrometric stations, rain gauges, etc.) or more recently from satellites. All these data are integrated into a statistical system. But there are still many uncertainties. They concern the elements of the system (relevance of the indicators, measurement of water consumption), but also our limits in conceptualizing this complex process.
Bayesian networks are multivariate stochastic statistical models based on Bayes' theorem. They are generally used for data classification, decision support, probabilistic forecasting. Their use in environmental sciences is still limited. It is even more uncommon for the study of drought. However, their predictive and exploratory capacities make them a very interesting tool for monitoring a complex system such as drought. Their graphical and probabilistic formalisms make them an efficient tool for decision support and allows a better understanding of complexity system.
An artificial generative model for (more) realistic social dynamics
ABSTRACT. Social structures are often viewed as the weighted network of aggregated temporal interactions, where we draw a tie between i and j at time t to indicate that the agents i and j were interacting. Most statistical properties of the temporal and aggregated graphs are shared across a vast variety of social contexts, like schools, hospitals, workplaces and others.
While aggregated social structures have been extensively studied, understanding the dynamics of the temporal network remains a challenge [2,4,5], and we lack models able to reproduce both empirical aggregated and dynamical observables. Here we propose a new model, based on the Activity Driven model with Memory [2], which reproduces a large panel of temporal and aggregated observables. The main idea is that social dynamics, represented by the interaction temporal graph, are guided by an underlying weighted and directed social ties graph w [1,6], such that wi,j(t) is the social affinity for i towards j at discrete time t. w(t) influences which interactions occur at t+1 while these interactions update in turn w through the reinforcement process of [1]: each node i increases its ties with the nodes it is interacting with, and decreases ties with the other nodes.
Each node i is characterized by three intrinsic properties : an activity ai, a social memory rate i and a social activity mi. At each time step t we determine the active nodes using probabilities ai. Then each active node emits mi interactions toward other nodes. At each try i decides to either meet an unknown partner with probability pg, or to interact with an already known node, i.e. a j such that wi,j(t)>0. The interaction partner is selected considering both the social ties w, which encode the long term history of i’s interactions, and a short term interaction memory, for which we take as proxy the number of common partners at previous time. Once the interaction graph at t has been computed, i updates its egonet ties wi,j at rate i [1]. Moreover each social tie can be removed, with a probability Pd(wi,j) decreasing with its weight (strong ties disappear with smaller probability).
We implement also dynamic triadic closure, modeling the fact that if j and k are discussing, and i wants to interact with j, it will likely result in i,j and k all interacting together. We consequently assume that any of the mi intentional interactions i establishes has a probability pto be accompanied by a triadic closure interaction. Since intentional interactions may be of stronger social significance than interactions solely due to co-presence, we assume that the latter does not participate in updating the social bond graph.
We perform numerical simulations of several variations of the model, with 200 nodes and 2000 time steps, and discuss the relevance of each hypothesis and each parameter. We show in particular the importance of heterogeneity in node properties to recover realistic observables. We investigate 11 different observables, including distributions of activity or interactivity duration for nodes and edges, occurrences of egocentric temporal motifs as described in [3] and aggregated edge strength distributions.
Références
[1] Valeria Gelardi, Alain Barrat, and Nicolas Claidière. From temporal network data to the
dynamics of social relationships, 2021.
[2] Guillaume Laurent, Jari Saramaki, and Marton Karsai. From calls to communities: a model for time-varying social networks. The European Physical Journal B, 88(11), Nov 2015.
[3] Antonio Longa et al. An efficient procedure for mining egocentric temporal motifs. Data Mining and Knowledge Discovery, 36(1):355–378, Jan 2022.
[4] Luis E. C. Rocha and Vincent D. Blondel. Bursts of vertex activation and epidemics in
evolving networks. PLOS Computational Biology, 9(3):1–9, 03 2013.
[5] Christian L. Vestergaard, Mathieu Génois, and Alain Barrat. How memory generates heterogeneous dynamics in temporal networks. Phys. Rev. E, 90:042805, Oct 2014.
[6] Xinzhe Zuo and Mason A. Porter. Models of continuous-time networks with tie decay, diffusion, and convection. Phys. Rev. E, 103:022304, Feb 2021.
The spreading of artificial intelligence in science : a scientometric comparison between neuroscience and sociology
ABSTRACT. Artificial intelligence (AI) commonly refers to both a research program and, more generally, a set of complex computer-based programs which aim to mimic human mind processes with high reckoning power. First developed within mathematics, statistics and computer science, these algorithms are amenable to applications in a variety of disciplines which use them for scientific advancements and which sometimes improve them for their conceptual and methodological needs. This mutual feedback between AI and disciplines receiving it has been studied by Bianchini et al. (2020) with a specific focus on deep learning as a “General Method of Invention” in science, which is the result of a reinforcement process of both the associated computational techniques and conceptual and methodological frameworks of the receiving domains. From this assertion we make the hypothesis that AI is an “adjacent possible” in Kauffman’s sense (2000), that is, AI first emerged in a specific scientific and technological context thanks to a combination of existing knowledge or innovations, and it is now expanding by blending with other novelties from specific disciplines and by reshaping some disciplinary practices and knowledge structures. In particular, Uzzi et al. (2013) and Monechi et al. (2015) propose a framework to study such combinations and re-combinations of novelties.
Here we study specifically the diffusion underlying the development of AI programs and technologies. With a combination of citation networks analysis and topics modeling, we investigate this process within the framework of information cascades (Huang et al., 2018) which is useful to identify on one hand the early users of AI in science (Farajtabar et al., 2015) and on the other hand what are the main AI-related concepts at the origin of current terminologies employed by scientists. Such cascades can be traced back with citation activities across disciplines.
For a more fine-grained view of the potential impacts and uses of AI, we restrict the study to two disciplines – neuroscience, and sociology and political science. In order to compare their respective AI diffusion patterns, as well as the main tools mobilized in them, we reconstruct in two steps an ecosystem of papers citing or cited by each other for each discipline, as shown in Fig. 1. We first filter a complete extracted version of the Microsoft Academic Knowledge Graph (MAG) provided Färber (2019) with a set of academical journals associated with the chosen discipline according to the SCImago Journal Ranking (SJR) website. These papers are included in the blue zone of the diagram in Fig. 1. Second we build a citation network by adding papers citing those in the whole blue zone, or cited by the latter. These new added papers are included in the green zone. Among all these papers, we identify AI-related papers by title and abstracts with a set of keywords classified in topics provided in (Gargiulo et al., 2022), which are situated in red zone. They are either published in the journals associated with the case studied discipline, or in journals from other disciplines, hence the intersection of this set with the two other zones.
After removing papers without citations, we focus on the AI-related papers published in disciplinary journals for one chosen discipline, ie. only in the intersection between the blue and red zones. One such paper is illustrated by the red circle Fig. 1. We then compute basic indicators in order to detect the most important trends of citations across the four possible papers’ ensembles in the diagram, in particular, at a micro-scale, from which subdomains one paper comes (blue arrows) and which impact it eventually produced in the posterior scientific literature (green arrows). With these patterns we are able to characterize at a macro-scale the papers that are at the origins of citation cascades and others that are at an intermediary step of the diffusion of a specific AI tools or style through the studied discipline, ie. they are inside a citation path of an already initiated cascade.
Based on both this classification and all citation cascades we finally reconstruct a “phylogeny” of AI in the studied disciplines through the transmission or transformation of some concepts from early papers to the most recent ones. We also notice that an important set of publications from both studied disciplines refer to studies which do not use directly AI tools, like reviews or critics. This introduces an interesting layer of diversity and complexity in the global picture drawn in this work.
Dynamiques d’opinion sous l’influence d’algorithmes de recommandation
ABSTRACT. Élément cardinal des plateformes numériques, tels que les réseaux sociaux, les algorithmes de
recommandation ne sont pas neutre dans la représentation du monde auxquelles ils
aboutissent. En utilisant un modèle agents, nous étudions l’impact de différentes
implémentations d’algorithmes de recommandation sur les dynamiques d’opinion se
déroulant en ligne. Pour cela, nous explorons les boucles de rétroactions liantes les
mécanismes en jeux dans ces dynamiques, les biais cognitifs humains
de confirmation et de négativité ainsi que la logique économique des plateformes cherchant à
maximiser l’engagement des utilisateurs. Exploitant la cartographie du militantisme sur
Twitter établie par le Politoscope, l’évolution du tissu social sera analysée.
Use of Language Models for Fact-Checking and Claim Assessment
ABSTRACT. As false information and fake news are propagating throughout the internet and social networks, the need of factchecking operations becomes necessary in order to maintain a
truthful digital environment where general information can be reliably exploited whether in politics, finance or other domains.
The need of this online claim assessment comes from the fact that fake news and false information can have a big negative impact on politics, economy (2016 USA Elections) and public health (COVID-19).
A number of solutions have been proposed to deal with this problem and limit the spread of false information, both manual and automatic. Undoubtedly the manual approaches done on websites such as PolitiFact.com, FactCheck.org and Snopes.com
don’t construct a viable solution for the long term as the speed and scale of information propagation increase exponentially rendering this manual fact-checking operation where human factcheckers can’t scale up at the same rate limited and incapable of solving the problem.
Here, we present our contribution in this regard: an automated solution for fact-checking using FEVER dataset as a source of truth and a state of the art language models used today for NLP tasks (BERT, RoBERTa, XLNet...) in order to classify a given
claim as Supports, Refutes or Not enough information (NEI). We successfully prove that fine-tuning a LM with the correct settings can achieve an accuracy of 62% and F1-score of 61% which is more advanced than the majority of fact-checking methods that exists today.
Passing networks structure and possession outcome in basketball
ABSTRACT. In basketball like in other team sports, teams can be analyzed through the lens of complex systems theory because players need to interact in order to win. Graph theory is mostly used to analyze the aggregated passing networks passes of entire games but the attacking play seems to be a better scale of analysis, avoiding the loss of temporal information about passes and allowing an outcome-based approach. This study has been carried out using all of the 12 playoff games of the 2019 men’s FIBA Basketball World Cup, divided into 2094 attacking plays. For each play, the passing network performed during the last 6 seconds is identified and plays are sorted by their structure. Possession outcome is define either positive if the play ends with a shot or negative if the play ends with another outcome, and a frequency distribution comparison of the different structures between plays sorted by their result is done. The chi-squared test showed a statically significant difference between the two distribution, validating the initial hypothesis: attacking plays ending by a shot are more related with more complex structures than attacking plays ending without any shot. Passing network structure of the last seconds before the end of the attacking play is related with the possession outcoume.
Dynamiques d’opinion lors du deuxième tour de la primaire écologiste 2021 en France
ABSTRACT. Introduction
Le deuxième tour de la primaire écologiste a opposé les candidats Yannick Jadot et Sandrine Rousseau entre le 19 septembre et le 29 septembre 2021. Cet événement a constitué la première primaire organisée par un parti politique français en vue des élections présidentielles de 2022, suivie quelques mois plus tard par celle du parti Les Républicains. La primaire écologiste constituait pour le parti Europe Écologie Les Verts (EELV) un exercice risqué, qui avait fait tomber les candidats favoris lors des primaires précédentes, et devait propulser le vainqueur dans une stratégie large de rassemblement jusqu’aux élections présidentielles au printemps 2022. Corolairement, une intense activité de tweets s’est déployée autour de la primaire sur le réseau social Twitter.
Problématique
En s’appuyant sur les 167 690 tweets collectés sur 264 jours du 10 janvier au 04 octobre 2021 via les librairies Minet [1], Rstudio/RTweet et Gephi Twitter Streamer Importer, cette étude propose des éléments de réponse aux questions suivantes : est-il possible de reconstruire les dynamiques d’opinions à l’œuvre durant la campagne, de les corréler aux événements relayés par la presse, d’identifier les influenceurs majeurs, et enfin d’expliquer la polarisation des opinions et des thèmes traités autour de chacun des candidats ?
L’utilisation du réseau Twitter en vue d’étudier les campagnes politiques n’est pas nouvelle. Entre 2008 et 2015, 127 études de science politique ont par exemple été recensées par Jungherr, couvrant un grand nombre de pays, et mettent en exergue un fort recoupement entre l’activité Twitter et la presse traditionnelle ; les retweets sont plus nombreux entre utilisateurs partageant des convictions similaires [2]. En France, Gaumont, Panahi, et Chavalarias ont à leur tour mis à contribution 60 millions d’échanges Twitter entre plus de 2.4 millions d’utilisateurs dans le but d’analyser les dynamiques d’opinions lors de la campagne présidentielle de 2017. L’étude s’appuie particulièrement sur la structure des échanges, retenant le retweet comme marqueur fiable de l’affinité politique entre utilisateurs, plutôt que sur leur contenu [3]. Toujours en termes de structure, les mentions permettent également l’identification de clusters [4]. En matière d’analyse de contenu, des algorithmes d'apprentissage supervisé comme non supervisé permettent de conduire une analyse des sentiments [5].
Résultats et limitations
En termes de dynamique, l’intensité quotidienne des tweets et retweets a pu être corrélée aux événements de la campagne, se manifestant à titre d’exemple par un front d’intensification des retweets le dernier jour du second tour. Les influences massives sur Twitter sont intervenues via les comptes Twitter de médias nationaux (Mediavenir, BFM, Le Monde, France Info, le Figaro...) et ceux des activistes eux-mêmes, qui négocient par leur interactions sociales le sens à donner aux nouvelles [6]. Concernant les thèmes, la carte des thèmes obtenue [7] révèle une polarisation assez forte des opinions, Sandrine Rousseau ralliant les opinions plus radicales (extrême droite, souverainistes, frexiters, extrême gauche) et féministes, et Yannick Jadot la gauche, le centre et les libéraux. Un examen des tendances des cooccurrences de termes a permis de mettre en lumière des thèmes assez volatiles sur les deux tours de l’élection, sans qu’aucun des deux candidats en lice ne se détache complètement. Une analyse des sentiments par apprentissage non supervisé, sommaire mais localisée dans le temps (centrée sur le second tour, du 27 au 29 septembre), a révélé une dynamique de tweets positifs pour Y.Jadot plus puissante que celle pour S.Rousseau. S.Rousseau fait l’objet de plus de tweets, jusqu’à ce que la dynamique s’inverse le 28, jour des résultats. Cette dernière est mentionnée dans une quantité plus importante de tweets négatifs, qu’a probablement suscitée sa radicalité assumée. Mais sur cette période clé, les tweets négatifs restent toujours au moins deux fois moins nombreux que les tweets positifs et neutres, ce qui traduit une certaine tempérance dans les échanges. Aux biais de représentation ([2], [3]) et de collecte [8], ajoutons que ces résultats, quoiqu’intéressants, ne sont pas assortis d’intervalles de confiance [3]; toutefois un soin particulier a été pris à corréler notre analyse avec un corpus de 25 articles de presse [2].
Remerciements
Nous tenons à remercier M. Lionel Villard pour ses enseignements et l’aide apportée autour de la plateforme Cortext Manager (http://manager.cortext.net/), utilisée pour certains traitements en sus des traitements réalisés en R [9] et en langage Python.
Références
[1] Plique, Guillaume, Pauline Breteau, Jules Farjas, et al. Minet, a webmining CLI tool & library for python. [s.l.] : Zenodo. 2022. En ligne : https://zenodo.org/record/6323465 [consulté le 30 mars 2022].
[2] Jungherr, Andreas. « Twitter use in election campaigns: A systematic literature review », Journal of Information Technology & Politics. 2 janvier 2016, vol.13 nᵒ 1. p. 72‑91. En ligne : https://doi.org/10.1080/19331681.2015.1132401.
[3] Gaumont, Noé, Maziyar Panahi, et David Chavalarias. « Reconstruction of the socio-semantic dynamics of political activist Twitter networks—Method and application to the 2017 French presidential election », PLOS ONE. 19 septembre 2018, vol.13 nᵒ 9. p. e0201879. En ligne : https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0201879 [consulté le 12 octobre 2021].
[4] Conover, Michael, Jacob Ratkiewicz, Matthew Francisco, et al. « Political Polarization on Twitter », Proceedings of the International AAAI Conference on Web and Social Media. 2011, vol.5 nᵒ 1. p. 89‑96. En ligne : https://ojs.aaai.org/index.php/ICWSM/article/view/14126.
[5] Ramteke, Jyoti, Samarth Shah, Darshan Godhia, et al. « Election result prediction using Twitter sentiment analysis ». [s.l.] : [s.n.]. 2016. vol.1.
[6] Maireder, Axel et Julian Ausserhofer. « Political Discourses on Twitter: Networking Topics, Objects and People ». p. 11.
[7] Sievert, Carson, et Kenneth Shirley. « LDAvis: A Method for Visualizing and Interpreting Topics ». In Proceedings of the Workshop on Interactive Language Learning, Visualization, and Interfaces, 63‐70. Baltimore, Maryland, USA: Association for Computational Linguistics, 2014. https://doi.org/10.3115/v1/W14-3110.
[8] Campan, Alina, Tobel Atnafu, Traian Marius Truta, et al. « Is Data Collection through Twitter Streaming API Useful for Academic Research? » [s.l.] : [s.n.]. 2018.
[9] Yumpu.com. R: A Language and Environment for Statistical Computing. En ligne : https://www.yumpu.com/en/document/view/6853895/r-a-language-and-environment-for-statistical-computing [consulté le 11 avril 2022].
A Comparison of Model-Based Backbone Filtering Techniques in the Air Transportation Network
ABSTRACT. Networks provide an informative description of complex systems, yet the size and the density of many real-world networks form a barrier to visualization and processing. Therefore, many Backbone extraction techniques have been developed, reducing their size while preserving essential information. Among these techniques, structural-based filtering techniques focus on removing edges and nodes while preserving a topological property [1-2]. In contrast, using a statistical test, model-based techniques remove insignificant edges and nodes. They compare an edge's observed weight to the distribution of its weights under a predefined null model. This study investigates five influential model-based edge filtering techniques [3-7] briefly described in Table. 1. We study the evolution of the Backbone's main topological properties in the Worldwide Air Transportation Network [8]. It consists of 2734 nodes and 16665 edges. Nodes represent cities, and edges are air routes between the cities. The weight of an edge is the total number of flights flying the route. Figure 1 presents the evolution of the properties versus the fraction of edges remaining in the Backbone (fraction of nodes, density, average edge weight, and average edge betweenness). Figure 1(a) illustrates the effectiveness of the Noise Corrected Filter at preserving the nodes while filtering a high fraction of edges. Figure 1 (b) shows that the Noise Corrected Filter and the Polya Urn Filter extract a backbone with a lower density than the original network. The backbone density fluctuates around the density of the original network for the other techniques. Figure 1(c) reports the evolution of the average edge weight as a function of the fraction of edges. One can observe that the Polya Filter preserves the average edge weight of the original network. The Disparity Filter and the Marginal Likelihood Filter preserve high-weight edges. In contrast, the Noise Corrected Filter retains many low-weight edges, decreasing the average edge weight. Figure 1(d) reports the evolution of the average edge betweenness. One can see that all backbones exhibit similar behavior. As the fraction of retained edges grows, the average edge betweenness increases to a maximum due to the emergence of a large connected component in the Backbone. Then it decreases until it reaches the value observed in the original network. However, one can observe that overall, the Noise Corrected Filter retains the highest average edge betweenness. Indeed, it preserves shortest-path edges that connect the network's parts.
Even though model-based filtering techniques do not aim to preserve specific topological properties, the extracted Backbone exhibits typical behavior. The last column of Table.1 shows these properties. These preliminary results pave the way for future research investigating complementary global and local topological properties and their distributions. Indeed, a better understanding of their main characteristics is critical in practical situations to use model-based filtering techniques wisely.
Internal Migration in rural Germany – A complex network perspective on interdependencies for elderly migration and well-being
ABSTRACT. Sustainable spatial planning decisions have to consider the complex influences e. g. between the demographic situation and the planned project. The construction of buildings like nursing homes might otherwise attract older people from surrounding areas and possibly result in vacancy in these areas. Therefore, the project presented here, focusses on the conception and implementation of a model for the verification of interactions between demographics and spatial planning decisions on the one hand and between well-being and various influencing factors such as supply infrastructures on the other hand. The aspired knowledge graph-based model should incorporate complex network analyses as well. The project focus is set on rural regions in Germany.
Un écosystème bien mélangé peut-il être interprété comme un système vitreux ?
ABSTRACT. La biodiversité, l’adaptation et l’évolution des écosystèmes face aux changements environnementaux sont des problématiques centrales pour comprendre l’équilibre des espèces qui peuplent la planète. Plusieurs exemples de systèmes complexes—depuis la régulation du flux des réseaux métaboliques et cellulaires jusqu’au comportement d’une nuée d’oiseaux— présentent une sensibilité importante à des perturbations infinitésimales. Ils sont alors dits marginalement stables, tout juste à la limite de leur stabilité.
Dans mon exposé, j’aborderai le problème de la complexité écologique en prenant comme point de départ un modèle de Lotka-Volterra avec des interactions aléatoires entre les espèces. Je dévoilerai une structure très riche et hiérarchique des équilibres possibles entre les espèces. Je relierai les propriétés critiques émergentes ainsi qu’une dynamique de relaxation de plus en plus lente à l’apparition de phases désordonnées similaires à celles rencontrées dans les systèmes vitreux. Enfin, je discuterai comment étendre ces résultats à des fonctions de croissance non-logistiques dans la dynamique des abondances d’espèces, qui s’avèrent être pertinentes pour décrire des effets de rétroaction positive.
ABSTRACT. Years of preparedness and scientific progress have been harshly put at test in the most difficult health crisis of the last 100 years. Following the path of our experience in the first two years of the COVID-19 pandemic, I will discuss the pitfalls, challenges, and opportunities to improve the science informing COVID-19 policies.
Définitions et mesures de la diversité appliquées aux plateformes web
ABSTRACT. La diversité tient une place importante dans le débat actuel sur les algorithmes du web et sur la façon par laquelle ils rendent accessibles ou non les contenus aux utilisateurs. Pour faire une analyse précise et quantifiable de leur influence, on est amené à formaliser le concept de diversité et à clarifier les différentes acceptions du terme.
Du point de vue de l’informatique, il s’agit de proposer des définitions rigoureuses qui soient suffisamment expressives pour rendre compte de différentes signications. Pour être pratiquement utilisables sur de grands jeux de données, elles doivent aussi être calculables en des temps raisonnables. Enfin, on doit pouvoir expliquer la signification d’une mesure au-delà du cercle restreint des spécialistes de la question.
L’objectif de cette présentation est de décrire une famille de mesures de diversité applicables à une variété de situations rencontrées sur le web, puis d’illustrer sa pertinence dans un certain nombre de contextes empiriques, comme les propositions de recommandations sur une plateforme, leur sélection par les utilisateurs, ou la description de trajectoires de navigation.
Modèle individu-centré d’une stratégie de vaccination réactive dans les écoles et lieux de travail contre la COVID-19
ABSTRACT. La mise en place de la vaccination a constitué un changement majeur dans la lutte contre la pandémie de COVID-19, grâce à la capacité importante des vaccins à prévenir l’infection et les formes graves de la maladie. Cependant, plus d’un an après le début de la campagne, la couverture vaccinale reste très hétérogène suivant les régions du monde. Une stratégie de vaccination réactive pourrait, combinée avec une vaccination de masse, accélérer le déclin de l’épidémie et prévenir des résurgences locales de cas. La vaccination réactive consiste à cibler les personnes les plus à risque, par exemple dans les lieux de travail où le virus est détecté. Quantifier l’efficacité d’une telle stratégie nécessite des modéliser l’interaction complexe entre les différentes échelles de temps : durée nécessaire au vaccin pour devenir efficace, histoire de l’infection, rapidité de détection des cas et dynamique des contacts entre personnes suivant les règles de distanciation sociale en vigueur.
Nous utilisons ici un modèle individu-centré pour tester une stratégie de vaccination réactive appliquées aux individus de plus de douze ans, en ciblant les écoles et les lieux de travail. Le modèle intègre des données démographiques et de contacts sociaux pour construite un réseau dynamique multi-couche des contacts, où chaque couche représente un lieu différent - travail, foyer, école, transport et communauté. Il prend explicitement en compte le traçage et la réduction des contacts au travail et dans la communauté imposés par les mesures de restrictions sociales. Nous simulons sur ce réseau la propagation d’une épidémie de COVID-19 et la délivrance de vaccins, en explorant différents scénarios épidémiques. Dans la plupart des cas, la vaccination réactive entraîne une plus forte réduction des cas qu’une stratégie non réactive utilisant le même nombre de doses. La stratégie réactive peut néanmoins être moins efficace qu’une vaccination de masse soutenue si la couverture vaccinale initiale de la population est importante, ou si l’incidence de l’épidémie est faible, puisque peu de personnes seront vaccinées autour des cas détectés. Dans le cas d’une flambée épidémique locale, la vaccination réactive peut ralentir l’épidémie si elle est soutenue par un traçage des contacts très efficace et entraîne une augmentation de l’adhésion vaccinale. Une large exploration de l’espace des phases des paramètres nous a permis de mettre en lumière l’interdépendance entre la vaccination et la propagation de l’épidémie. Ces résultats apportent des informations clé pour planifier une réponse vaccinale adaptative.
Adherence and sustainability of interventions informing optimal control against the COVID-19 pandemic
ABSTRACT. After one year of stop-and-go COVID-19 mitigation, in the spring of 2021 European countries still experienced sustained viral circulation due to the Alpha variant. As the prospect of entering a new pandemic phase through vaccination was drawing closer, a key challenge remained on how to balance the efficacy of long-lasting interventions and their impact on the quality of life. Focusing on the third wave in France during spring 2021, we simulate intervention scenarios of varying intensity and duration, with potential waning of adherence over time, based on past mobility data and modeling estimates. We identify optimal strategies by balancing efficacy of interventions with a data-driven “distress” index, integrating intensity and duration of social distancing. We show that moderate interventions would require a much longer time to achieve the same result as high intensity lockdowns, with the additional risk of deteriorating control as adherence wanes. Shorter strict lockdowns are largely more effective than longer moderate lockdowns, for similar intermediate distress and infringement on individual freedom. Our study shows that favoring milder interventions over more stringent short approaches on the basis of perceived acceptability could be detrimental in the long term, especially with waning adherence.
Minimizing school disruption under high incidence conditions due to the Omicron variant in early 2022
ABSTRACT. Countries in Europe have suffered large disruptions in schools due to the exceptionally high incidence rates recorded in the community and in particular in children [1] during the Omicron wave in January 2022. As a consequence, school protocols were put under stress by requiring repeated quarantines or leading to large and sudden testing demand for children, overloading saturated surveillance systems [2-3]. Extending our previous modeling of SARS-CoV-2 transmission in schools in France [4], we simulated the disease spread over a temporal contact network composed by teachers and primary school students. Infection progression includes prodromic transmission, followed by clinical or subclinical disease stages. Transmission can occur between an infectious individual and a susceptible one with a probability proportional to the duration of the interaction recorded in the contact network and to the age-specific epidemiological features of the individuals. Then, we compared school protocols in terms of resource peak demands, infection prevention, and reduction of schooldays lost, specifically under the high incidence conditions due to the Omicron variant. We estimated that at high incidence rates reactive screening protocols (as applied in France in January 2022) require comparable test resources as weekly screening (as applied in some Swiss cantons), for considerably lower control. Our findings can be used to define incidence levels triggering school protocols and optimizing their cost-effectiveness.
Figure 1: Test needs and schooldays lost vs. peak reduction at varying peak incidence rates. A: Demand in the number of tests per student-week at peak as a function of the peak incidence (cases in students per 100,000) for the reactive, weekly, and semiweekly protocols. The horizontal dashed lines indicate the theoretical values of the number of tests per student in the weekly and semiweekly screening (i.e. imposed by 75% adherence and the frequency). Dots reduce their transparency for increasing incidence. B: Demand in the number of tests per student-week at peak as a function of the percentage of peak reduction achieved by each protocol compared to symptomatic testing (i.e. in absence of interventions). The horizontal dashed lines are as in panel A. Dots transparency code is the same as in panel A. C: Peak percentage of student-days lost as a function of the percentage of peak reduction achieved by each protocol; both quantities are computed with respect to symptomatic testing. The reactive quarantine of the class is shown as an additional protocol. In panels B and C: incidence values in the legend refer to peak incidence of symptomatic testing (i.e. in absence of interventions); the corresponding values for each protocol are plotted in panel A.
References
[1] ECDC, ‘Country overview report: week 3 2022’, European Centre for Disease Prevention and Control, Jan. 28, 2022. https://www.ecdc.europa.eu/en/covid-19/country-overviews (accessed Feb. 01, 2022).
[2] V. Morin et al., ‘Covid-19 : dans les écoles, la semaine de toutes les tensions’, Le Monde, Jan. 08, 2022. Accessed: Jan. 20, 2022. [Online]. Available: https://www.lemonde.fr/education/article/2022/01/08/covid-19-dans-les-ecoles-la-semaine-de-toutes-les-tensions_6108656_1473685.html
[3] G. Fregonara, ‘Più che raddoppiate le classi in Dad. Medie e superiori, si torna senza tampone’, Corriere della Sera, Jan. 28, 2022. https://www.corriere.it/scuola/secondaria/22_gennaio_28/raddoppiano-classi-dad-20-cento-studenti-casa-81a371d0-802f-11ec-9fac-a85f17701932.shtml (accessed Feb. 01, 2022).
[4] E. Colosi et al., ‘Screening and vaccination against COVID-19 to minimize school closure: a modeling study’, Lancet Infect. Dis., 2022, corrected proof, doi: https://doi.org/10.1016/S1473-3099(22)00138-4
Déclin de la grippe pendant la pandémie de COVID-19 : une analyse globale à l'aide d'arbres de classification et de régressions.
ABSTRACT. La pandémie de COVID-19 a provoqué un changement profond de l'écologie des maladies infectieuses. La grippe, dont la circulation a été réduite à des niveaux très faibles voire quasi-nuls, constitue un cas paradigmatique. Comme la grippe et le SARS-COV-2 ont des mécanismes de transmission communs, l'interaction entre les deux virus peut se produire à plusieurs niveaux. En particulier, la modification des contacts humains dus aux interventions non pharmaceutiques (INP) contre la COVID-19 pourrait avoir entravé la propagation de la grippe. Cette interaction complexe a été abordée jusqu'à présent par un certain nombre d'études focalisées sur des pays spécifiques. Ici, nous abordons le problème à l'échelle mondiale en analysant la base des données publique de la grippe FluNet pour les périodes avant (2015-19) et pendant (2020-21) la pandémie de COVID-19 et en exploitant des méthodes de machine learning. Nous avons cartographié la variation spatio-temporelle de la grippe à travers les pays. Le pourcentage saisonnier de tests positifs a diminué, à l'échelle mondiale, de 96,5 % par rapport à la période pré-COVID-19, bien que la surveillance soit restée globalement la même. Le rapport entre les prévalences de la période pré-COVID-19 et celles de la période COVID-19 était très hétérogène entre les pays et les saisons, allant de 6.7 à 1/100000. Nous avons donc utilisé des forêts aléatoires pour quantifier l'impact de covariables telles que la prévalence COVID-19, la rigueur des INP, l'évolution de la mobilité humaine, la démographie, la température, l'humidité et la vulnérabilité du pays aux maladies infectieuses. Les forêts aléatoires sont particulièrement indiquées pour analyser les interdépendances complexes entre facteurs. Ce sont des modèles multivariés non paramétriques, qui ne nécessitent pas l'hypothèse d'indépendance entre les covariables et sont capables de capturer des relations non linéaires à partir des données. Utilisant les variables les plus significatives, nous avons construit un arbre de régression pour détecter des groupes de pays/saisons présentant des niveaux similaires de réduction de la grippe en fonction des facteurs importants. Nous avons trouvé une corrélation négative claire entre la grippe et la COVID-19. En particulier, nous avons distingué un groupe d'observations où les niveaux extrêmement bas de grippe ne peuvent pas être expliqués par des interventions dans la moyenne, mais plutôt par des niveaux extrêmement élevés de COVID-19. Dans un deuxième groupe, nous avons identifié les pays qui ont appliqué des mesures efficaces à la fois contre la COVID-19 et contre la grippe. Enfin, nous avons trouvé des pays tropicaux, avec des populations jeunes et des systèmes de santé faibles, qui n'ont pas été particulièrement touchés par la COVID-19, n'ont pas appliqué de mesures strictes, et ont ainsi connu des niveaux de grippe (presque) comparables à ceux de la situation pré-pandémique. Les modèles de régression non paramétriques utilisés ont révélé des schémas spatio-temporels non triviaux dans la réduction de la grippe, qui n’auraient pas pu être apréhendés par des approches plus simples, comme des modèles de régression linéaire. Notre étude ajoute des éléments importants à la compréhension de la circulation de la grippe à l'époque du COVID-19 et fournit une base pour le suivi d’une potentielle réémergence de la grippe dans le futur.
Analyse de la propagation de la grippe aviaire à partir des informations extraites de dépêches de presse et de données environnementales
ABSTRACT. La grippe aviaire est une maladie animale hautement contagieuse, qui infecte de nombreuses espèces d'oiseaux sauvages et domestiques. La transmission entre les oiseaux peut être directe en raison d'un contact étroit entre eux, ou indirecte par l'exposition aux matières contaminées (eau, nourriture). En particulier, les oiseaux sauvages migrateurs jouent un rôle clé dans cette transmission et font que les virus se propagent sur de longues distances. Bien que la grippe aviaire soit une maladie bien étudiée dans la littérature et qu'il existe plusieurs systèmes de veille épidémiologique pour suivre l'évolution de la maladie, dans la pratique, nous connaissons difficilement les véritables voies de transmission des virus de grippe aviaire, c'est-à-dire les informations de provenance lorsqu'un nouveau cas est confirmé dans un emplacement donné. En conséquence, l'absence de ces informations de provenance rend la détection précoce des épidémies de grippe aviaire très difficile.
Dans ce travail, nous nous intéressons au problème de la propagation de la grippe aviaire en l'absence de véritables voies de transmission de la maladie. Contrairement à l'analyse des réseaux de contact qui sont au niveau individuel dans les fermes, notre analyse se fait au niveau de la métapopulation, donc à une échelle plus large. Nous reconstruisons les voies de transmission en nous fondant sur la manière dont les épidémies de grippe aviaire évoluent à partir des informations extraites des dépêches collectées par les plateformes de surveillance, accompagnées de données environnementales liées aux emplacements des foyers, par le biais d'un réseau dynamique attribué. Ensuite, nous étudions la dynamique sous-jacente du réseau pour dévoiler les motifs de transmission de la grippe aviaire (e.g. accélérateurs et inhibiteurs). Dans notre construction de réseau, les nœuds correspondent aux entités spatiales d'une hiérarchie spécifique (e.g. villes, régions), et les liens entre eux représentent les voies de transmission possible de la maladie (voir la figure 1). Notre hypothèse est que la probabilité de transmission de la maladie entre les emplacements est principalement liée à deux aspects : 1) le délai entre les épidémies, et 2) la distance entre les emplacements des épidémies.
Nous analysons le réseau dynamique extrait avec deux groupes de mesures spatio-temporelles. Le premier groupe caractérise un seul nœud par des mesures macroscopiques (e.g. le Pagerank dynamique adapté), qui permettent d'identifier les emplacements clés dans la transmission des maladies, tandis que le second groupe résume la structure entière du réseau (e.g. indices spatio-temporels basés sur l'analyse des hotspots). Nous montrons l'intérêt de notre approche en l'appliquant aux jeux de données d'épidémies de la grippe aviaire collectées par PADI-Web et ProMED, deux plateformes de surveillance bien connues en intelligence épidémique, pour la période 2019-2021. Nos résultats préliminaires confirment l'existence des emplacements particulièrement importants dans la transmission de la grippe aviaire, dans nos jeux de données.
ABSTRACT. We build on a recent model (Deffuant et al. 2018, Deffuant and Roubin 2022), in which each agent holds an opinion (attitude) about each other agent and about itself. We consider a new variant of this model, in which each agent belongs to a single group (representing for instance gender or ethnicity). Moreover, we include an additional dynamics that decreases the differences of opinions within a group. As expected from previous research, when there is only one group, the opinions tend to grow with or without gossip because they remain close to the opinion average. However, when there are several groups and gossip, a rather stable hierarchy of groups emerges. When they are in total mixing (each agent interacts with all the others), all the agents agree about the group hierarchy. However, when the network of interactions is more restrictive, the picture can change dramatically. In particular, when the agents of each group are connected on a ring network, each group builds up its own hierarchy, with itself at the top. Our hypothesis is that the cause of this emergence is similar to the one of the phenomena observed in the case without groups, i.e. biases on self-opinions and opinions about others. In order to evaluate this hypothesis, we need to adapt the moment approximation that we used to approximate the model without groups.
Multi-level and Multi-scale Reconstruction of Knowledge Dynamics with Phylomemies
ABSTRACT. In this presentation, we address the question of “drawing science” by taking advantage of the
massive digitization of scientific production, and focusing on its body of knowledge. We
demonstrate how we can reconstruct, from the massive digital traces of science, a reasonably
precise and concise approximation of its dynamical structures that can be grasped by the
human mind [1] and explored interactively [2]. For this purpose, we formalize the notion of
level and scale of knowledge dynamics as complex systems and we introduce a new formal
definition for phylomemetic networks as dynamical reconstruction of knowledge dynamics.
We propose a new reconstruction algorithm for phylomemetic networks that outperforms
previous ones and demonstrate how this approach also makes it possible to define a new
temporal clustering on dynamical graphs. Finally, we show in case studies that this approach
produces representations of knowledge dynamics close to the ones that can be obtained by
synthesizing the points of view of experts on a given domain.
Using OpenStreetMap to observe a city’s development. -Classification and development of city districts based on restaurants in Paris-
ABSTRACT. Restaurants have a tremendous role in cities as a place to meet but also as a way for people to express their culture. In this work, we analyze the development of city districts based on restaurants, their positions and names. We use the restaurant names to cluster the restaurants into different topics, e.g. Italian, vegetarian, Indian or fastfood. Using Paris as our main example, we observe that the names of the restaurants can help to detect districts with a specific focus such as China Town. Our methods include topic modeling and language identification based on place names. The aim of this study is to deepen the understanding of how city districts develop using information from open databases which are based on community efforts such as OpenStreetMap.
OpenStreetMap (OSM) is an open database showing maps in various forms and details such as car routing, public transport, hiking and bicycle maps. Similarly to Wikipedia, users can enter and edit data. This leads to very accurate and detailed maps as users will add house numbers, smaller paths, playgrounds but also place names such as schools, restaurants or sports facilities. As OSM is an open project, users are able to download and use the data freely. In addition, OSM provides data sets from all previous years to be downloaded. Data quality and quantity in OSM depend on the users’ contributions and will to add and edit data. Metrics show that European countries and especially large cities are well covered by OSM which will help us to collect data for our purposes.
We started downloading restaurant data from OSM, and when analyzing restaurant numbers over the previous years, we clearly see a drop caused by the COVID-19 crisis.
By calculating the restaurant density for the city districts of Paris, where the density is calculated by the number of restaurants of a district divided by its area, we see that the central districts have the highest restaurant density, probably indicating the highly touristic areas.
We started our analysis by looking at restaurants, however, our aim is to include further facilities of public life such as shops, services or place and street names based on OSM as it has been done in a previous project. Furthermore, we aim to identify signals of gentrification when observing urban change. We used Paris as
an example city, however, we plan to automatize the analysis and include more large cities such as Berlin, London, and others.
Détection de fraudes financières au sein du réseau SWIFT
ABSTRACT. Les activités liées au blanchiment d'argent sont de plus en plus courantes. Les institutions financières se doivent d'améliorer leurs systèmes actuels jugés trop peu efficaces. L’objectif de nos travaux est la détection de fraudes sur les transactions interbancaires internationales aux caractéristiques spécifiques d'un réseau nommé SWIFT. Nous montrons quelques limites des techniques existantes d'apprentissage automatiques et l'apport des techniques orientées graphe.
Information waves, fluctuations and criticality in the initiation of collective motion
ABSTRACT. Collective motion is generally not a continuous process, and collectives display repeated transitions from static to moving phases. The initiation of collective motion – of an initially static group – is a crucial process to ensure group cohesion and behavioral synchrony that remains largely unexplored.
Here, we investigate the statistical properties of the initiation of collective motion. We find that the information propagates as an activation wave, whose speed is modulated by the velocity of the active agents, where both, the magnitude and direction of the agents’ velocity play a crucial role.
The analysis reveals a series of distinct dynamic regimes, including a selfish regimes that allow the first informed individuals to avoid predation by swapping position with uninformed individuals.
Furthermore, we unravel the existence of a generic and intimate connection between the initiation of collective motion and critical phenomena in systems with an absorbing phase, showing that in a range of agents’ velocities the initiation process displays criticality. The obtained results provide an insight in the way collectives distribute, process, and respond to the local environmental cues.
A neural network model for production and dynamic branching of sequences of learned items
ABSTRACT. We present a biologically inspired model of activation of either regular or irregular sequences of memory items in a neural network, which extends to the case when a multiple choice between different sequences arising at the same node comes up. The model, which is derived from classical Hebbian learning rule and mean-field equations, allows for a rigorous analysis of ‘latching’ dynamics between learned items. We show how short-term depression and retroactive inhibition combined with noise can drive the transitions from one memory item to the next. In addition the neuronal gain controls the switching between regular and irregular (random) activations. We further highlight the role of neuronal gain on the ability of the network to switch behavior between predicting the most probable sequence according to previous learning and predicting a less probable state to explore new behaviors. Our results suggest a mechanism for the network to optimize the probability of its predictions in a changing environment.
Amélioration de l'idiomaticité dans les systèmes de résumés abstractifs
ABSTRACT. Cet article vise à définir une méthode d'ajustement d'un système abstractif de résumé de textes financiers en mettant l'accent sur l’idiomaticité des résumés générés de la langue cible. Pour ce faire, les travaux linguistiques montrent que la rédaction de résumés, qui prend en compte des contraintes linguistiques, garantit l’idiomaticité exprimée dans les textes du domaine financier et la lisibilité pour l’utilisateur final. Sur cette base, notre travail met en évidence la pertinence d’ajustement adaptée du modèle BARThez sur notre jeu de données financières françaises pour l'affiner sur le résumé abstractif.
Les contraintes linguistiques, la méthode d’ajustement ainsi que l’impact de notre méthode sur l’idiomaticité des résumés générés sont présentés ici.
ABSTRACT. Identifying the hidden organizational principles and relevant structures of networks representing physical systems, ranging from the cellular scale to that of networks of social interactions, is fundamental for understanding their properties. In temporal networks one must further investigate the temporal properties of such structures to uncover the key mechanisms of the time evolution of these systems and the processes unfolding on them.
In static networks, the "rich-club" phenomenon, i.e., the tendency of well-connected nodes to also connect to each other, has been extensively investigated [1,2]. However, a well-connected structure in a static (aggregated) network might correspond in temporal networks to links that are never simultaneously present. Therefore, we propose a novel measure to investigate the simultaneity and stability over time of such structures in temporal networks: the "temporal rich club" [3]. Specifically, we consider a temporal network in discrete time on an interval [0, T], and we denote by G = (V, E) the corresponding aggregated graph. Our aim is to quantify whether the nodes with degree larger than k in G (the subset S>k) tend to be more connected simultaneously, and also more than by chance. Performing such analysis on an S>k with a large value of k allows to investigate the stability over time of the ties connecting the nodes with high centrality in the aggregated graph, i.e., whether a "temporal rich club phenomenon" is present. To this aim, we define the instantaneous ∆-cohesion of S>k, ε>k(t,∆), as the number of ties between nodes of S>k that remain stable over the time interval [t, t + ∆], normalized by their maximal density |S>k|(|S>k | − 1)/2, and we measure the maximal observed cohesion M(k, ∆) within S>k that remains stable during an interval of length ∆:
M(k,∆) ≡ maxt ε>k (t,∆)
We test this novel measure on temporal networks describing different systems, ranging from face-to-face interactions in various contexts, to air transportation and to brain functional connectivity.
For a given temporal network, we plot M(k, ∆) vs. k and ∆ and compare it with a reshuffled version of the temporal graph. We show the resulting colormaps in Figure 1A) for an example, namely a network of contacts between 232 children and 10 teachers collected in a primary school in France by the SocioPatterns collaboration and studied in many previous publications [4]. For the empirical data, the cohesion tends to increase with k at any ∆. Moreover, at fixed k, the temporal cohesion drops rapidly for low values of k and more slowly for large k. This shows that the data exhibits a temporal rich-club effect: the static rich-club effect shown in Figure 1B) for the aggregated network is not only due to contacts taking place at different times but actually corresponds to simultaneous and stable structures. However, the instantaneous densities of links remain much smaller than the ones observed at the aggregated level. We test the significance of such behaviour by performing the same analysis on a randomized version of the dataset (Figure 1A), such that the randomization preserves the statistical properties of the aggregated graph G and the activity timeline of the temporal network. The maximal cohesion is higher in the data, showing that the connections between large degree nodes are more numerous and stable than expected by chance, i.e., that a temporal rich club ordering is present. The dynamic evolution of these structures can be captured by studying the instantaneous ∆-cohesion ε>k (t, ∆) vs t and k, for different values of ∆ (Figure 1.C,D): it shows how, in the data, the maximal values of the cohesion are reached during the recess and lunch time for ∆=1, and only during lunch for larger ∆. For the randomized data, the maximal cohesion is reached at unrelated instants for ∆=1 and disappears at larger ∆.
I will illustrate as well in other examples how the analysis of temporal rich clubs can help shed light on the existence and stability of simultaneous connections between the most connected nodes of a temporal network, with deeper insights than with a static rich club analysis. I will show how it unveils the existence of nodes with peculiar dynamical properties, and how similar static rich club coefficients can hide different temporal rich club patterns.
Agent-based modelling of enzymatic digestion using experimental data
ABSTRACT. Human digestion is a complex process that involves diffusion and reaction effects where enzymes govern the denaturation and breakdown of proteins. In this work we build an agent-based model of gastric digestion of gel pieces of plant proteins (rapeseed). This model has been designed with the aim to obtain a faster computation than dynamic molecular models, as fast simulations are actually a prerequisite for learning the values of model parameters from experimental data. In this work, we exploit surrogate coarse-grained equation-based models to learn part of the parameters values using evolutionary optimization. The aim is to facilitate future developments devoted to the learning of all parameters in the model.