This talk focuses on parameter estimation in Bayesian inverse problems, where a physical model governed by differential equations is combined with noisy data. A key difficulty is the presence of discretization bias and intractable likelihoods, which hinder reliable inference. I present a methodology that delivers unbiased stochastic estimators of optimal parameters by combining stochastic approximation and modern debiasing techniques. The approach removes numerical bias while remaining computationally efficient. Theoretical guarantees and numerical results on PDE and ODE models demonstrate clear improvements over existing methods.
Les données jouent un rôle essentiel dans l’apprentissage automatique, la modélisation statistique et, plus généralement, l’intelligence artificielle. Elles fournissent en effet la matière première nécessaire à la construction des modèles, qu’il s’agisse de méthodes d’apprentissage supervisé ou non supervisé, ou de techniques statistiques plus traditionnelles ou même de réseaux neuronaux profonds. Plus les données sont riches, variées et représentatives de la réalité, plus les modèles peuvent être précis, généralisables et utiles dans divers contextes. Par conséquent, la qualité des résultats est intimement liée la qualité des données utilisées.L’apprentissage à partir de valeurs rares, extrêmes ou non, et plus généralement des données déséquilibrées reste encore un défi majeur et assez inexploré. De plus, les valeurs rares représentent souvent un événement important que les praticiens cherchent à comprendre ou prédire.Comment identifier ce phénomène ? Quels impacts cela peut-il avoir sur la modélisation ? Quelles solutions permettent d’aborder cette problématique ? Voici les questions auxquelles essaiera de répondre cette présentation sur le sujet.
I will present some recent results in the spirit of the De Giorgi-Nash-Moser theory for a wide class of kinetic integral equations, where the diffusion term in velocity is an integro-differential operator having nonnegative kernel of fractional order with merely measurable coefficients. I will mainly focus on boundedness estimates and Harnack inequalities. The talk is based on a series of papers by Anceschi, Kassmann, Piccinini, Weidner and myself.
La douleur psychologique augmente le risque d’idées et d’actes suicidaires et constitue une cible thérapeutique potentielle. Cependant, les mécanismes de la douleur mentale restent flous. Notre étude suggère que les systèmes sérotoninergique et nociceptif sont associés à l’activité du réseau cérébral qui est à l’origine la perception de la douleur mentale au cours de la dépression. La douleur mentale pourrait être une condition nécessaire, mais insuffisante pour l’émergence d’idées suicidaires au cours de la dépression.
Shape optimization involves the minimization of a cost function defined over a shape, often governed by a partial differential equation (PDE). Since analytical solutions are typically unavailable, we need to rely on numerical method to find an approximate solution. The level set method, when coupled with finite element analysis, is one of the most versatile numerical shape optimization approach. However, its reliance on meshing introduces limitations inherent to mesh-based methods.
In this talk, we present a fully meshless level set framework that leverages neural networks to parameterize the level set function and employs the graph Laplacian to solve the underlying PDE. This approach enables precise computation of geometric quantities such as normals and curvature. Furthermore, we exploit the flexibility of neural networks to address optimization problems within the class of convex shapes.