MOMI2022: Posters

Une session de posters sera organisée le premier jour, ceci dans le but de permettre aux doctorants et post-doctorants de présenter leurs travaux de recherche. De nombreux prix seront attribués à l’issue de cette session.

– 500€ pour le 1er prix,
– 300€ pour le 2nd prix,
– 200€ pour le 3eme prix.

À noter que vous n’avez pas besoin de resultats finaux pour les posters. Même si vous n’avez pas de résultats, vous pouvez présenter les problématiques de votre thèse, les approches ques vous utilisez, les résultats intermédiaires ainsi que les difficultés rencontrées. Les prix prendront en considération votre capacité à communiquer votre sujet à un public scientifique qui ne connait pas forcément les détails de votre domaine et venant d’horizon divers.

Participants

Lucrezia Carboni – Université de Grenoble

Titre : Caractérisation des réseaux fonctionnels du cerveau humain

Les réseaux fonctionnels de connectivité cérébrale sont des données difficiles à analyser et à caractériser correctement. Bien que les réseaux soient un bon modèle pour représenter l’ensemble des connexions entre les régions du cerveau, distinguer les états pathologiques des états sains en se basant sur la structure du graphe peut être ardu. En effet, même si de nombreux descripteurs de réseaux et de distances de comparaison de graphes existent, il n’y a pas de preuve claire des meilleures métriques à utiliser dans la discrimination des différents états du cerveau. Ces métriques semblent dépendre des données et doivent être utilisées séparément. En outre, si de nombreuses approches différentes ont été proposées avec de bons résultats en termes de précision, leur interprétation, un point clé dans le domaine des neurosciences, reste difficile. Pour ces raisons, nous proposons un moyen de combiner différentes statistiques nodales, c’est-à-dire toutes les fonctions possibles de la matrice d’adjacence définies sur l’ensemble des nœuds d’un graphe. Cela permet de caractériser les graphes à la fois au niveau global et nodal. Tout d’abord, nous définissons une relation d’équivalence sur l’ensemble des nœuds d’un graphe associée à une seule statistique nodale. Ensuite, nous étendons cette définition à toute collection de statistiques nodales et définissons une mesure d’orthogonalité entre les statistiques nodales. Nous montrons l’utilité de notre proposition à la fois pour déterminer quelles statistiques nodales sont moins redondantes selon la structure sous-jacente du graphe et quelles propriétés structurelles sont prédominantes dans le graphe. Enfin, nous proposons un moyen d’interpréter la connectivité des régions du cerveau au niveau nodal. Nous appliquons notre méthode à des réseaux de connectivité fonctionnelle construits avec différents atlas cérébraux et différentes bases de données concernant différentes pathologies. Nous montrons des résultats prometteurs qui mettent en évidence les différences au niveau nodal liées aux états pathologiques.


Huiyu Li – INRIA

Titre : Attaque de vol de données sur des images médicales : Est-il sûr d’exporter des réseaux depuis des lacs de données ?
Dans l’apprentissage automatique préservant la confidentialité, il est courant que le propriétaire du modèle appris n’ait pas d’accès physique aux données. Au lieu de cela, seul un accès à distance sécurisé à un lac de données est accordé au propriétaire du modèle sans aucune possibilité de récupérer les données du lac de données. Pourtant, le propriétaire du modèle peut vouloir exporter périodiquement le modèle appris à partir du référentiel distant et la question se pose de savoir si cela peut entraîner un risque de fuite de données. Dans cet article, nous introduisons le concept d’attaque par vol de données lors de l’exportation de réseaux neuronaux. Elle consiste à cacher certaines informations dans le réseau exporté qui permettent de reconstruire en dehors du lac de données des images initialement stockées dans ce lac de données. Plus précisément, nous montrons qu’il est possible d’entraîner un réseau capable d’effectuer une compression d’image avec perte et en même temps de résoudre certaines tâches utilitaires telles que la segmentation d’image. L’attaque se déroule ensuite en exportant le réseau de décodage de la compression ainsi que certains codes d’image qui conduisent à la reconstruction de l’image en dehors du lac de données. Nous explorons la faisabilité de telles attaques sur des bases de données d’images CT et MR, montrant qu’il est possible d’obtenir des reconstructions perceptivement significatives de l’ensemble de données cible, et que l’ensemble de données volé peut être utilisé à tour de rôle pour résoudre un large éventail de tâches. Des expériences et des analyses complètes montrent que les attaques de vol de données doivent être considérées comme une menace pour les sources de données d’imagerie sensibles.


Shakeel Ahmad Sheikh – Université de Lorraine, CNRS, INRIA, LORIA

Titre : Identification du bégaiement par apprentissage profond

L’identification du bégaiement (SI) est un problème de caractérisation de la parole qui a été abordé par différentes méthodes de traitement du signal et d’apprentissage automatique statistique. La technologie de la parole a été radicalement révolutionnée, grâce aux progrès de l’apprentissage profond, mais l’identification du bégaiement a reçu moins d’attention. Ce travail explore différents algorithmes d’apprentissage profond pour résoudre le problème du SI. Tout d’abord, nous présentons StutterNet, une architecture de réseau de neurones à retardement pour le SI. Ensuite, nous étudions les cadres d’apprentissage multi-tâches (MTL) et adversariaux (ADV).
Ensuite, nous étudions les cadres d’apprentissage multitâche (MTL) et contradictoire (ADV) pour apprendre une représentation robuste de la parole. Pour résoudre le problème des données limitées, nous introduisons en outre les incorporations de la parole pour l’IS, où les incorporations ont été extraites de modèles formés sur de grands ensembles de données et pour des tâches distinctes. Nous avons obtenu la meilleure performance SI à ce jour en utilisant les embeddings Wav2Vec2.0 avec le backend du réseau neuronal.


Yingyu Yang – INRIA

Titre : Suivi non supervisé du mouvement cardiaque basé sur des patchs en utilisant des MLP et des transformateurs.

Le suivi du mouvement cardiaque joue un rôle important dans l’analyse de la fonction cardiaque. Le suivi traditionnel (sans apprentissage), en particulier les approches basées sur le recalage, repose sur l’optimisation itérative d’une métrique de similarité qui est généralement coûteuse en temps et en espace. Ces dernières années, les méthodes de recalage d’images basées sur les réseaux de neurones convolutionnels (CNN) ont montré une efficacité prometteuse. Dans le même temps, des études récentes montrent que le modèle basé sur l’attention (par exemple, Transformer) peut apporter des performances supérieures dans les tâches de reconnaissance de formes, mais il n’est pas encore clair si les performances supérieures de Transformer proviennent de l’architecture longue durée ou si elles sont attribuées à l’utilisation de patchs pour diviser les entrées. Dans ce travail, nous introduisons un cadre basé sur trois patchs pour le recalage d’images en utilisant des MLP et des transformateurs. Nous réalisons des expériences de suivi de mouvement en échocardiographie 2D pour répondre partiellement à la première question et fournir une solution de référence. Nos résultats sur un grand ensemble de données publiques d’échocardiographie 2D et sur un ensemble de données synthétiques 2D montrent que le modèle MLP/Transformateur basé sur les patchs peut être utilisé efficacement pour le recalage d’images et le suivi des mouvements cardiaques. Ils démontrent des performances d’enregistrement comparables et même meilleures que celles d’un modèle d’enregistrement CNN populaire sur des ensembles de données in vivo et in silico. En particulier, l’architecture basée sur le MLP-Mixer présente la meilleure généralisation pour l’estimation du mouvement en échocardiographie. Nos résultats partagent une conclusion similaire à celle de recherches récentes selon lesquelles le mécanisme d’attention du modèle Transformer n’est peut-être pas le principal déterminant du succès, du moins pour l’enregistrement d’images.


Mulin Yu – INRIA

Titre : Trouver de bonnes configurations de primitives planaires dans des nuages de points non organisés

Nous présentons un algorithme de détection de primitives planes à partir de nuages de points 3D non organisés. À partir d’une configuration initiale, l’algorithme raffine à la fois les paramètres continus du plan et l’affectation discrète des points d’entrée à ceux-ci en recherchant une haute fidélité, une grande simplicité et une grande complétude. Notre principale contribution repose sur la conception d’un mécanisme d’exploration guidé par une fonction d’énergie multiobjectif. Les transitions dans le vaste espace de solutions sont traitées par cinq opérateurs géométriques qui créent, suppriment et modifient les primitives. Nous démontrons le potentiel de notre méthode sur une variété de scènes, des formes organiques aux objets artificiels, et de capteurs, de la stéréo multi-vues au laser. Nous montrons son efficacité par rapport aux approches d’ajustement de primitives existantes et illustrons son intérêt applicatif dans la reconstruction de maillages compacts, lorsqu’elle est combinée avec une méthode d’assemblage de plans.


Othmane Marfoq – INRIA

Titre : Apprentissage fédéré multi-tâches sous un mélange de distributions.

La taille croissante des données générées par les smartphones et les appareils IoT a motivé le développement de Federated Learning (FL), un cadre pour l’entraînement collaboratif sur appareil de modèles d’apprentissage automatique. Les premiers efforts en matière de FL se sont concentrés sur l’apprentissage d’un seul modèle global avec une bonne performance moyenne à travers les clients, mais le modèle global peut être arbitrairement mauvais pour un client donné, en raison de l’hétérogénéité inhérente des distributions locales de données. Les approches fédérées d’apprentissage multi-tâches (MTL) peuvent apprendre des modèles personnalisés en formulant un problème d’optimisation pénalisé opportun. Le terme de pénalisation peut capturer des relations complexes entre les modèles personnalisés, mais évite les hypothèses statistiques claires sur les distributions de données locales. Dans ce travail, nous proposons d’étudier le MTL fédéré sous l’hypothèse flexible que chaque distribution locale de données est un mélange de distributions sous-jacentes inconnues. Cette hypothèse englobe la plupart des approches FL personnalisées existantes et conduit à des algorithmes de type EM fédérés pour les configurations client-serveur et entièrement décentralisées. De plus, elle fournit une méthode de principe pour servir des modèles personnalisés aux clients qui n’ont pas été vus au moment de la formation. La convergence des algorithmes est analysée par le biais d’un nouveau cadre d’optimisation de substitution fédérée, qui peut être d’intérêt général. Les résultats expérimentaux sur des benchmarks FL montrent que notre approche fournit des modèles plus précis et plus équitables que les méthodes de l’état de l’art.


Marina Costantini – EURECOM

Titre : Répandez les ragots plus rapidement et soyez-en heureux. Partageons nos connaissances, pas nos données !

Les algorithmes d’optimisation décentralisés permettent à plusieurs nœuds d’un réseau de former en collaboration un modèle d’apprentissage automatique en utilisant les données de tous les nœuds, mais en gardant ces données privées. Pour ce faire, les nœuds communiquent avec leurs voisins pour échanger des valeurs d’optimisation (paramètres, gradients) au lieu des données elles-mêmes. En intercalant des étapes de communication avec des étapes de calcul, tous les nœuds peuvent converger vers la solution optimale qu’un algorithme centralisé trouverait si les données de tous les nœuds étaient rassemblées en un seul endroit.

En particulier, les algorithmes de commérage permettent aux nœuds de se réveiller à tout moment et de contacter un seul voisin pour terminer une itération ensemble. Ces algorithmes ont la propriété attrayante de ne pas avoir besoin d’un agent de synchronisation, et donc, ils offrent des économies de temps et de communication remarquables. En outre, ils offrent un degré de liberté supplémentaire pour accélérer la convergence : le choix du voisin à contacter lorsqu’un nœud devient actif.

Les algorithmes de commérage ont été proposés pour la première fois dans le contexte du calcul décentralisé de la moyenne, où tous les nœuds du réseau ont une seule valeur scalaire et la tâche consiste à trouver la moyenne de toutes les valeurs du réseau. Dans ce contexte, et lorsque le choix des voisins est aléatoire, il est bien connu comment choisir les probabilités de contact des voisins pour maximiser la vitesse de convergence. Cependant, dans le contexte de l’optimisation décentralisée, ce choix est moins clair, et des travaux récents ont rapporté que les probabilités qui sont optimales pour la moyenne décentralisée ne le sont plus pour certains paramètres d’optimisation décentralisée.

Dans ce poster, nous expliquerons les principales différences entre les tâches de calcul de la moyenne et d’optimisation dans le cadre décentralisé et nous donnerons un aperçu de la façon de concevoir des algorithmes rapides pour cette dernière. Nous mettrons l’accent sur deux forces complémentaires et peut-être concurrentes qui déterminent la vitesse de convergence : la structure du réseau (point de vue de la théorie des graphes) et le paysage d’optimisation (point de vue de l’optimisation mathématique).


Ziming Liu – INRIA

Titre : Une méthode générale de localisation visuelle hybride pour les robots de soins de santé intérieurs

Récemment, de plus en plus de robots de soins de santé et de services médicaux sont utilisés, tels que les services hospitaliers, les soins aux patients et la livraison. La localisation visuelle est une partie importante du module de perception des robots autonomes. Les progrès récents dans les approches d’apprentissage profond ont donné naissance à des approches de localisation visuelle hybrides qui combinent à la fois les réseaux profonds et les méthodes traditionnelles d’estimation de la pose. Une des limites des approches d’apprentissage profond est la disponibilité des données de vérité terrain nécessaires à l’entraînement des réseaux neuronaux. Par exemple, il est extrêmement difficile, voire impossible, d’obtenir une carte de profondeur dense de l’environnement à utiliser pour la localisation visuelle stéréo. Même si la formation non supervisée des réseaux a été étudiée, la formation supervisée reste plus fiable et plus robuste. Dans cet article, nous proposons une nouvelle approche hybride de localisation visuelle stéréo dense dans laquelle une carte de profondeur dense est obtenue avec un réseau qui est supervisé en utilisant des poses de vérité-terrain qui peuvent être plus facilement obtenues que les cartes de profondeur de vérité-terrain. La carte de profondeur obtenue par le réseau neuronal est utilisée pour déformer l’image actuelle dans le cadre de référence et la pose optimale est obtenue en minimisant une fonction de coût qui code la similarité entre l’image déformée et l’image de référence. Les résultats expérimentaux montrent que l’approche proposée, non seulement améliore les réseaux d’estimation de cartes de profondeur de l’état de l’art sur certains des ensembles de données de référence standard, mais surpasse également les méthodes de localisation visuelle de l’état de l’art.


Bernard Tamba Sandouno – INRIA

Titre : Estimation spatiale de la puissance du signal

L’estimation de la force des signaux a toujours été un sujet d’intérêt à la fois dans les milieux universitaires et industriels. Dans ce but, différentes catégories de modèles de propagation ont été développées. Certaines de ces catégories sont connues pour être plus rapides mais moins précises, tandis que la catégorie déterministe est connue pour être très précise car elle prend en compte l’environnement 3D d’un récepteur lors de l’estimation de la force du signal. Cependant, cette précision se fait au détriment d’une consommation de mémoire et d’une charge de calcul élevées, ce qui les rend inutilisables dans des scénarios en temps (presque) réel.
Notre objectif dans cette thèse est d’accélérer ce modèle, c’est-à-dire d’avoir un modèle déterministe précis mais avec une charge de calcul et une consommation de mémoire plus faibles. Pour ce faire, nous avons développé notre propre modèle RT à partir de zéro en utilisant le langage de programmation Python. Au cours de notre implémentation, nous avons développé une nouvelle manière optimisée de lancer le rayon d’une antenne afin de couvrir l’ensemble du diagramme de rayonnement sans lacunes. Ensuite, l’accélération a été réalisée en utilisant l’apprentissage automatique d’une part et la génération d’une carte de couverture continue d’autre part.


Evangelos-Marios Nikolados – University of Edinburgh

Titre : Modèles d’apprentissage profond de l’expression des protéines

L’apprentissage automatique est apparu comme un outil prometteur pour exploiter les données à grande échelle en vue de l’optimisation des souches. Cependant, on ne sait toujours pas quels modèles peuvent fournir des prédictions précises, ni quelle quantité et quelle qualité de données sont nécessaires pour la formation. L’utilisation d’un grand écran d’expression de protéines chez Escherichia coli, révèle que les modèles non profonds peuvent atteindre une précision de prédiction >70% avec aussi peu que ∼2 000 séquences d’ADN, tandis que l’apprentissage profond améliore encore les performances avec la même quantité de données. Ces résultats mettent en évidence l’interaction entre la précision du modèle et la structure de l’espace génotypique, suggérant que la diversité contrôlée des séquences peut conduire à des gains d’efficacité des données.


Yu Wang – LPMT

Titre : Simulation numérique de la fracture tensale pour les fils HMPWE en utilisant des fibres virtuelles.

Comme les fils contrôlent la rupture ultime des composites renforcés de fibres, leur comportement mécanique mérite une grande attention. La présente étude se concentre sur l’analyse expérimentale et la simulation du comportement de la fracture tensale des fils tordus. Un modèle à l’échelle quasi-fibre de fils tordus en fibres HMWPE est établi en utilisant des fibres virtuelles. Le comportement de rupture par traction des fils tordus est simulé en utilisant un critère de contrainte maximale avec une distribution aléatoire des propriétés. Les charges de rupture en traction de six types de fils tordus correspondent bien aux résultats expérimentaux. La précision et la dispersion numériques de la méthode proposée sont analysées systématiquement. L’influence du facteur de dommage et du déplacement aux ruptures sur les résultats de simulation des fils tordus est également obtenue. La méthode de modélisation et d’analyse ci-dessus fournit un outil utile pour comprendre l’architecture des fils des composites renforcés de fibres.


Marie Guyomard – I3S, CNRS

Titre : Régression logistique adaptative basée sur spline avec un réseau neuronal ReLU

Ce poster propose un réseau de neurones pour les tâches de classification non linéaires. Cette méthode revient à considérer une régression logistique appliquée à un modèle MARS. Le réseau neuronal segmente les caractéristiques et produit une règle de décision qui s’approche d’une spline. Le partitionnement de l’espace d’entrée par les hyperplans induits par les couches cachées est contrôlé et explicable. Des expériences sur des données simulées démontrent la pertinence de l’architecture du réseau pour l’aide au diagnostic médical.


Alexandre Bonlarron – INRIA, UCA

Titre : Génération de texte sous contrainte pour mesurer la performance de lecture : Une nouvelle approche basée sur les diagrammes de décision multivalués

La mesure de la performance de lecture est l’une des méthodes les plus utilisées dans les cliniques d’ophtalmologie pour juger de l’efficacité des traitements, des procédures chirurgicales ou des techniques de réhabilitation.
Cependant, les tests de lecture sont limités par le petit nombre de textes standardisés disponibles. Pour le test MNREAD, qui est l’un des tests de référence utilisés comme exemple dans cet article, il n’existe que deux séries de 19 phrases en français. Ces phrases sont difficiles à écrire car elles doivent respecter des règles de différentes natures (par exemple, liées à la grammaire, à la longueur, au lexique et à l’affichage). Elles sont également difficiles à trouver : sur un échantillon de plus de trois millions de phrases issues de la littérature de jeunesse, seules quatre satisfont aux critères du test de lecture MNREAD. Pour obtenir plus de phrases, nous proposons une approche originale de génération de texte qui considère toutes les règles à l’étape de la génération. Notre approche est basée sur les diagrammes de décision multi-valeurs (MDD). Dans un premier temps, nous représentons le corpus par des n-grammes et les différentes règles par des MDDs, puis nous les combinons à l’aide d’opérateurs, notamment des intersections. Les résultats obtenus montrent que cette approche est prometteuse, même si certains problèmes subsistent, comme la consommation de mémoire ou la validation a posteriori du sens des phrases. Dans 5-gram, nous générons plus de 4000 phrases qui répondent aux critères du MNREAD et fournissent ainsi facilement une extension d’un ensemble de 19 phrases au test MNREAD.


Angelo Saadeh – Telecom Paris

Titre : Apprentissage fédéré vertical préservant la confidentialité

Les préoccupations croissantes en matière de confidentialité font qu’il est plus difficile pour les organisations – comme les hôpitaux, les banques et les institutions gouvernementales – et pour les départements au sein d’une institution de collaborer afin de former de manière fédérée des modèles d’apprentissage automatique sur des ensembles de données combinés.

Nous décrivons une solution permettant à deux personnes d’entraîner une régression logistique sur un ensemble de données divisé verticalement, de sorte que la confidentialité des données utilisées pour entraîner les modèles soit protégée non seulement des membres des deux organisations collaboratrices, mais aussi des utilisateurs tiers des modèles.

En d’autres termes, les données seront protégées pendant le processus d’entraînement et après la publication des paramètres des modèles. Le calcul multipartite sécurisé (MPC) et la confidentialité différentielle epsilon (DP) proposent des solutions pour résoudre séparément les problèmes de protection contre les parties collaboratrices et contre les utilisateurs des modèles.

Ces solutions peuvent-elles être combinées pour former une solution unifiée ? Nous proposons, présentons et évaluons une régression logistique bipartite à confidentialité epsilon-différentielle et entièrement sécurisée sur un ensemble de données partitionnées verticalement où les joueurs doivent entraîner conjointement un modèle.


Riccardo Di Dio – INRIA

Titre : Influence des propriétés physiques du poumon sur ses courbes débit-volume à l’aide d’un modèle mathématique multi-échelle détaillé du poumon

Nous développons un modèle mathématique du poumon qui peut estimer indépendamment les débits et les pressions d’air dans les bronches supérieures. Il tient compte des propriétés multi-échelles du poumon et des interactions air-tissu. Les équations du modèle sont résolues en utilisant la Transformée de Fourier Discrète, qui permet une résolution quasi instantanée, dans la limite des hypothèses du modèle. Avec ce modèle, nous explorons comment les courbes débit-volume d’air sont affectées par l’obstruction des voies respiratoires ou par le changement de la compliance pulmonaire. Notre travail suggère qu’une analyse fine des courbes débit-volume pourrait apporter des informations sur les phénomènes internes qui se produisent dans le poumon.

Les commentaires sont clos.