
Pouvez-vous présenter brièvement votre travail?
Je me concentre sur l'apprentissage automatique appliqué à la perception audio-visuelle. L'objectif est de permettre à des systèmes d'atteindre les buts pour lesquels ils ont été conçus et d'améliorer leurs capacités en interagissant avec leur environnement, d'autres systèmes et des personnes.
Le but de mes recherches est de créer les modèles de perception automatique qui permettront d'utiliser efficacement les informations provenant des capteurs et d'assurer le fonctionnement sûr des systèmes autonomes. Ces systèmes pourront recueillir des informations sur leur environnement et prendre des décisions en collaboration avec des humains ou de manière indépendante. Ces modèles sont en train de transformer la capacité des systèmes autonomes à voir, à entendre et à agir avec confiance dans des situations qu'ils n'ont jamais rencontrées auparavant.
Quels sont les défis liés à l'utilisation de ces technologies?
Alors que les systèmes d'apprentissage automatique prennent une place de plus en plus importante dans nos vies et notre société fait face à un rythme de changement technologique sans précédent, il est essentiel de s'assurer qu'on peut leur faire confiance. J'explore les questions délicates de confiance qui se posent lorsque ces systèmes doivent traiter d'énormes quantités de données produites par les humains et prendre des décisions qui ont un impact sur les gens.
Je travaille à concevoir des méthodes pour entraîner ces systèmes à agir conformément à ce que l'on attend d'eux, à limiter les conséquences imprévues et à protéger les informations sensibles. En nous attaquant à ces questions cruciales, nous pourrons construire des systèmes d'apprentissage automatique fiables et bénéfiques pour la société.
Concrètement, sur quelles solutions travaillez-vous?
Les photos, les sons et les informations sur nos mouvements que nous partageons via nos applications et nos assistants vocaux en disent long sur nos habitudes, nos goûts et ce qu'on aime faire, ainsi que sur nos conditions de santé. Souvent, grâce à la grande quantité de données déjà disponibles, ces informations peuvent être devinées automatiquement.
Pour que chacun puisse vraiment contrôler ses données personnelles, nous travaillons sur des méthodes qui peuvent protéger des informations sensibles pour éviter qu'elles ne soient découvertes sans notre accord. Pour cela, on peut apprendre à représenter les informations de manière à séparer ce qui est privé de ce qui ne l'est pas. On peut aussi modifier légèrement ces données pour protéger certaines informations que l'on ne veut pas dévoiler.
« On peut apprendre [aux systèmes] à représenter les informations de manière à séparer ce qui est privé de ce qui ne l'est pas. »
Dans une étude récente, vous avez identifié huit profils typiques de personnes et leur manière d’aborder la protection des données (Privacy Personas). Quel était l'objectif de l'étude et comment avez-vous procédé?
Nous n'avons pas tous la même façon de voir et de gérer notre vie privée. Certaines personnes s'y connaissent bien, d'autres moins. Nos habitudes en ligne, notre confiance en notre capacité à nous protéger, et l'importance que l'on accorde à la confidentialité varient énormément d'une personne à l'autre.
Pour mieux communiquer avec chacune et chacun sur la protection de la vie privée et pour proposer des outils de protection plus adaptés, il est essentiel de comprendre ces différences. On peut imaginer différents «types» de personnes face à la vie privée.
Des études ont déjà essayé de définir ces «types», mais souvent, elles regroupent des personnes qui ont des avis assez différents sur des points importants, comme le contrôle qu'elles veulent avoir sur leurs données ou leur envie d'utiliser des outils de protection.
Pour aller plus loin et avoir une vision plus précise, nous avons créé huit profils différents. Pour cela, nous avons analysé en détail les réponses à un questionnaire interactif où les gens pouvaient apprendre et donner leur avis. Notre méthode d'analyse nous permet de nous assurer que ces huit profils sont vraiment différents les uns des autres, en se basant sur des chiffres concrets.
Nous avons comparé nos profils avec ceux qui existent déjà, et il apparaît que les nôtres donnent une image plus détaillée et complète des différentes manières dont les gens vivent leur vie privée. Grâce à cela, nous pourrons mieux aider chacune et chacun à protéger sa vie privée selon ses propres besoins.
Comment les systèmes algorithmiques/l'IA peuvent-ils être utilisés à l'avenir d'une manière éthiquement acceptable?
Une utilisation éthiquement acceptable de ces technologies passe avant tout par la transparence et l'éducation: nous devons pouvoir comprendre comment les intelligences artificielles (IA) prennent leurs décisions, un peu comme si elles pouvaient nous expliquer leur raisonnement. Par ailleurs, une meilleure culture de l'IA chez les individus est essentielle pour aider à démystifier ces technologies, à identifier leurs risques potentiels et à encourager des pratiques responsables.
Un autre défi majeur est de s'assurer que les IA ne soient pas biaisées et qu'elles traitent tout le monde équitablement. Les données sur lesquelles elles apprennent peuvent refléter des inégalités existantes, qu'il faut identifier et corriger. De plus, le respect de notre vie privée et la protection de nos informations personnelles doivent être au cœur de la conception et de l'utilisation de ces systèmes.
« Grâce à nos profils, nous pourrons mieux aider chacune et chacun à protéger sa vie privée selon ses propres besoins. »
Enfin, la conception de l'IA doit être inclusive et centrée sur l'humain. Elle doit tenir compte des valeurs de chacune et chacun, en évitant de creuser les inégalités. La mise en place de règles claires élaborées avec la participation de toutes et tous (chercheuses, chercheurs, citoyennes, citoyens, politiques, entreprises), est essentielle pour guider le développement et l'utilisation de l'IA vers un avenir où elle sert le bien commun et respecte nos valeurs fondamentales.
Interlocuteur
