Sommaire

  • Cet exposé a été présenté le 23 septembre 2022.

Description

  • Orateur

    Adrien Chan-Hon-Tong (ONERA)

Les attaques adversaires ont rencontré un fort écho dans la communauté de vision par ordinateur. Pour autant, via ce type d’attaque, un hacker ne peut modifier le comportement de l’algorithme ciblé que localement. Inversement, l’empoisonnement de données est en mesure de modifier globalement le comportement de l’algorithme visé, et, il n’est pas forcément détectable par un opérateur notamment si on considère un empoisonnement invisible comme celui introduit dans “poison frogs” (arxiv.org/abs/1804.00792). Cependant, il apparaît que ces empoisonnements invisibles sont parfois inopérants face à un apprentissage robuste. Cela amène à relativer le risque réel d’une telle attaque.

Prochains exposés

  • Privacy-preserving collaboration for intrusion detection in distributed systems

    • 27 mars 2026 (11:00 - 12:00)

    • Inria Center of the University of Rennes - Room Markov

    Orateur : Léo Lavaur - Université du Luxembourg

    The emergence of Federated Learning (FL) has rekindled the interest in collaborative intrusion detection systems, which were previously limited by the risks of information disclosure associated with data sharing. But is it a good collaboration tool? Originally designed to train prediction models on distributed consumer data without compromising data confidentiality, its use as a collaborative[…]
    • SoSysec

    • Privacy

    • Intrusion detection

    • Distributed systems

Voir les exposés passés