Autor der Publikation

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Neural Cleanse: Identifying and Mitigating Backdoor Attacks in Neural Networks., , , , , , und . IEEE Symposium on Security and Privacy, Seite 707-723. IEEE, (2019)Gotta Catch 'Em All: Using Concealed Trapdoors to Detect Adversarial Attacks on Neural Networks., , , , , und . CoRR, (2019)Patch-based Defenses against Web Fingerprinting Attacks., , , und . AISec@CCS, Seite 97-109. ACM, (2021)Poison Forensics: Traceback of Data Poisoning Attacks in Neural Networks., , , und . USENIX Security Symposium, Seite 3575-3592. USENIX Association, (2022)Organic or Diffused: Can We Distinguish Human Art from AI-generated Images?, , , , , , und . CoRR, (2024)Fawkes: Protecting Privacy against Unauthorized Deep Learning Models., , , , , und . USENIX Security Symposium, Seite 1589-1604. USENIX Association, (2020)Glaze: Protecting Artists from Style Mimicry by Text-to-Image Models., , , , , und . USENIX Security Symposium, Seite 2187-2204. USENIX Association, (2023)Traceback of Data Poisoning Attacks in Neural Networks., , , und . CoRR, (2021)Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models., , , , und . CoRR, (2023)Blacklight: Scalable Defense for Neural Networks against Query-Based Black-Box Attacks., , , , , und . USENIX Security Symposium, Seite 2117-2134. USENIX Association, (2022)