Einzelansicht
So., 14. Apr. 2019 Weber, Felix
Wissenschaftliche Hilfskraft des IIS-Lehrstuhls gewinnt den 2. Platz im informatiCup
Mit ihrem Angriff auf ein neuronales Netz zur Verkehrsschild-Erkennung haben Mohamed Kari und Tobias Mähl den 2. Platz des informatiCup-Wettbewerbs 2019 der GI gewonnen.
Tobias Mähl, Masterand am IIS-Lehrstuhl, und Mohamed Kari, Wissenschaftliche Hilfskraft am IIS-Lehrstuhl, haben gemeinsam den 2. Platz aus 30 qualifizierten Einreichungen des diesjährigen informatiCup-Wettbewerbs der Gesellschaft für Informatik gewonnen.
Aufgabe des Wettbewerbs war ein Black-Box-Angriff auf ein neuronales Netz zur optischen Verkehrschild-Erkennung. Damit thematisierte der informatiCup ein Grundproblem des auf Deep Learning basierenden, autonomen Fahrens: Seit der aufsehenerregenden Publikation von Szegedy et al. (2013, S. 5) ist bekannt, dass die in diesem Jahrzehnt sehr erfolgreich für Computer Vision eingesetzten Deep Neural Networks (DNNs) für Angriffe anfällig sind, bei denen ein algorithmisch konstruiertes Bild mit hohem Score falsch klassifiziert wird.
Die beiden Wirtschaftsinformatik-Studenten unserer Uni konnten die Jury mit ihrer Lösung überzeugen: Unter Verwendung einer Jacobian Data Augmentation (Papernot et al. 2016) mit anschließendem iterativen Gradienten-Angriff mit Momentum (Dong et al. 2017), den sie in TensorFlow implementierten, konnten sie Bilder generieren, die für den Menschen kein Verkehrsschild darstellen, vom Black-Box-Klassifikator jedoch mit höchsten Scores als Verkehrsschild erkannt wurden.
Der Wettbewerb wurde von Amazon, PPI, NetLight, TWT, VW und GitHub gesponsert. Das Finale fand auf dem MobileLifeCampus statt, dem IT-Gebäude von Volkswagen in Wolfsburg, in dem der Automobilhersteller seine Technologie zum autonomen Fahren entwickelt.
Wir gratulieren beiden herzlich zum 2. Platz und zum Preisgeld in Höhe von 2000 Euro.
__
Dong, Y. et al. (2017) “Boosting Adversarial Attacks with Momentum“ Conference on Computer Vision and Pattern Recognition (CVPR) 2018 - Spotlight. Available at: arxiv.org/abs/1710.06081.
Papernot, N. et al. (2016) “Practical Black-Box Attacks against Machine Learning“ Asia Conference on Computer and Communications Security 2017. doi: 10.1145/3052973.3053009.
Szegedy, C. et al. (2013) “Intriguing properties of neural networks“ International Conference on Learning Representations (ICLR) 2014, pp. 1–10. doi: 10.1021/ct2009208
Aktuelles:
- Diskussionbeitrag zur Wissenschaftskultur29.04.25
Artikel im Information and Software Technology-Journal veröffentlicht21.04.25
- Neue Version des XModelerML verfügbar!16.04.25
- Tutorial zur Entwicklung von DSML während CAiSE'2510.04.25
Excited to Share: Two Papers Accepted at DESRIST 2025!09.04.25
Girls'Day 2025: Schülerinnen entfesseln die Power von Generativer KI05.04.25
Studienprojektthemen für das SS25 jetzt online!28.03.25