IT-Sicherheit: Trainingsschwächen bei Künstlicher Intelligenz

Ein Virenprogramm, das mit unvollständigen Daten trainiert wurde, könnte sich als unbrauchbar gegenüber Angreifenden aus dem Internet erweisen. Copyright: Show-Shot-Foto – Fotolia

Fehlerquellen beim Maschinellen Lernen werden zu oft übersehen und Ergebnisse dadurch verzerrt (Quelle: Karlsruher Institut für Technologie – Pressemitteilungen)

Maschinelles Lernen (ML) ist in vielen digitalen Anwendungsbereichen erfolgreich verbreitet, auch in der Computersicherheit. In der IT-Sicherheitsforschung werden Methoden der Künstlichen Intelligenz (KI) ebenso angewandt. Allerdings gibt es beim Training von KI Schwächen, wie Forschende des KIT und anderer internationaler Forschungseinrichtungen herausgefunden haben.

„Selbstlernende Algorithmen sind traditionellen Methoden oft überlegen. So wird ML zum Beispiel eingesetzt, um neuartige Angriffe auf Computersysteme zu untersuchen und Abwehrmaßnahmen an die Bedrohungen anzupassen“, sagt Juniorprofessor Christian Wressnegger von den KASTEL Security Research Labs am KIT. Ergebnisse könnten jedoch verzerrt werden, etwa durch die Fütterung der KI mit nicht repräsentativen Daten, die das reale Vorkommen von Viren falsch abbilden. „In App Stores der großen Anbieter kommen Apps mit Sicherheitsrisiken weniger oft vor als in alternativen Quellen mit geringeren Sicherheitsstandards“, erläutert der Forscher. Außerdem müsse man berücksichtigen, dass Angreifende üblicherweise versuchen, Verteidigungsmaßnahmen zu umgehen oder sogar zu attackieren. „Ein lernendes Virenschutzprogramm beispielsweise, das auf solchen unvollständigen Daten trainiert wurde, könnte sich in der Praxis als unbrauchbar erweisen.“ Wressnegger und sein Team haben gemeinsam mit internationalen Partnern 30 aktuelle Forschungsarbeiten untersucht, die ML für die IT-Sicherheit nutzen und auf prestigeträchtigen Computer- und Systemsicherheitskonferenzen veröffentlicht wurden. Alle hatten eine oder mehrere Fehlerquellen nicht berücksichtigt. „Es fehlt an Bewusstsein für die Schwierigkeiten, Maschinelles Lernen korrekt anzuwenden“, so der Experte für Cybersicherheit.

Die Original-Pressemitteilung finden Sie unter: 

IT-Sicherheit: Trainingsschwächen bei Künstlicher Intelligenz

Die Originalpublikation finden Sie unter (Open Access): 

Ahmed E. Zoheir, Laura Meisch, Marta Velaz Martín, Christoph Bickmann, Alexei Kiselev, Florian Lenk, Anne-Kristin Kaster, Kersten S. Rabe, und Christof M. Niemeyer: Macroporous Silicone Chips for Decoding Microbial Dark Matter in Environmental Microbiomes. ACS Applied Materials & Interfaces, 2022. Weblink

Verortung im Helmholtz-Forschungsbereich Information:

Helmholtz-Forschungsbereich Information, Programm 1: Engineering Digital Futures, Topic 3: Engineering Secure Systems

Kontakt:

Jun.-Prof. Dr. Christian Wressnegger
Institut für Informationssicherheit und Verlässlichkeit (KASTEL)
Karlsruher Institut für Technologie (KIT)
Tel.: +49 721 608-41330
E-Mail: c.wressnegger@kit.edu

Kommentar hinzufügen

Verwandte Artikel