{"id":2567,"date":"2021-09-20T09:16:36","date_gmt":"2021-09-20T09:16:36","guid":{"rendered":"https:\/\/network-king.net\/augen-auf-bei-ki-maschinelles-lernen-und-cyberkriminalitaet\/"},"modified":"2022-03-23T08:48:25","modified_gmt":"2022-03-23T08:48:25","slug":"augen-auf-bei-ki-maschinelles-lernen-und-cyberkriminalitaet","status":"publish","type":"articles","link":"https:\/\/network-king.net\/de\/augen-auf-bei-ki-maschinelles-lernen-und-cyberkriminalitaet\/","title":{"rendered":"Augen auf bei KI: Maschinelles Lernen und Cyberkriminalit\u00e4t"},"content":{"rendered":"\n<p>Die Computerkriminalit\u00e4t steht seit jeher an der Spitze des technologischen Wettlaufs. Es braucht nur eine neue Technologie aufzutauchen, und schon kann sie auch f\u00fcr b\u00f6swillige Zwecke genutzt werden. Alternativ entstehen direkt weitere Schwachstellen, die die Sicherheit von Unternehmen und Einzelpersonen bedrohen. In den meisten F\u00e4llen ist die Erfahrung mit diesen Bedrohungen mit hohen finanziellen Verlusten verbunden \u2013 um es vorsichtig auszudr\u00fccken.<\/p>\n\n<p>Beim maschinellen Lernen war und ist das nicht anders. Die Technologie wird zusammen mit anderen Modalit\u00e4ten der k\u00fcnstlichen Intelligenz (KI) seit einigen Jahren in vielen verschiedenen Bereichen eingesetzt. Die Einsatzgebiete reichen von der medizinischen Diagnostik bis zu autonomen Fahrzeugen. Es gibt jedoch auch einen Zweig mit weniger vorteilhaften Zielen, das sogenannte kontradiktorische maschinelle Lernen (Adversarial Machine Learning). Dieses nutzt Schwachstellen in Algorithmen der k\u00fcnstlichen Intelligenz aus, um b\u00f6sartige Ziele zu erreichen. Das gelingt ihm, indem es subtile Manipulationen an beobachteten Daten vornimmt, die dem blo\u00dfen Auge, nicht aber den KI-Systemen entgehen. In der Welt der Cybersicherheit wird der Begriff \u201eAngreifer&#8220; verwendet, um Personen oder Maschinen zu beschreiben, die versuchen, Software, Systeme oder Netzwerke zu hacken oder zu besch\u00e4digen.&#13;\nDie Technik zum Schutz vor diesen Angriffen wurde von Forschern der Carnegie Mellon University und des KAIST Cybersecurity Research Center entwickelt. Um die vorgeschlagene neue Technik zu verstehen, ist es wichtig, die Details des genannten kontradiktorischen (oder feindlichen maschinellen) Lernens zu verstehen.&#13;\n<\/p>\n\n<p>Die Technik zum Schutz vor diesen Angriffen wurde von Forschern der Carnegie Mellon University und des KAIST Cybersecurity Research Center entwickelt. Um die vorgeschlagene neue Technik zu verstehen, ist es wichtig, die Details des genannten kontradiktorischen (oder feindlichen maschinellen) Lernens zu verstehen.<\/p>\n\n<p>Einer der vielleicht emblematischsten F\u00e4lle f\u00fcr den Einsatz des kontradiktorischen maschinellen Lernens ist das Bild eines Pandas. Das Bild hat eine kleine, sehr gut berechnete Ver\u00e4nderung erfahren, so dass es von einem System der k\u00fcnstlichen Intelligenz als Gibbon, einer Affenart, erkannt wurde. Die zugeordnete \u201ehohe Zuverl\u00e4ssigkeit\u201c macht dies noch schlimmer. Im praktischen Leben kann der Einsatz einer \u00e4hnlichen Technik gro\u00dfen Schaden anrichten. So k\u00f6nnen beispielsweise mit Aufklebern oder Farbe ver\u00e4nderte Verkehrsschilder dazu f\u00fchren, dass ein autonomes Fahrzeug Unf\u00e4lle verursacht, indem es die Erkennung von KI-Systemen umgeht.<\/p>\n\n<div class=\"wp-block-image is-style-default\"><figure class=\"aligncenter size-full is-resized\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/network-king.net\/wp-content\/uploads\/2021\/09\/panda1.jpg\" alt=\"\" class=\"wp-image-2465\" width=\"530\" height=\"201\" srcset=\"https:\/\/network-king.net\/wp-content\/uploads\/2021\/09\/panda1.jpg 706w, https:\/\/network-king.net\/wp-content\/uploads\/2021\/09\/panda1-300x114.jpg 300w\" sizes=\"(max-width: 530px) 100vw, 530px\" \/><figcaption>Quelle: OpenAI<\/figcaption><\/figure><\/div>\n\n<p>Die Erstellung von F\u00e4llen mit Adversarial Machine Learning, die aus Sicht der Cyberkriminalit\u00e4t erfolgreich sind, ist ein Prozess des Ausprobierens. W\u00e4hrend des Prozesses werden kleine \u00c4nderungen an Pixeln vorgenommen. Anschlie\u00dfend wird das Bild an das KI-Modell \u00fcbermittelt, um zu sehen, wie sich die Vertrauensstufen verhalten. Oft kann dieser Prozess automatisiert werden.<\/p>\n\n<p>Au\u00dferdem gelten diese F\u00e4lle nicht nur f\u00fcr visuelle Daten, sondern auch f\u00fcr Text und Audio. Die bekannten Assistenten Amazon Alexa und Apple Siri nutzen beispielsweise automatische Spracherkennungssysteme, um Sprachbefehle zu analysieren. So k\u00f6nnte ein YouTube-Video auf eine Art ver\u00e4ndert werden, dass es einen spezifischen, b\u00f6sartigen Befehl enth\u00e4lt. Dieser w\u00e4re f\u00fcr das menschliche Geh\u00f6r nicht erkennbar. W\u00fcrde dieser Ton abgespielt, w\u00fcrde der maschinelle Lernalgorithmus des intelligenten Assistenten den versteckten Befehl ausf\u00fchren \u2013 mit den vom Cyberkriminellen gew\u00fcnschten Ergebnissen.<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-como-se-proteger\">Wie Sie sich sch\u00fctzen k\u00f6nnen<\/h2>\n\n<p>Eine M\u00f6glichkeit, sich vor sch\u00e4dlichem maschinellem Lernen zu sch\u00fctzen, besteht darin, KI-Systeme im \u00fcberwachten Modus gegen diese Art von Praktiken zu trainieren. Damit werden sie widerstandf\u00e4higer gegen\u00fcber St\u00f6rungen in den Eingabedaten. Im Allgemeinen wird ein gro\u00dfer Stapel von Beispielen f\u00fcr negatives maschinelles Lernen generiert, und das System wird so eingestellt, dass es die F\u00e4lle korrekt klassifiziert. Dieses Training kann hohe Kosten f\u00fcr Fallerstellung und Training verursachen und geht in der Regel zu Lasten der Modellleistung in der t\u00e4glichen Praxis. Es ist auch nicht garantiert, dass es gegen Angriffstaktiken funktioniert, f\u00fcr die es nicht trainiert wurde.<\/p>\n\n<p>Eine neue Technik, die von Forschern der Carnegie Mellon University und des KAIST Cybersecurity Research Centre entwickelt und k\u00fcrzlich auf dem Adversarial Machine Learning Workshop (AdvML) vorgestellt wurde, nutzt unbeaufsichtigtes Lernen und versucht zu erkennen, welche Eingabedaten m\u00f6glicherweise b\u00f6swillig ver\u00e4ndert wurden.<\/p>\n\n<p>Wissenschaftler haben einen Zusammenhang zwischen Angriffen auf das maschinelle Lernen und der Erkl\u00e4rbarkeit festgestellt, d.h. der F\u00e4higkeit von KI-Systemen, ihre Entscheidungen zu erkl\u00e4ren. Bei vielen Modellen des maschinellen Lernens sind Entscheidungen aufgrund der gro\u00dfen Anzahl von Parametern, die in den Schlussfolgerungsprozess einflie\u00dfen, schwer nachvollziehbar. Forscher haben jedoch verschiedene Methoden entwickelt, die helfen k\u00f6nnen, die von maschinellen Lernmodellen getroffenen Entscheidungen zu verstehen.<\/p>\n\n<p>Mithilfe von Erkl\u00e4rungsmethoden werden Auff\u00e4lligkeitskarten erstellt. Diese erkl\u00e4ren, wie die Merkmale der Eingabedaten auf der Grundlage ihres Beitrags zum Endergebnis bewertet werden. Wenn also ein Bild mit kleinen St\u00f6rungen ver\u00e4ndert wird, findet die neue, von Carnegie Mellon und KAIST entwickelte Methode abnormale Ergebnisse, indem sie es einem Erkl\u00e4rbarkeitsalgorithmus unterzieht. Mit anderen Worten: die Technik erkennt Instanzen von ung\u00fcnstigem maschinellem Lernen auf der Grundlage von Erkl\u00e4rbarkeitskarten.<\/p>\n\n<p>\u201eUnsere j\u00fcngste Arbeit begann mit einer einfachen Beobachtung, dass das Hinzuf\u00fcgen von kleinem Rauschen zu den Eingaben zu einem gro\u00dfen Unterschied in den Erkl\u00e4rungen f\u00fchrte&#8220;, erkl\u00e4rte Dr. Gihyuk Ko von der Carnegie Mellon University auf der TechTalks-Website.<\/p>\n\n<p>Die Wissenschaftler testeten die Methode anhand von MNIST, einem Datensatz handgeschriebener Ziffern, welcher h\u00e4ufig zur Bewertung verschiedener maschineller Lernverfahren verwendet wird. Nach Angaben der Forschergruppe konnte die un\u00fcberwachte Methode mehrere F\u00e4lle von sch\u00e4dlichem maschinellem Lernen mit gleicher oder besserer Leistung als andere bekannte Techniken erkennen.<\/p>\n\n<p>In Zukunft wollen die Forscher die Methode mit komplexeren Datens\u00e4tzen, wie CIFAR10\/100 und ImageNet, und mit komplizierteren Angriffen testen.<\/p>\n\n<p>M\u00f6chten Sie mehr \u00fcber adversarisches maschinelles Lernen erfahren? Hier finden Sie einige Websites:<\/p>\n\n<ul class=\"wp-block-list\"><li>Angriffe auf das maschinelle Lernen durch Cyberkriminelle: Was sie sind und wie man sie vermeiden kann.<\/li><li>Was ist adversarisches maschinelles Lernen: Angriffsmethoden im Jahr 2021.<\/li><li>Angriffe auf KI-Systeme im medizinischen Bereich durch inverses maschinelles Lernen: In Science ver\u00f6ffentlichter Artikel von Forschern aus Harvard und dem MIT mit einem \u00dcberblick dar\u00fcber, wie KI-Systeme im medizinischen Bereich f\u00fcr diese Art von Angriffen anf\u00e4llig sein k\u00f6nnen.<\/li><li>AI Now Institut: Interdisziplin\u00e4res Forschungszentrum an der New York University, dessen Ziel es ist, sicherzustellen, dass KI-Systeme gegen\u00fcber den Gemeinschaften und Kontexten, in denen sie eingesetzt werden, rechenschaftspflichtig sind.<\/li><li>CleverHans: Bibliothek mit Beispielen f\u00fcr gegnerisches maschinelles Lernen, um \u201eAngriffe und Verteidigungen zu entwickeln und beide zu vergleichen\u201c.<\/li><li>Fehlerm\u00f6glichkeiten beim maschinellen Lernen: Microsoft-Dokument, das Beispiele f\u00fcr absichtliche und unabsichtliche Fehler in maschinellen Lernsystemen auflistet.<\/li><li>B\u00f6swillige Nutzung von k\u00fcnstlicher Intelligenz: Bericht, verfasst von 26 Autoren aus 14 Institutionen, die die akademische Welt, die Zivilgesellschaft und den Markt abdecken.<\/li><\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Die Computerkriminalit\u00e4t steht seit jeher an der Spitze des technologischen Wettlaufs. Es braucht nur eine neue Technologie aufzutauchen, und schon kann sie auch f\u00fcr b\u00f6swillige Zwecke genutzt werden. Alternativ entstehen direkt weitere Schwachstellen, die die Sicherheit von Unternehmen und Einzelpersonen bedrohen. In den meisten F\u00e4llen ist die Erfahrung mit diesen Bedrohungen mit hohen finanziellen Verlusten&#8230;<\/p>\n","protected":false},"featured_media":2469,"comment_status":"closed","ping_status":"closed","template":"","format":[],"category":[47],"tags":[],"company":[],"topic":[],"class_list":["post-2567","articles","type-articles","status-publish","has-post-thumbnail","hentry","category-cybersecurity"],"acf":[],"_links":{"self":[{"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/articles\/2567","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/articles"}],"about":[{"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/types\/articles"}],"replies":[{"embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/comments?post=2567"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/media\/2469"}],"wp:attachment":[{"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/media?parent=2567"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/category?post=2567"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/tags?post=2567"},{"taxonomy":"format","embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/format?post=2567"},{"taxonomy":"company","embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/company?post=2567"},{"taxonomy":"topic","embeddable":true,"href":"https:\/\/network-king.net\/de\/wp-json\/wp\/v2\/topic?post=2567"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}