Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Adversarial machine learning
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Adversarial_machine_learning
http://dbpedia.org/ontology/abstract Unter einer Adversarial Attack (zu deutschUnter einer Adversarial Attack (zu deutsch „feindlicher Angriff“) versteht man im Kontext von Künstlicher Intelligenz (KI) bzw. Deep Learning die Verwendung von Adversarial Examples (zu Deutsch „feindliche Beispiele“) zur Manipulation der Klassifikationsergebnisse. Ein Adversarial Example ist ein speziell manipuliertes Eingangs-Signal in ein künstliches Neuronales Netzwerk, welches dieses absichtlich zu Fehlklassifikationen verleitet. Die Manipulation wird so vorgenommen, dass ein menschlicher Beobachter diese nicht bemerkt oder nicht als solche erkennt. Beispielsweise bei einem zur Objekterkennung trainierten neuronalen Netzwerk könnten die Pixel eines Bildes leicht verändert werden, sodass diese Veränderungen für Menschen nicht sichtbar sind, das Netzwerk die Objekte auf dem Bild jedoch falsch zuordnet. In allen Anwendungsbereichen neuronaler Netzwerke konnte die Anfälligkeit für Adversarial Examples gezeigt werden. Aufgrund der zunehmenden Erfolge tiefer neuronaler Netzwerke und deren Einsatz in sicherheitskritischen Aufgaben, wie im autonomen Fahren zur Erkennung von Verkehrsschildern, rücken Adversarial Attacks und Methoden zur Abwehr oder Erkennung solcher Adversarial Examples zunehmend in den Fokus der KI-Forschung. Die Störanfälligkeit von Neuronalen Netzen (beispielsweise im Kontext von Adversarial Examples) kann durch die Größe der Lipschitzkonstante plausibilisiert werden.Lipschitzkonstante plausibilisiert werden. , Adversarial machine learning is the study Adversarial machine learning is the study of the attacks on machine learning algorithms, and of the defenses against such attacks. A recent survey exposes the fact that practitioners report a dire need for better protecting machine learning systems in industrial applications. To understand, note that most machine learning techniques are mostly designed to work on specific problem sets, under the assumption that the training and test data are generated from the same statistical distribution (IID). However, this assumption is often dangerously violated in practical high-stake applications, where users may intentionally supply fabricated data that violates the statistical assumption. Some of the most common threat models in adversarial machine learning include evasion attacks, data poisoning attacks, Byzantine attacks and model extraction.s, Byzantine attacks and model extraction. , Adversarial machine learning (ApprendimentAdversarial machine learning (Apprendimento automatico antagonistico) è una serie di tecniche volte a compromettere il corretto funzionamento di un sistema informatico che faccia uso di algoritmi di apprendimento automatico, tramite la costruzione di input speciali in grado di ingannare tali algoritmi: più nello specifico, lo scopo di tali tecniche è quello di causare la classificazione errata in uno di questi algoritmi. Inoltre, nel caso specifico dell'apprendimento supervisionato, è possibile costruire particolari input in grado di far trapelare informazioni sul training set usato, o di permettere la clonazione del modello stesso.rmettere la clonazione del modello stesso. , Η αντιπαραθετική μηχανική μάθηση, γνωστή κΗ αντιπαραθετική μηχανική μάθηση, γνωστή και ως αντιπαλική μηχανική μάθηση, είναι μια τεχνική στον τομέα της μηχανικής μάθησης κατά την οποία ανιχνεύονται δεδομένα εισαγωγής που μπορούν να ξεγελάσουν ένα μοντέλο. Η τεχνική αυτή μπορεί να εφαρμοστεί για διάφορους λόγους, συμπεριλαμβανομένων την κακόβουλη επίθεση του εξαπατώμενου μοντέλου, την εξέταση της ευρωστείας του εξαπατώμενου μοντέλου σε επιθέσεις και την εξασφάλιση της ανεξαρτησίας του αποτελέσματος του εξαπατώντος μοντέλου από την τιμή που αξιολογεί το εξαπατώμενο.από την τιμή που αξιολογεί το εξαπατώμενο. , O aprendizado de máquinas adversário é umaO aprendizado de máquinas adversário é uma técnica de aprendizado de máquina que tenta enganar os modelos fornecendo informações enganosas. O motivo mais comum é causar um mau funcionamento em um modelo de aprendizado de máquina. A maioria das técnicas de aprendizado de máquina foi projetada para funcionar em conjuntos de problemas específicos nos quais os dados de treinamento e teste são gerados a partir da mesma distribuição estatística (IID). Quando esses modelos são aplicados ao mundo real, os adversários podem fornecer dados que violam essa suposição estatística. Esses dados podem ser organizados para explorar vulnerabilidades específicas e comprometer os resultados.s específicas e comprometer os resultados.
http://dbpedia.org/ontology/thumbnail http://commons.wikimedia.org/wiki/Special:FilePath/Proactive_arms_race.jpg?width=300 +
http://dbpedia.org/ontology/wikiPageExternalLink https://csrc.nist.gov/publications/detail/nistir/8269/draft + , http://www.dagstuhl.de/en/program/calendar/semhp/%3Fsemnr=12371 + , http://pralab.diee.unica.it/en/ALFASVMLib + , https://atlas.mitre.org/ + , https://web.archive.org/web/20120108072159/http:/nips.cc/Conferences/2007/Program/event.php%3FID=615 + , http://aisec.cc/ +
http://dbpedia.org/ontology/wikiPageID 45049676
http://dbpedia.org/ontology/wikiPageLength 61072
http://dbpedia.org/ontology/wikiPageRevisionID 1118218325
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Fawkes_%28image_cloaking_software%29 + , http://dbpedia.org/resource/Category:Computer_security + , http://dbpedia.org/resource/McAfee + , http://dbpedia.org/resource/Computer_viruses + , http://dbpedia.org/resource/Tesla%2C_Inc. + , http://dbpedia.org/resource/Ian_Goodfellow + , http://dbpedia.org/resource/Spam_filtering + , http://dbpedia.org/resource/Backdoor_%28computing%29 + , http://dbpedia.org/resource/Federated_learning + , http://dbpedia.org/resource/Intrusion_detection_system + , http://dbpedia.org/resource/Support_vector_machine + , http://dbpedia.org/resource/Deep_learning + , http://dbpedia.org/resource/Traffic_flow_%28computer_networking%29 + , http://dbpedia.org/resource/Constrained_optimization_problem + , http://dbpedia.org/resource/File:Proactive_arms_race.jpg + , http://dbpedia.org/resource/Overfitting + , http://dbpedia.org/resource/Gradient_descent + , http://dbpedia.org/resource/Malware + , http://dbpedia.org/resource/Binary_search_algorithm + , http://dbpedia.org/resource/Computer_security + , http://dbpedia.org/resource/3-D_print + , http://dbpedia.org/resource/Linear_classifier + , http://dbpedia.org/resource/Category:Machine_learning + , http://dbpedia.org/resource/Evasion_%28network_security%29 + , http://dbpedia.org/resource/Kaggle + , http://dbpedia.org/resource/Machine_learning + , http://dbpedia.org/resource/Transfer_learning + , http://dbpedia.org/resource/Pattern_recognition + , http://dbpedia.org/resource/Email_filtering + , http://dbpedia.org/resource/White_box_%28software_engineering%29 + , http://dbpedia.org/resource/Independent_and_identically_distributed_random_variables + , http://dbpedia.org/resource/Neural_networks + , http://dbpedia.org/resource/Optical_character_recognition + , http://dbpedia.org/resource/Black_box + , http://dbpedia.org/resource/Image_spam + , http://dbpedia.org/resource/Network_packet + , http://dbpedia.org/resource/Loss_functions_for_classification + , http://dbpedia.org/resource/Byzantine_fault + , http://dbpedia.org/resource/Artificial_intelligence + , http://dbpedia.org/resource/Disinformation + , http://dbpedia.org/resource/Robustness_%28computer_science%29 + , http://dbpedia.org/resource/Single_point_of_failure + , http://dbpedia.org/resource/Linear_regression + , http://dbpedia.org/resource/Random_search + , http://dbpedia.org/resource/Mobileye +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Machine_learning + , http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:Distinguish + , http://dbpedia.org/resource/Template:Cite_journal + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Differentiable_computing +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Computer_security + , http://dbpedia.org/resource/Category:Machine_learning +
http://purl.org/linguistics/gold/hypernym http://dbpedia.org/resource/Field +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Adversarial_machine_learning?oldid=1118218325&ns=0 +
http://xmlns.com/foaf/0.1/depiction http://commons.wikimedia.org/wiki/Special:FilePath/Proactive_arms_race.jpg +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Adversarial_machine_learning +
owl:differentFrom http://dbpedia.org/resource/Generative_adversarial_network +
owl:sameAs http://pt.dbpedia.org/resource/Aprendizado_de_m%C3%A1quina_advers%C3%A1rio + , http://de.dbpedia.org/resource/Adversarial_Attack + , http://rdf.freebase.com/ns/m.012nf7j0 + , http://fa.dbpedia.org/resource/%DB%8C%D8%A7%D8%AF%DA%AF%DB%8C%D8%B1%DB%8C_%D9%85%D8%A7%D8%B4%DB%8C%D9%86_%D8%AE%D8%B5%D9%85%D8%A7%D9%86%D9%87 + , http://el.dbpedia.org/resource/%CE%91%CE%BD%CF%84%CE%B9%CF%80%CE%B1%CF%81%CE%B1%CE%B8%CE%B5%CF%84%CE%B9%CE%BA%CE%AE_%CE%BC%CE%B7%CF%87%CE%B1%CE%BD%CE%B9%CE%BA%CE%AE_%CE%BC%CE%AC%CE%B8%CE%B7%CF%83%CE%B7 + , http://it.dbpedia.org/resource/Adversarial_machine_learning + , https://global.dbpedia.org/id/wEgn + , http://dbpedia.org/resource/Adversarial_machine_learning + , http://www.wikidata.org/entity/Q20312394 +
rdfs:comment Unter einer Adversarial Attack (zu deutschUnter einer Adversarial Attack (zu deutsch „feindlicher Angriff“) versteht man im Kontext von Künstlicher Intelligenz (KI) bzw. Deep Learning die Verwendung von Adversarial Examples (zu Deutsch „feindliche Beispiele“) zur Manipulation der Klassifikationsergebnisse. Ein Adversarial Example ist ein speziell manipuliertes Eingangs-Signal in ein künstliches Neuronales Netzwerk, welches dieses absichtlich zu Fehlklassifikationen verleitet. Die Manipulation wird so vorgenommen, dass ein menschlicher Beobachter diese nicht bemerkt oder nicht als solche erkennt. Beispielsweise bei einem zur Objekterkennung trainierten neuronalen Netzwerk könnten die Pixel eines Bildes leicht verändert werden, sodass diese Veränderungen für Menschen nicht sichtbar sind, das Netzwerk die Objekte auf dem Bild jedoch Netzwerk die Objekte auf dem Bild jedoch , Adversarial machine learning is the study Adversarial machine learning is the study of the attacks on machine learning algorithms, and of the defenses against such attacks. A recent survey exposes the fact that practitioners report a dire need for better protecting machine learning systems in industrial applications. Some of the most common threat models in adversarial machine learning include evasion attacks, data poisoning attacks, Byzantine attacks and model extraction.s, Byzantine attacks and model extraction. , Adversarial machine learning (ApprendimentAdversarial machine learning (Apprendimento automatico antagonistico) è una serie di tecniche volte a compromettere il corretto funzionamento di un sistema informatico che faccia uso di algoritmi di apprendimento automatico, tramite la costruzione di input speciali in grado di ingannare tali algoritmi: più nello specifico, lo scopo di tali tecniche è quello di causare la classificazione errata in uno di questi algoritmi. Inoltre, nel caso specifico dell'apprendimento supervisionato, è possibile costruire particolari input in grado di far trapelare informazioni sul training set usato, o di permettere la clonazione del modello stesso.rmettere la clonazione del modello stesso. , Η αντιπαραθετική μηχανική μάθηση, γνωστή κΗ αντιπαραθετική μηχανική μάθηση, γνωστή και ως αντιπαλική μηχανική μάθηση, είναι μια τεχνική στον τομέα της μηχανικής μάθησης κατά την οποία ανιχνεύονται δεδομένα εισαγωγής που μπορούν να ξεγελάσουν ένα μοντέλο. Η τεχνική αυτή μπορεί να εφαρμοστεί για διάφορους λόγους, συμπεριλαμβανομένων την κακόβουλη επίθεση του εξαπατώμενου μοντέλου, την εξέταση της ευρωστείας του εξαπατώμενου μοντέλου σε επιθέσεις και την εξασφάλιση της ανεξαρτησίας του αποτελέσματος του εξαπατώντος μοντέλου από την τιμή που αξιολογεί το εξαπατώμενο.από την τιμή που αξιολογεί το εξαπατώμενο. , O aprendizado de máquinas adversário é uma técnica de aprendizado de máquina que tenta enganar os modelos fornecendo informações enganosas. O motivo mais comum é causar um mau funcionamento em um modelo de aprendizado de máquina.
rdfs:label Αντιπαραθετική μηχανική μάθηση , Adversarial machine learning , Aprendizado de máquina adversário , Adversarial Attack
hide properties that link here 
http://dbpedia.org/resource/General_adversarial_network + , http://dbpedia.org/resource/Adversarial_AI + , http://dbpedia.org/resource/Adversarial_patch + , http://dbpedia.org/resource/Adversarial_examples + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Facial_recognition_system + , http://dbpedia.org/resource/Domain_adaptation + , http://dbpedia.org/resource/World_War_III + , http://dbpedia.org/resource/Himabindu_Lakkaraju + , http://dbpedia.org/resource/Artificial_Intelligence:_A_Guide_for_Thinking_Humans + , http://dbpedia.org/resource/Paraphrasing_%28computational_linguistics%29 + , http://dbpedia.org/resource/Machine_learning + , http://dbpedia.org/resource/Generative_adversarial_network + , http://dbpedia.org/resource/Outline_of_machine_learning + , http://dbpedia.org/resource/Fawkes_%28image_cloaking_software%29 + , http://dbpedia.org/resource/Information_laundering + , http://dbpedia.org/resource/General_adversarial_network + , http://dbpedia.org/resource/Government_by_algorithm + , http://dbpedia.org/resource/Samy_Bengio + , http://dbpedia.org/resource/Gaming_the_system + , http://dbpedia.org/resource/Computer_vision_dazzle + , http://dbpedia.org/resource/Domain_generation_algorithm + , http://dbpedia.org/resource/Error_tolerance_%28PAC_learning%29 + , http://dbpedia.org/resource/Adversarial_AI + , http://dbpedia.org/resource/Adversarial_patch + , http://dbpedia.org/resource/Adversarial_examples + , http://dbpedia.org/resource/Adversarial_learning + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Adversarial_machine_learning + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Generative_adversarial_network + owl:differentFrom
http://dbpedia.org/resource/Adversarial_machine_learning + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.