Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Explainable artificial intelligence
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Explainable_artificial_intelligence
http://dbpedia.org/ontology/abstract Uma inteligência artificial explicável (IAUma inteligência artificial explicável (IAE, IA explicável, ou XAI) é uma inteligência artificial (IA) em que os resultados da solução podem ser compreendidos por humanos. Isso contrasta com o conceito de "caixa preta" no aprendizado de máquina, em que nem mesmo seus designers podem explicar por que uma IA chegou a uma decisão específica. A IAE pode ser uma implementação do social. A IAE é relevante mesmo se não houver nenhum direito legal ou requisito regulatório—por exemplo, a IAE pode melhorar a experiência do usuário de um produto ou serviço ajudando os usuários finais a confiar que a IA está tomando boas decisões. Assim, o objetivo da IAE é explicar o que foi feito, o que é feito agora, o que será feito a seguir e desvendar as informações nas quais as ações se baseiam. Essas características permitem (i) confirmar o conhecimento existente (ii) contestar o conhecimento existente e (iii) gerar novas suposições. Os algoritmos usados em IA podem ser separados entre algoritmos de aprendizado de máquina (ML) de caixa branca e caixa preta. Os modelos de caixa branca são modelos de ML que fornecem resultados compreensíveis por especialistas no domínio. Os modelos de caixa preta, por outro lado, são extremamente difíceis de explicar e dificilmente podem ser entendidos mesmo por especialistas no domínio. Considera-se que os algoritmos de IAE seguem três princípios: transparência, interpretabilidade e explicabilidade. A transparência está presente “se os processos que extraem parâmetros de modelo de dados de treinamento e geram rótulos de dados de teste podem ser descritos e motivados pelo designer de abordagem”. A interpretabilidade descreve a possibilidade de compreender o modelo de ML e de apresentar a base subjacente para a tomada de decisão de uma forma que seja compreensível por humanos. A explicabilidade é um conceito reconhecido como importante, mas uma definição conjunta ainda não está disponível. Sugere-se que a explicabilidade em ML pode ser considerada como “a coleção de características do domínio interpretável, que contribuíram para que um dado exemplo produzisse uma decisão (por exemplo, classificação ou regressão)”. Se os algoritmos atendem a esses requisitos, eles fornecem uma base para justificar decisões, rastreá-las e, portanto, verificá-las, melhorar os algoritmos e explorar novos fatos. Às vezes, também é possível obter um resultado com alta precisão com um algoritmo de ML de caixa branca que pode ser interpretado por si mesmo. Isso é especialmente importante em domínios como medicina, defesa, finanças e direito, onde é crucial entender as decisões e construir confiança nos algoritmos. Os sistemas de IA otimizam o comportamento para satisfazer um sistema de objetivos especificado matematicamente, escolhido pelos projetistas do sistema, como o comando "maximizar a precisão da são as críticas de filmes no conjunto de dados de teste". A IA pode aprender regras gerais úteis do conjunto de testes, como "avaliações que contenham a palavra 'horrível' provavelmente serão negativas". No entanto, ela também pode aprender regras inadequadas, como "resenhas contendo 'Daniel Day-Lewis' geralmente são positivas"; tais regras podem ser indesejáveis se forem consideradas susceptíveis de falhar na generalização fora do conjunto de teste, ou se as pessoas considerarem que a regra "trapaceia" ou é "injusta". Um ser humano pode auditar regras em um XAI para ter uma ideia da probabilidade de o sistema generalizar para dados futuros do mundo real fora do conjunto de teste.s do mundo real fora do conjunto de teste. , Explainable AI (XAI), or Interpretable AI,Explainable AI (XAI), or Interpretable AI, or Explainable Machine Learning (XML), is artificial intelligence (AI) in which humans can understand the decisions or predictions made by the AI. It contrasts with the "black box" concept in machine learning where even its designers cannot explain why an AI arrived at a specific decision. By refining the mental models of users of AI-powered systems and dismantling their misconceptions, XAI promises to help users perform more effectively. XAI may be an implementation of the social right to explanation. XAI is relevant even if there is no legal right or regulatory requirement. For example, XAI can improve the user experience of a product or service by helping end users trust that the AI is making good decisions. This way the aim of XAI is to explain what has been done, what is done right now, what will be done next and unveil the information the actions are based on. These characteristics make it possible (i) to confirm existing knowledge (ii) to challenge existing knowledge and (iii) to generate new assumptions. The algorithms used in AI can be differentiated into white-box and black-box machine learning (ML) algorithms. White-box models are ML models that provide results that are understandable for experts in the domain. Black-box models, on the other hand, are extremely hard to explain and can hardly be understood even by domain experts. XAI algorithms are considered to follow the three principles of transparency, interpretability and explainability. Transparency is given “if the processes that extract model parameters from training data and generate labels from testing data can be described and motivated by the approach designer”. Interpretability describes the possibility of comprehending the ML model and presenting the underlying basis for decision-making in a way that is understandable to humans. Explainability is a concept that is recognized as important, but a joint definition is not yet available. It is suggested that explainability in ML can be considered as “the collection of features of the interpretable domain, that have contributed for a given example to produce a decision (e.g., classification or regression)”. If algorithms meet these requirements, they provide a basis for justifying decisions, tracking and thereby verifying them, improving the algorithms, and exploring new facts. Sometimes it is also possible to achieve a result with high accuracy with a white-box ML algorithm that is interpretable in itself. This is especially important in domains like medicine, defense, finance and law, where it is crucial to understand the decisions and build up trust in the algorithms. Many researchers argue that, at least for supervised machine learning, the way forward is symbolic regression, where the algorithm searches the space of mathematical expressions to find the model that best fits a given dataset. AI systems optimize behavior to satisfy a mathematically specified goal system chosen by the system designers, such as the command "maximize accuracy of assessing how positive film reviews are in the test dataset". The AI may learn useful general rules from the test set, such as "reviews containing the word 'horrible' are likely to be negative". However, it may also learn inappropriate rules, such as "reviews containing 'Daniel Day-Lewis' are usually positive"; such rules may be undesirable if they are deemed likely to fail to generalize outside the train set, or if people consider the rule to be "cheating" or "unfair". A human can audit rules in an XAI to get an idea how likely the system is to generalize to future real-world data outside the test-set.ture real-world data outside the test-set. , 説明可能なAI(せつめいかのうなエーアイ、英語: Explainable artif説明可能なAI(せつめいかのうなエーアイ、英語: Explainable artificial intelligence、略称XAI )またはAIを説明するための技術は、人工知能 (AI) が導き出した答えに対して、人間が納得できる根拠を示すための技術である。特定の技術やツールを指し示す言葉ではなく、「AIを理解する」という目的ために研究・提案されている技術の総称である。XAIという用語は2017年4月から始まったアメリカ合衆国DARPA主導による研究プロジェクト(XAIプロジェクト)を契機として広く浸透した。DARPA主導による研究プロジェクト(XAIプロジェクト)を契機として広く浸透した。 , 可解釋人工智慧(英語:Explainable AI,縮寫為XAI)指的是讓專家能夠理可解釋人工智慧(英語:Explainable AI,縮寫為XAI)指的是讓專家能夠理解人工智慧之成果的方法與技術。它相對於黑箱式的機器學習,因為黑箱式的機器學習的設計者本身也無法解釋為什麼人工智慧能達到某些成果。可解釋人工智慧被認為是「」(right to explanation)的一種實踐。 要求人工智慧解釋它的決定是一種翻譯的問題(interpretability problem)。人工智慧的優化行為是一種為了滿足數理上特定目標的行為。其目標由設計者規劃,比如一個設計者要求「在資料集裡面精準分析電影如何被正面評價」。此時,人工智慧可能會找到一些通則,像是「評價中包含『爛』這個字眼表示是負面評價」。或是可能找到一些不正確的規則,比如「評價中包含『李小龍』這個字眼表示是正面評價」;這些規則可能難以解釋,甚至很可能在其他資料集得到錯誤的判斷,比如你很可能無法在《教父》的電影評價裡看到「李小龍」的字眼,但這不表示它是部爛片。針對這類問題,人類就能透過可解釋人工智慧的技術來監督人工智慧系統所找到的規則,並且判斷這些規則在真實的世界裡是否適用。工智慧的技術來監督人工智慧系統所找到的規則,並且判斷這些規則在真實的世界裡是否適用。 , La intel·ligència artificial explicable (XLa intel·ligència artificial explicable (XAI) es refereix a mètodes i tècniques en l'aplicació de la intel·ligència artificial (IA) que permeten als usuaris humans entendre i interpretar els resultats obtinguts. Contrasta amb el concepte de "caixa negra" dins l'aprenentatge automàtic, on fins i tot els dissenyadors d'un algorisme no poden explicar per què aquest arriba a una decisió específica. La XAI es considera una implementació del dret social a l'explicació. El disseny d'algorismes en IA sovint contraposa la precisió d'un model amb la seva interpretabilitat. Per exemple, els models d'aprenentatge profund obtenen resultats punters degut a la seva complexitat, però aquesta mateixa fa impossible seguir el raonament de la màquina, pas a pas. En canvi, els arbres de decisió es poden entendre fàcilment, però obtenen pitjors resultats. En aquest sentit, els algorismes d'aprenentatge automàtic es poden classificar en models de caixa blanca, si són interpretables per experts, i models de caixa negra, si no ho són. En certes aplicacions (com ara filtres de càmera), entendre el raonament de la màquina no és essencial i podem prioritzar la precisió del model, però en altres (com ara el diagnòstic mèdic o l'avaluació de risc en una assegurança), hi ha riscs ètics i legals si no entenem el procés de decisió, així que hem de considerar l'interpretabilitat. Tot i així, cal remarcar que l'interpretabilitat pot ser beneficiosa fins i tot sense riscos, ja que permet justificar les decisions preses en el disseny, i validar el correcte funcionament de l'algorisme. La XAI no es limita a l'elecció d'uns models sobre uns altres. Els models de caixa negra es poden estudiar bé considerant l'estructura interna de l'algorisme (per exemple, Grad-CAM per a xarxes neuronals convolucionals), o bé considerant-lo com una autèntica caixa negra (per exemple, l'aproximació local LIME).a (per exemple, l'aproximació local LIME). , La inteligencia artificial explicable (en La inteligencia artificial explicable (en inglés, explainable artificial intelligence, habitualmente abreviado XAI) se refiere a métodos y técnicas en la aplicación de tecnología de inteligencia artificial (AI) por los que el ser humano es capaz de comprender las decisiones y predicciones realizadas por la inteligencia artificial. Contrasta con el concepto de la "caja negra" en aprendizaje automático (en inglés, machine learning), donde ni siquiera sus diseñadores pueden explicar por qué la IA ha realizado una decisión concreta.​ XAI es una implementación del .​ El reto técnico de explicar las decisiones de IA se conoce como el problema de interpretabilidad.​ Otra consideración es la sobrecarga informativa, así, la transparencia total no puede ser siempre posible o incluso requerida. Aun así, la simplificación a costo de engañar usuarios para aumentar la confianza o esconder los atributos indeseables del sistema tendrían que ser evitados permitiendo un equilibrio entre la interpretabilidad y la integridad de una explicación .​ Los sistemas de IA optimizan el comportamiento para satisfacer un sistema de objetivos matemáticamente especificado elegido por los diseñadores del sistema, como el comando "maximizar la precisión en la evaluación de las críticas de películas en el conjunto de datos de prueba". La IA puede aprender reglas generales útiles del conjunto de pruebas, como "las revisiones que contienen la palabra 'horrible'" probablemente sean negativas ". Sin embargo, también puede aprender reglas inapropiadas, como "las revisiones que contienen 'Daniel Day-Lewis' suelen ser positivas"; tales reglas pueden ser indeseables si se considera que es probable que no se generalicen fuera del conjunto de pruebas, o si las personas consideran que la regla es "trampa" o "injusta".Un humano puede auditar las reglas en un XAI para tener una idea de la probabilidad de que el sistema se generalice a datos futuros del mundo real fuera del conjunto de pruebas.​mundo real fuera del conjunto de pruebas.​ , Поясненний Штучний Інтелект, або ІнтерпретПоясненний Штучний Інтелект, або Інтерпретовний Штучний Інтелект, або Зрозуміле Машинне Навчання, — це штучний інтелект (ШІ), в якому результати рішення можуть бути зрозумілі людині. Це контрастує з концепцією "чорного ящика" в машинному навчанні, де навіть його розробники не можуть пояснити, чому ШІ прийшов до конкретного рішення. Удосконалюючи ментальні моделі користувачів систем на базі штучного інтелекту та розбираючи їхні помилкові уявлення, Поясненний ШІ обіцяє допомогти користувачам працювати більш ефективно. Поясненний ШІ може бути реалізацією соціального . Поясненний ШІ актуальний, навіть якщо немає юридичних прав або нормативних вимог — наприклад, Поясненний ШІ може покращити користувацьку взаємодію з продуктом або послугою, допомагаючи кінцевим користувачам вірити, що ШІ приймає правильні рішення. Таким чином, мета Поясненного ШІ — пояснити, що було зроблено, що зроблено зараз, що буде зроблено далі, та розкрити інформацію, на якій базуються дії. Ці характеристики дозволяють (i) підтвердити наявні знання (ii) кинути виклик існуючим знанням і (iii) створити нові припущення. Алгоритми, що використовуються в ШІ, можна розрізнити на алгоритми машинного навчання(МН) білого ящика і чорного ящика. Моделі білого ящика — це моделі машинного навчання, які забезпечують результати, зрозумілі для експертів у даній області. З іншого боку, моделі «чорних ящиків» надзвичайно важко пояснити і навряд чи можуть бути зрозумілі навіть експертам в області. Вважається, що алгоритми Поясненного ШІ дотримуються трьох принципів прозорості, інтерпретації та пояснення. Прозорість надається, «якщо процеси, які витягують параметри моделі з навчальних даних і генерують мітки з даних тестування, можуть бути описані та мотивовані розробником підходу». Інтерпретація описує можливість зрозуміти модель машинного навчання і представити основну основу для прийняття рішень у спосіб, зрозумілий для людей. Пояснення — це поняття, яке визнається важливим, але спільного визначення поки немає. Припускається, що пояснюваність у машинному навчанні можна розглядати як «набір ознак інтерпретованого домену, які внесли для даного прикладу внесок у прийняття рішення (наприклад, класифікацію чи регресію)». Якщо алгоритми відповідають цим вимогам, вони забезпечують основу для обґрунтування рішень, відстеження та, таким чином, їх перевірки, вдосконалення алгоритмів та дослідження нових фактів. Іноді також можна досягти результату з високою точністю за допомогою алгоритму машинного навчання з білим ящиком, який сам по собі інтерпретується. Це особливо важливо в таких галузях, як медицина, оборона, фінанси та право, де дуже важливо розуміти рішення та зміцнювати довіру до алгоритмів. Системи штучного інтелекту оптимізують поведінку, щоб задовольнити математично визначену систему цілей, вибрану розробниками системи, наприклад команду «максимізувати точність оцінки позитивних рецензій на фільми в тестовому наборі даних». ШІ може засвоїти корисні загальні правила з тестового набору, наприклад, «відгуки, що містять слово „жахливий“, імовірно, будуть негативними». Однак він також може засвоїти невідповідні правила, наприклад, "відгуки, що містять" Дніел Дей-Льюїс «, зазвичай позитивні»; такі правила можуть бути небажаними, якщо вважається, що вони не зможуть узагальнити за межами тестового набору, або якщо люди вважають правило «шахрайським» або «несправедливим». Людина може перевіряти правила в Поясненному ШІ, щоб отримати уявлення про те, наскільки ймовірно, що система узагальнить майбутні дані реального світу за межами тестового набору.еального світу за межами тестового набору. , Explainable Artificial Intelligence (XAI; Explainable Artificial Intelligence (XAI; deutsch: erklärbare künstliche Intelligenz oder erklärbares Maschinenlernen) ist ein Neologismus, der seit etwa 2004 in der Forschung und Diskussion über Maschinenlernen verwendet wird. XAI soll eindeutig nachvollziehbar machen, auf welche Weise dynamische und nicht linear programmierte Systeme, z. B. künstliche neuronale Netze, Deep-Learning-Systeme (reinforcement learning) und genetische Algorithmen, zu Ergebnissen kommen. XAI ist eine technische Disziplin, die operative Methoden erarbeitet und bereitstellt, die zur Erklärung von AI-Systemen dienen. Ohne XAI gleichen einige Methoden des maschinellen Lernens (insbesondere das zurzeit populäre Deep Learning) einem Black-Box-Vorgang, bei dem die Introspektion eines dynamischen Systems unbekannt oder unmöglich ist und der Anwender keine Kontrollmöglichkeiten hat zu verstehen, wie eine Software zur Lösung eines Problems gelangt.oftware zur Lösung eines Problems gelangt. , 설명가능 인공지능(Explainable AI, XAI)은 판단에 대한 이유를 사람이 이해할 수 있는 방식으로 제시하는 인공지능을 일컫는다. 특정한 판단에 대해 알고리즘의 설계자조차도 그 이유를 설명할 수 없는 '블랙박스' 인공지능과 대비되는 개념이다. 불확실성을 해소하여 인공지능에 대한 신뢰성을 높일 수 있게 된다. DARPA는 약 800억원의 예산을 투입하여 '유리박스'를 목표로 한 프로젝트를 진행하고 있다.
http://dbpedia.org/ontology/wikiPageExternalLink http://aix360.mybluemix.net/ + , https://www.forbes.com/sites/forbestechcouncil/2019/08/13/explainable-ai-is-the-next-big-thing-in-accounting-and-finance/ + , https://intelligencereborn.com/MachineLearningInterpretability.html + , https://devblogs.nvidia.com/parallelforall/deep-learning-self-driving-cars/ + , https://devblogs.nvidia.com/parallelforall/explaining-deep-learning-self-driving-car/ + , https://www.researchgate.net/publication/332858862 + , https://explainableai.com/ + , https://web.archive.org/web/20201022062307/https:/www2.computerworld.com.au/article/617359/explainable-artificial-intelligence-cracking-open-black-box-ai/ + , https://www.technologyreview.com/s/603795/the-us-military-wants-its-autonomous-machines-to-explain-themselves/ + , https://www.computerworld.com.au/article/617359/explainable-artificial-intelligence-cracking-open-black-box-ai/ + , http://simmachines.com/similarity-cracks-code-explainable-ai/ + , https://www.fatml.org/ + , https://fatconference.org/ +
http://dbpedia.org/ontology/wikiPageID 54575571
http://dbpedia.org/ontology/wikiPageLength 54329
http://dbpedia.org/ontology/wikiPageRevisionID 1124520612
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Image_recognition + , http://dbpedia.org/resource/Right_to_explanation + , http://dbpedia.org/resource/General_Data_Protection_Regulation + , http://dbpedia.org/resource/Category:Self-driving_cars + , http://dbpedia.org/resource/Deep_learning + , http://dbpedia.org/resource/Sentiment_analysis + , http://dbpedia.org/resource/White-box_testing + , http://dbpedia.org/resource/Bayesian_network + , http://dbpedia.org/resource/Cluster_analysis + , http://dbpedia.org/resource/Algorithmic_trading + , http://dbpedia.org/resource/Agency_%28sociology%29 + , http://dbpedia.org/resource/User_experience + , http://dbpedia.org/resource/Forbes + , http://dbpedia.org/resource/Category:Accountability + , http://dbpedia.org/resource/Expert_system + , http://dbpedia.org/resource/Evidence-based_medicine + , http://dbpedia.org/resource/Machine_learning + , http://dbpedia.org/resource/Autonomous_vehicles + , http://dbpedia.org/resource/Neuron_%28software%29 + , http://dbpedia.org/resource/Knowledge_extraction + , http://dbpedia.org/resource/DARPA + , http://dbpedia.org/resource/Evolved_antenna + , http://dbpedia.org/resource/SPICE + , http://dbpedia.org/resource/Symbolic_regression + , http://dbpedia.org/resource/High-frequency_trading + , http://dbpedia.org/resource/Supervised_learning + , http://dbpedia.org/resource/Intelligent_tutoring_systems + , http://dbpedia.org/resource/Rule-based_system + , http://dbpedia.org/resource/International_Joint_Conference_on_Artificial_Intelligence + , http://dbpedia.org/resource/Clinical_decision_support_system + , http://dbpedia.org/resource/Mycin + , http://dbpedia.org/resource/Mental_model + , http://dbpedia.org/resource/Black_box + , http://dbpedia.org/resource/Artificial_intelligence + , http://dbpedia.org/resource/Automated_decision-making + , http://dbpedia.org/resource/Loi_pour_une_R%C3%A9publique_num%C3%A9rique + , http://dbpedia.org/resource/Daniel_Day-Lewis + , http://dbpedia.org/resource/Bacteremia + , http://dbpedia.org/resource/Marvin_Minsky + , http://dbpedia.org/resource/ACM_Conference_on_Fairness%2C_Accountability%2C_and_Transparency + , http://dbpedia.org/resource/Category:Artificial_intelligence + , http://dbpedia.org/resource/Linear_model +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Differentiable_computing + , http://dbpedia.org/resource/Template:Cite_web + , http://dbpedia.org/resource/Template:Blockquote + , http://dbpedia.org/resource/Template:Rp + , http://dbpedia.org/resource/Template:Cite_journal + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Cite_arXiv + , http://dbpedia.org/resource/Template:Sfnref + , http://dbpedia.org/resource/Template:Cleanup_bare_URLs + , http://dbpedia.org/resource/Template:Short_description +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Self-driving_cars + , http://dbpedia.org/resource/Category:Accountability + , http://dbpedia.org/resource/Category:Artificial_intelligence +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Explainable_artificial_intelligence?oldid=1124520612&ns=0 +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Explainable_artificial_intelligence +
owl:sameAs http://pt.dbpedia.org/resource/Intelig%C3%AAncia_artificial_explic%C3%A1vel + , http://ko.dbpedia.org/resource/%EC%84%A4%EB%AA%85%EA%B0%80%EB%8A%A5_%EC%9D%B8%EA%B3%B5%EC%A7%80%EB%8A%A5 + , http://zh.dbpedia.org/resource/%E5%8F%AF%E8%A7%A3%E9%87%8B%E4%BA%BA%E5%B7%A5%E6%99%BA%E6%85%A7 + , http://es.dbpedia.org/resource/Inteligencia_artificial_explicable + , http://de.dbpedia.org/resource/Explainable_Artificial_Intelligence + , http://ca.dbpedia.org/resource/Intel%C2%B7lig%C3%A8ncia_artificial_explicable + , http://fa.dbpedia.org/resource/%D9%87%D9%88%D8%B4%D9%85%D9%86%D8%AF%DB%8C_%D8%AF%D8%B1%D9%88%D9%86%E2%80%8C%D9%86%D9%85%D8%A7 + , https://global.dbpedia.org/id/3nRrR + , http://www.wikidata.org/entity/Q40890078 + , http://ja.dbpedia.org/resource/%E8%AA%AC%E6%98%8E%E5%8F%AF%E8%83%BD%E3%81%AAAI + , http://uk.dbpedia.org/resource/%D0%9F%D0%BE%D1%8F%D1%81%D0%BD%D0%B5%D0%BD%D0%BD%D0%B8%D0%B9_%D1%88%D1%82%D1%83%D1%87%D0%BD%D0%B8%D0%B9_%D1%96%D0%BD%D1%82%D0%B5%D0%BB%D0%B5%D0%BA%D1%82 + , http://dbpedia.org/resource/Explainable_artificial_intelligence +
rdfs:comment Explainable Artificial Intelligence (XAI; Explainable Artificial Intelligence (XAI; deutsch: erklärbare künstliche Intelligenz oder erklärbares Maschinenlernen) ist ein Neologismus, der seit etwa 2004 in der Forschung und Diskussion über Maschinenlernen verwendet wird. XAI soll eindeutig nachvollziehbar machen, auf welche Weise dynamische und nicht linear programmierte Systeme, z. B. künstliche neuronale Netze, Deep-Learning-Systeme (reinforcement learning) und genetische Algorithmen, zu Ergebnissen kommen. XAI ist eine technische Disziplin, die operative Methoden erarbeitet und bereitstellt, die zur Erklärung von AI-Systemen dienen. die zur Erklärung von AI-Systemen dienen. , La intel·ligència artificial explicable (XLa intel·ligència artificial explicable (XAI) es refereix a mètodes i tècniques en l'aplicació de la intel·ligència artificial (IA) que permeten als usuaris humans entendre i interpretar els resultats obtinguts. Contrasta amb el concepte de "caixa negra" dins l'aprenentatge automàtic, on fins i tot els dissenyadors d'un algorisme no poden explicar per què aquest arriba a una decisió específica. La XAI es considera una implementació del dret social a l'explicació.lementació del dret social a l'explicació. , 説明可能なAI(せつめいかのうなエーアイ、英語: Explainable artif説明可能なAI(せつめいかのうなエーアイ、英語: Explainable artificial intelligence、略称XAI )またはAIを説明するための技術は、人工知能 (AI) が導き出した答えに対して、人間が納得できる根拠を示すための技術である。特定の技術やツールを指し示す言葉ではなく、「AIを理解する」という目的ために研究・提案されている技術の総称である。XAIという用語は2017年4月から始まったアメリカ合衆国DARPA主導による研究プロジェクト(XAIプロジェクト)を契機として広く浸透した。DARPA主導による研究プロジェクト(XAIプロジェクト)を契機として広く浸透した。 , 설명가능 인공지능(Explainable AI, XAI)은 판단에 대한 이유를 사람이 이해할 수 있는 방식으로 제시하는 인공지능을 일컫는다. 특정한 판단에 대해 알고리즘의 설계자조차도 그 이유를 설명할 수 없는 '블랙박스' 인공지능과 대비되는 개념이다. 불확실성을 해소하여 인공지능에 대한 신뢰성을 높일 수 있게 된다. DARPA는 약 800억원의 예산을 투입하여 '유리박스'를 목표로 한 프로젝트를 진행하고 있다. , Explainable AI (XAI), or Interpretable AI,Explainable AI (XAI), or Interpretable AI, or Explainable Machine Learning (XML), is artificial intelligence (AI) in which humans can understand the decisions or predictions made by the AI. It contrasts with the "black box" concept in machine learning where even its designers cannot explain why an AI arrived at a specific decision. By refining the mental models of users of AI-powered systems and dismantling their misconceptions, XAI promises to help users perform more effectively. XAI may be an implementation of the social right to explanation. XAI is relevant even if there is no legal right or regulatory requirement. For example, XAI can improve the user experience of a product or service by helping end users trust that the AI is making good decisions. This way the aim of XAI is to explaiions. This way the aim of XAI is to explai , La inteligencia artificial explicable (en La inteligencia artificial explicable (en inglés, explainable artificial intelligence, habitualmente abreviado XAI) se refiere a métodos y técnicas en la aplicación de tecnología de inteligencia artificial (AI) por los que el ser humano es capaz de comprender las decisiones y predicciones realizadas por la inteligencia artificial. Contrasta con el concepto de la "caja negra" en aprendizaje automático (en inglés, machine learning), donde ni siquiera sus diseñadores pueden explicar por qué la IA ha realizado una decisión concreta.​ XAI es una implementación del .​oncreta.​ XAI es una implementación del .​ , Поясненний Штучний Інтелект, або ІнтерпретПоясненний Штучний Інтелект, або Інтерпретовний Штучний Інтелект, або Зрозуміле Машинне Навчання, — це штучний інтелект (ШІ), в якому результати рішення можуть бути зрозумілі людині. Це контрастує з концепцією "чорного ящика" в машинному навчанні, де навіть його розробники не можуть пояснити, чому ШІ прийшов до конкретного рішення. Удосконалюючи ментальні моделі користувачів систем на базі штучного інтелекту та розбираючи їхні помилкові уявлення, Поясненний ШІ обіцяє допомогти користувачам працювати більш ефективно. Поясненний ШІ може бути реалізацією соціального . Поясненний ШІ актуальний, навіть якщо немає юридичних прав або нормативних вимог — наприклад, Поясненний ШІ може покращити користувацьку взаємодію з продуктом або послугою, допомагаючи кінцевим користувачам вірити, що ШІ приймаєінцевим користувачам вірити, що ШІ приймає , 可解釋人工智慧(英語:Explainable AI,縮寫為XAI)指的是讓專家能夠理可解釋人工智慧(英語:Explainable AI,縮寫為XAI)指的是讓專家能夠理解人工智慧之成果的方法與技術。它相對於黑箱式的機器學習,因為黑箱式的機器學習的設計者本身也無法解釋為什麼人工智慧能達到某些成果。可解釋人工智慧被認為是「」(right to explanation)的一種實踐。 要求人工智慧解釋它的決定是一種翻譯的問題(interpretability problem)。人工智慧的優化行為是一種為了滿足數理上特定目標的行為。其目標由設計者規劃,比如一個設計者要求「在資料集裡面精準分析電影如何被正面評價」。此時,人工智慧可能會找到一些通則,像是「評價中包含『爛』這個字眼表示是負面評價」。或是可能找到一些不正確的規則,比如「評價中包含『李小龍』這個字眼表示是正面評價」;這些規則可能難以解釋,甚至很可能在其他資料集得到錯誤的判斷,比如你很可能無法在《教父》的電影評價裡看到「李小龍」的字眼,但這不表示它是部爛片。針對這類問題,人類就能透過可解釋人工智慧的技術來監督人工智慧系統所找到的規則,並且判斷這些規則在真實的世界裡是否適用。工智慧的技術來監督人工智慧系統所找到的規則,並且判斷這些規則在真實的世界裡是否適用。 , Uma inteligência artificial explicável (IAUma inteligência artificial explicável (IAE, IA explicável, ou XAI) é uma inteligência artificial (IA) em que os resultados da solução podem ser compreendidos por humanos. Isso contrasta com o conceito de "caixa preta" no aprendizado de máquina, em que nem mesmo seus designers podem explicar por que uma IA chegou a uma decisão específica. A IAE pode ser uma implementação do social. A IAE é relevante mesmo se não houver nenhum direito legal ou requisito regulatório—por exemplo, a IAE pode melhorar a experiência do usuário de um produto ou serviço ajudando os usuários finais a confiar que a IA está tomando boas decisões. Assim, o objetivo da IAE é explicar o que foi feito, o que é feito agora, o que será feito a seguir e desvendar as informações nas quais as ações se baseiam. Essas caracter quais as ações se baseiam. Essas caracter
rdfs:label Inteligencia artificial explicable , Explainable Artificial Intelligence , Intel·ligència artificial explicable , Inteligência artificial explicável , 説明可能なAI , 可解釋人工智慧 , Поясненний штучний інтелект , 설명가능 인공지능 , Explainable artificial intelligence
hide properties that link here 
http://dbpedia.org/resource/Explainable_machine_learning + , http://dbpedia.org/resource/Explainable_AI + , http://dbpedia.org/resource/Explainable_Artificial_Intelligence + , http://dbpedia.org/resource/Inscrutable_artificial_intelligence + , http://dbpedia.org/resource/Layerwise_Relevance_Propagation + , http://dbpedia.org/resource/Interpretability_%28machine_learning%29 + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Generative_adversarial_network + , http://dbpedia.org/resource/Algorithmic_bias + , http://dbpedia.org/resource/Machine_ethics + , http://dbpedia.org/resource/Genevera_Allen + , http://dbpedia.org/resource/Legal_technology + , http://dbpedia.org/resource/Platform_economy + , http://dbpedia.org/resource/Explainable_machine_learning + , http://dbpedia.org/resource/Trevor_Darrell + , http://dbpedia.org/resource/Mark_Keane_%28cognitive_scientist%29 + , http://dbpedia.org/resource/D._Lansing_Taylor + , http://dbpedia.org/resource/Human-agent_team + , http://dbpedia.org/resource/Attention_%28machine_learning%29 + , http://dbpedia.org/resource/Explainable_AI + , http://dbpedia.org/resource/ML.NET + , http://dbpedia.org/resource/Elizabeth_A._Barnes + , http://dbpedia.org/resource/Natural_language_processing + , http://dbpedia.org/resource/Feature_%28machine_learning%29 + , http://dbpedia.org/resource/Latifa_Al-Abdulkarim + , http://dbpedia.org/resource/David_M._Berry + , http://dbpedia.org/resource/AI_alignment + , http://dbpedia.org/resource/Luca_Longo + , http://dbpedia.org/resource/QLattice + , http://dbpedia.org/resource/Timeline_of_computing_2020%E2%80%93present + , http://dbpedia.org/resource/Progress_in_artificial_intelligence + , http://dbpedia.org/resource/Machine_perception + , http://dbpedia.org/resource/Ethics_of_artificial_intelligence + , http://dbpedia.org/resource/Javier_Andreu-Perez + , http://dbpedia.org/resource/Clinical_decision_support_system + , http://dbpedia.org/resource/Automated_decision-making + , http://dbpedia.org/resource/Right_to_explanation + , http://dbpedia.org/resource/Connectionism + , http://dbpedia.org/resource/Human%E2%80%93artificial_intelligence_collaboration + , http://dbpedia.org/resource/Explainable_Artificial_Intelligence + , http://dbpedia.org/resource/Inscrutable_artificial_intelligence + , http://dbpedia.org/resource/Layerwise_Relevance_Propagation + , http://dbpedia.org/resource/Interpretability_%28machine_learning%29 + , http://dbpedia.org/resource/Interpretable_artificial_intelligence + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Explainable_artificial_intelligence + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Explainable_artificial_intelligence + owl:sameAs
http://dbpedia.org/resource/Deep_learning + rdfs:seeAlso
 

 

Enter the name of the page to start semantic browsing from.