Прозрачность решает эту проблему, используя легко интерпретируемые модели, некоторые из которых мы коснемся в следующем разделе. Объяснимость решает эту проблему, «распаковывая черный ящик» или пытаясь получить представление о модели машинного обучения, часто с использованием статистических методов.
Что такое объяснимость модели?
Объяснимость модели - это широкая концепция анализа и понимания результатов, предоставляемых моделями машинного обучения. Чаще всего он используется в контексте моделей «черного ящика», для которых трудно продемонстрировать, как модель пришла к конкретному решению.
Что такое объяснимость в глубоком обучении?
Объяснимость (также называемая «интерпретируемостью») - это концепция, согласно которой модель машинного обучения и ее результаты могут быть объяснены таким образом, который «имеет смысл» для человека на приемлемом уровне. … Другие, такие как системы глубокого обучения, хотя и являются более производительными, по-прежнему намного сложнее объяснить.
Что означает объяснимость в контексте системы ИИ?
Эндрю Матуро, аналитик данных, SPR. «Объяснимый ИИ простыми словами означает ИИ, который прозрачен в своих операциях, чтобы пользователи могли понимать решения и доверять им Организации должны задать вопрос - можете ли вы объяснить, как ваш ИИ сгенерировал это? конкретное понимание или решение?» –
Что такое проблема объяснимости?
Люди проявляют явное отвращение к решениям из черного ящика, которые влияют на их финансовое состояние, здоровье и десятками других способов, и в то же время не обращают внимания на определенные виды решений. … Когда ИИ принимает такие решения, можно услышать требование объяснимости.