explainable-ai
Data Science
Вопрос или проблема Что я делаю: Я предсказываю рейтинги продуктов с использованием бустинговых деревьев (XGBoost) с набором данных в следующем формате: Что я хочу сделать: Я хочу использовать SHAP TreeExplainer, чтобы интерпретировать каждое предсказание
Data Science
Вопрос или проблема Всем привет. Я пытался найти способ использовать SHAP для объяснения своих ML моделей. Однако интерпретация графиков beeswarm/summary вызывает у меня некоторую трудность и неоднозначность. Интерпретация зависит от концентрации, дисперсии
Data Science
Вопрос или проблема У меня есть сомнение. В данный момент я использую интегрированные градиенты для модели DNN для объяснимости. В этом случае мы можем задать базовое значение в качестве параметра функции. Я использую все нули для этого.
Data Science
Вопрос или проблема В нашей организации в настоящее время мы находимся на стадии формирования команды, навыков для автоматизации и внедрения решений на основе ИИ. Таким образом, мы на очень ранней стадии этого пути в область ИИ.
Data Science
Вопрос или проблема Я сравниваю 3 различные классификатора: ANN, XG Boost и Random Forest для прогнозирования. Я также использовал SHAP для оценки важности признаков. Меня интересуют только 10 лучших признаков на основе SHAP. 3 классификатора имеют только
Data Science
Вопрос или проблема У меня есть данные, где каждая основная инстанция имеет несколько независимых переменных и одну числовую целевую переменную. Кроме того, к каждой основной инстанции связаны от 1 до k многомерных векторов. В основном, существуют две
Data Science
Вопрос или проблема Я изучаю объяснимый искусственный интеллект, в частности локальные и глобальные методы глубокого обучения. Я тщательно изучил Kernel SHAP. Однако концепция Grad-SHAP очень слабо представлена в литературе. Меня постоянно отправляют