Data Science
Как оценить точность на большом наборе данных?
00
Вопрос или проблема Учитывая, что у меня есть модель глубокого обучения (передача от бывшего коллеги). По какой-то причине наборы для обучения и валидации отсутствовали. В моей ситуации я хочу классифицировать свои данные на 100 категорий.
Data Science
YOLO: почему изменение порога достоверности изменяет [email protected]?
00
Вопрос или проблема Я обучил модель YOLOv7 для задачи обнаружения. У меня только один класс, который является объектом, который я хочу обнаружить. Я запустил test.py с –conf-thresh равным 0.001 (по умолчанию) и второй раз с –
Data Science
RMSE и R-квадрат
00
Вопрос или проблема Вопрос: Какой из метрик лучше для сравнения разных моделей: RMSE или R-квадрат? Я немного поискал, обычно все блоги говорят, что обе метрики объясняют разные идеи: R-квадрат является мерой того, сколько вариации объясняет модель, а
Data Science
Является ли это подходящим способом для расчета диаграммы надежности многоклассовой модели для калибровки?
00
Вопрос или проблема Я пытаюсь обобщить диаграммы надежности [1] для многоклассового классификатора и реализовать это с использованием pytorch и pytorch-metrics. Пока все хорошо, но я немного запутан в определении точности и том, как это применимо к пересечению
Data Science
Порядок предварительной обработки, избегание утечек и метрики
00
Вопрос или проблема У меня есть набор данных с ~40k записей и 16 столбцами (включая целевой) и я хочу понять правильный процесс всего процессаData Science. Вот что я сделал: Провел EDA, в результате чего я удалил два столбца, так как они были сосредоточены
Data Science
MPE (Наиболее Вероятное Объяснение) против MAP (Максимум Апостериори)
00
Вопрос или проблема Что такое MPE? Как MPE и MAP различаются? Есть ли пример, когда они дадут разные результаты? Что такое MPE? Ответ=> MPE в машинном обучении означает Максимальная Апостериорная Оценка. Это метод, используемый для нахождения наиболее
Data Science
Как правильно измерить время вывода и FLOPs модели?
00
Вопрос или проблема Почему-то я не могу найти встроенные решения (неужели?) в keras и tensorflow, в то время как на сайте https://keras.io/api/applications/ они предоставляют время (мс) на каждый шаг вывода (ЦП), но по какой-то причине не описали, как
Data Science
Как сравнить производительность моделей SVM и Keras
00
Вопрос или проблема Я применил как SVM, так и CNN (используя Keras) на одном наборе данных. Теперь я хочу сравнить производительность обеих моделей. Функция Keras model.evaluate предсказывает выходные данные для данного ввода, а затем вычисляет заданную в model.
Data Science
Можно ли вычислить оценку Дэвиса-Боулдина на основе заранее вычисленной матрицы расстояний с использованием sklearn?
00
Вопрос или проблема Я пытаюсь вычислить показатель Дависа-Боулдина, чтобы сравнить различные подходы к кластеризации. У меня есть предрасчитанная матрица расстояний (которая представляет собой расстояние на основе редактирования между текстами).
Data Science
Средняя точность, если целевой класс не включен в оценку
00
Вопрос или проблема Предположим, у меня есть 5 классов, обозначенных цифрами 1, 2, 3, 4 и 5, и это используется в обнаружении объектов. При оценке производительности обнаружения объектов предположим, что у меня есть классы 1, 2 и 3, но классы 4 и 5 отсутствуют в целевых значениях.
Data Science
Хи-квадрат как оценочный метод для моделей регрессии нелинейного машинного обучения
00
Вопрос или проблема Я использую модели машинного обучения для предсказания порядковой переменной (значения: 1, 2, 3, 4 и 5) с использованием 7 различных признаков. Я рассмотрел это как задачу регрессии, поэтому окончательные выводы модели –
Unix-подобные системы
Необычное поведение некоторых метрик процессора PSI
00
Вопрос или проблема Я пытаюсь понять значение строки “some” в метрике PSI для CPU в Linux. Документация Linux (https://github.com/torvalds/linux/blob/master/Documentation/accounting/psi.rst) пишет: Строка “some”
Data Science
Оцените метрику по всем пакетам в tensorflow.
00
Вопрос или проблема Я написал метрику для tensorflow, которая представляет собой площадь под кривой точности-отзыва слева от порога отзыва=0.3. Реализация выглядит следующим образом (обратите внимание, что меня интересует только нулевое предсказание последнего
Data Science
Какова связь между точностью и потерями в глубоком обучении?
00
Вопрос или проблема Я создал три разные модели с использованием глубокого обучения для многоклассовой классификации, и каждая модель дала мне разные значения точности и потерь. Результаты тестирования моделей следующие: Первая модель: Точность: 98.
Data Science
Отчет по метрикам SKLEARN: “Количество классов, 28, не соответствует размеру target_names, 35. Попробуйте указать параметр labels.”
00
Вопрос или проблема Как правильно определить метки или имена целевых классов для classification_report? У меня есть отчет, который выглядит так: print(metrics.classification_report(twenty_test.target[:n_samples], predicted, target_names=twenty_test.
Data Science
Как правильно вычислить метрику EER (проверка говорящего)?
00
Вопрос или проблема У меня есть модель верификации говорящего, производительность которой я хочу измерить с помощью метрики EER. У меня есть X говорящих, и каждый говорящий имеет несколько файлов речи. Я вычисляю EER следующим образом: Я вычисляю косинусное
Data Science
Метрики – сравнение много классовых моделей
01
Вопрос или проблема Я ищу способ количественно оценить работу маркеров многоуровневой модели и, таким образом, сравнить их. Я хочу учесть то, что некоторые классы «ближе» друг к другу, чем другие (например, автомобиль «ближе» к «грузовику», чем «цветок»).
Data Science
Метрика регрессии для набора данных с широким диапазоном значений целевой переменной.
00
Вопрос или проблема У меня есть набор данных из около 100 изображений. Каждое изображение имеет метку, которая является числовым значением. Модели должны учиться на изображениях, чтобы предсказывать числовые метки. Однако проблема в том, что я не знаю
Data Science
Среднее значение метрик с использованием 10-кратной проверки
00
Вопрос или проблема Я работаю с 10-кратной кросс-валидацией и хочу усреднить метрики, но не могу это сделать с помощью sklearn. Вот как я это делаю, и метрики выводятся по каждому разделению. from sklearn.model_selection import KFold from sklearn.
Data Science
Метрики регрессии интерпретации
00
Вопрос или проблема Я провел анализ набора данных с помощью модели случайного леса. Результаты следующие. Почему MSE крайне высок, но коэффициент детерминации (r2) показывает точность около 83-84%? Это нормально и связано с набором данных, или это указывает на проблему?