Data Science
Требует ли Mixup две функции потерь?
00
Вопрос или проблема Я создал нейронную сеть с мультиметочной классификацией, используя MSE. Теперь я хотел бы использовать Mixup. Нужно ли мне две функции потерь (по одной на каждую цель), или результат будет тем же, если я просто объединю две цели вот так?
Data Science
Keras: Очень высокая потеря для автоэнкодера
00
Вопрос или проблема Я пытаюсь реализовать автокодировщик для прогнозирования нескольких меток с использованием Keras. Вот фрагмент кода: input = Input(shape=(768,)) hidden1 = Dense(512, activation='relu')(input) compressed = Dense(256, activation='relu'
Data Science
Градиентный спуск вокруг оптимальной поверхности потерь
00
Вопрос или проблема Все поверхности потерь, используемые в примерах, имеют форму чаши, которая резко уменьшается вдали от оптимального значения и уменьшается медленно вокруг плоской точки оптимума. Мои вопросы: Есть ли у всех поверхностей потерь плоская
Data Science
Потери становятся NaN через короткое время для классификации временных рядов.
00
Вопрос или проблема Вот мой модельный код для бинарной классификации временного ряда: def make_model(feature_columns): feature_layer = tf.keras.layers.DenseFeatures(feature_columns) feature_layer_outputs = feature_layer(feature_layer_inputs) feature_layer_outputs = tf.
Data Science
Транспонирование 3D тензора
00
Вопрос или проблема Мне нужно транспонировать 3-мерный тензор формы (batch_size, N, M) в (batch_size, M, N) в пользовательской функции потерь в Keras с TensorFlow в качестве бекенда. Я попытался использовать следующую функцию K.
Data Science
Поиск логистической потери/отрицательного логарифмического правдоподобия – классификация бинарной логистической регрессией
00
Вопрос или проблема Я новичок в машинном обучении и науке о данных, и у меня возникают трудности с простой задачей. В моей задаче мне дана серия данных $X_i$, где $X_i = (x_{i1}, x_{i2})$, и у каждой точки данных есть метка $y_i$, где $y_i \in [-1, 1]$.
Data Science
Взвешенные функции потерь против взвешенной выборки?
00
Вопрос или проблема Есть ли практическое различие между использованием взвешенных функций потерь и взвешенной выборки в задачах классификации изображений? (Я был бы признателен за теоретические аргументы, опыт или опубликованные статьи, в общем, любой материал.
Data Science
Устранится ли в конце концов моя ошибка валидации?
00
Вопрос или проблема В данный момент я обучаю бинарный классификатор, который принимает 2 входных значения и выводит, какой объект, по его мнению, является “лучшим”. У меня есть абсолютно огромный набор данных, примерно 2 триллиона записей
Data Science
Почему нейронной сети нужна потеря в виде скаляра?
00
Вопрос или проблема У меня есть функция потерь, которая представляет собой взвешенную перекрестную энтропию для бинарной классификации def BinaryCrossEntropy_weighted( y_true, y_pred, class_weight ): y_true= y_true.astype(np.float) y_pred = K.
Data Science
Градиентный вывод через пользовательскую функцию потерь
00
Вопрос или проблема Я совершенно нов в Pytorch (и в машинном обучении в целом), поэтому мне трудно понять, что происходит в отношении настраиваемой функции потерь, которую я рассматриваю. Я понимаю, что происходит в функции, но мне нужно понять, как рассчитывается
Data Science
Как разделить данные для верификации говорящего с использованием AAM Softmax потерь?
00
Вопрос или проблема Существуют несколько моделей для задачи верификации спикеров (wavlm-ecapa / xvector / …). Некоторые из этих моделей были обучены с использованием AAM Softmax loss, который принимает количество меток на вход.
Data Science
Как использовать функцию потерь кросс-энтропии для каждой буквы/цифры в капче?
00
Вопрос или проблема Я пытаюсь разработать решатель капчи, используя простую полностью связанную нейронную сеть в TensorFlow. Все капчи содержат 5 цифр/букв, каждый символ может быть числом от 0 до 9 или буквой от A до Z. Они выглядят примерно так: Каждая
Data Science
Почему обучение с softmax более стабильное
00
Вопрос или проблема Мне интересно, какая активационная функция будет легче для обучения (даст лучшую точность / наименьшую потерю) – SoftMax или сигмоида (для задачи многоклассовой классификации) Согласно: https://www.quora.
Data Science
Вычисляйте градиенты параллельно
00
Вопрос или проблема Вот часть моего кода: class SimpleNet(nn.Module): def __init__(self): super().__init__() self.linear1 = nn.Linear(2, 1, bias=False) self.linear2 = nn.Linear(1, 2, bias=False) def forward(self, x): z = self.
Data Science
Почему точность модели может измениться, когда потери остаются неизменными?
00
Вопрос или проблема Я обучил 8 моделей на основе одной и той же архитектуры (сверточная нейронная сеть), и каждая использует метод увеличения данных. Точность моделей значительно колеблется, в то время как потеря не колеблется так сильно.
Data Science
Некоторые методы увеличения данных мешают модели Unet обучаться.
00
Вопрос или проблема Я тренирую модель Unet для сегментации клеток на изображениях микроскопии. Чтобы помочь модели лучше обобщать данные с разных микроскопов, я попытался применить увеличение яркости к обучающим данным, случайным образом умножая изображения
Data Science
Снижение потерь валидации для встраиваний триплетной потери
00
Вопрос или проблема Я пытаюсь создать детектор распознавания лиц с использованием тройной потери, за которой следует алгоритм kNN. У меня есть около 10000 изображений на входе с 3 разными классами, размер входа 80×80. Структура модели использует
Data Science
Проблема потерь и метрик при обучении модели cnn
00
Вопрос или проблема У меня проблема с моими пользовательскими функциями потерь и метрик. Моя цель – обучить модель CNN на изображениях с тангенсом угла ориентации объекта на моем изображении, и у меня есть столбец, который указывает, является ли
Data Science
Какая функция потерь является лучшей функцией потерь при использовании регрессии XGB с сильно искаженными данными?
00
Вопрос или проблема Какая функция потерь является лучшей функцией потерь при использовании регрессии XGB с сильно искаженными данными? Искаженность данных очень высока. Я использовал XGBoost с целевой функцией линейной регрессии (но данные были преобразованы
Data Science
Кросс-энтропийная потеря вообще важна, потому что при обратном распространении важны только вероятности Softmax и вектор one hot?
00
Вопрос или проблема Насколько важна функция потерь перекрестной энтропии (CEL), если при обратном распространении ошибки (BP) важны только вероятности Softmax (SM) и вектор one hot? При применении BP производная CEL – это разница между выходной