Вопрос или проблема
Предположим, у нас есть большой аннотированный набор данных с 4 классами. В этом наборе данных могут быть аннотированные изображения с менее чем 4 классами, где оставшиеся классы могут присутствовать или отсутствовать. Например, скажем, мы хотим обнаружить пешеходов/автомобили/велосипеды/дороги на изображениях. В нашем наборе данных есть некоторые аннотированные изображения только с 3 классами: пешеходы/автомобили/велосипеды, но это не означает, что дорог на этих изображениях нет. То есть на этих изображениях могут быть дороги, которые игнорировал аннотатора по какой-то причине, или же дорог может вообще не быть. Мой вопрос заключается в том, как мы можем учитывать эту неопределенность в термине потерь?
Один из вариантов — работать с независимыми сетями для каждого класса. Но что, если мы хотим обучить единую сеть? как добавить что-то вроде термина “без разницы” для объектов, не аннотированных на изображении, но все еще потенциально присутствующих на изображении?
Эта проблема обычно называется слабыми метками и ассоциируется с слабым обучением.
Слабые метки часто не обрабатываются функцией потерь. Большинство традиционных функций потерь предполагают идеально размеченные данные и не имеют механизма для обработки неопределенности меток.
Альтернативной структурой для слабых меток является уверенное обучение, которое
охарактеризует и выявляет ошибки в метках в наборах данных на основе принципов удаления шумных данных, подсчета с вероятностными порогами для оценки шума и ранжирования примеров для уверенного обучения.
.
Ответ или решение
При решении задачи многоклассовой семантической сегментации, где некоторые классы могут отсутствовать в отдельных изображениях, важно учитывать неопределенность разметки и слабость обучающих меток. В данном случае, мы сталкиваемся с проблемой, когда изображение может содержать класс, который не был аннотирован, например, дорогу в нашем примере с пешеходами, автомобилями, велосипедами и дорогами.
Существует несколько подходов, которые могут помочь эффективно обучить нейронную сеть с учетом этой неопределенности:
1. Изменение функции потерь
Использование маскирующих меток ("don’t care"): Один из способов учесть неопределённость в данных — это добавление "don’t care" меток. Это возможно с помощью внесения изменений в функцию потерь. Такие метки можно интерпретировать как нулевые веса в процессе вычисления ошибки, то есть они не влияют на обновление весов сети. В этом случае, сегменты изображения, где класс мог бы присутствовать, но не аннотирован, исключаются из расчета потерь.
2. Архитектура нейронной сети
Универсальная сеть: Вместо использования отдельных сетей для каждого класса, можно использовать единую архитектуру, которая будет обучаться сегментировать все возможные классы. В такой сети может быть предусмотрена отдельная выходная карта для каждого класса, и "don’t care" метки могут быть использованы для игнорирования отсутствующих классов, когда таковые известны, или же вместо отсутствующих классов будет использована карта с нулевой вероятностью.
3. Дополнительные методы и техники
Конфидентное обучение (Confident Learning): Эта методика может помочь в идентификации ошибочных меток и оценке уровня шума в ваших данных. Конфидентное обучение фокусируется на "прореживании" шумных данных, оценке вероятностных порогов для определения шума и ранжировании примеров, чтобы обучаться на наиболее надежных данных.
Дополнительные слабые метки: Если возможно, можно включить использование дополнительных данных или слабых меток для социальных классов (например, с помощью техники самообучения или полуобучения), чтобы сеть могла лучше обобщать информацию о классе, даже если он не размечен на части изображений.
SEO-оптимизация и подача материала:
- Используйте ключевые фразы, связанные с темой, такие как "многоклассовая семантическая сегментация", "слабое обучение", "функция потерь".
- Поддерживайте структурированную и логичную презентацию материала (вступление, основные секции, вывод).
- Обеспечьте ясное и профессиональное изложение, избегая клише и поверхностных фраз.
Заключение: Прежде всего, важно признать ограничения данных с неполной разметкой и адаптировать подход к решению задачи с учетом этой неопределённости. Каждый указанный метод требует тщательной настройки и тестирования для достижения наилучших результатов в конкретной задаче.