Многоклассовая семантическая сегментация, при которой некоторые классы могут отсутствовать на некоторых изображениях.

Вопрос или проблема

Предположим, у нас есть большой аннотированный набор данных с 4 классами. В этом наборе данных могут быть аннотированные изображения с менее чем 4 классами, где оставшиеся классы могут присутствовать или отсутствовать. Например, скажем, мы хотим обнаружить пешеходов/автомобили/велосипеды/дороги на изображениях. В нашем наборе данных есть некоторые аннотированные изображения только с 3 классами: пешеходы/автомобили/велосипеды, но это не означает, что дорог на этих изображениях нет. То есть на этих изображениях могут быть дороги, которые игнорировал аннотатора по какой-то причине, или же дорог может вообще не быть. Мой вопрос заключается в том, как мы можем учитывать эту неопределенность в термине потерь?

Один из вариантов — работать с независимыми сетями для каждого класса. Но что, если мы хотим обучить единую сеть? как добавить что-то вроде термина “без разницы” для объектов, не аннотированных на изображении, но все еще потенциально присутствующих на изображении?

Эта проблема обычно называется слабыми метками и ассоциируется с слабым обучением.

Слабые метки часто не обрабатываются функцией потерь. Большинство традиционных функций потерь предполагают идеально размеченные данные и не имеют механизма для обработки неопределенности меток.

Альтернативной структурой для слабых меток является уверенное обучение, которое

охарактеризует и выявляет ошибки в метках в наборах данных на основе принципов удаления шумных данных, подсчета с вероятностными порогами для оценки шума и ранжирования примеров для уверенного обучения.

.

Ответ или решение

При решении задачи многоклассовой семантической сегментации, где некоторые классы могут отсутствовать в отдельных изображениях, важно учитывать неопределенность разметки и слабость обучающих меток. В данном случае, мы сталкиваемся с проблемой, когда изображение может содержать класс, который не был аннотирован, например, дорогу в нашем примере с пешеходами, автомобилями, велосипедами и дорогами.

Существует несколько подходов, которые могут помочь эффективно обучить нейронную сеть с учетом этой неопределенности:

1. Изменение функции потерь

Использование маскирующих меток ("don’t care"): Один из способов учесть неопределённость в данных — это добавление "don’t care" меток. Это возможно с помощью внесения изменений в функцию потерь. Такие метки можно интерпретировать как нулевые веса в процессе вычисления ошибки, то есть они не влияют на обновление весов сети. В этом случае, сегменты изображения, где класс мог бы присутствовать, но не аннотирован, исключаются из расчета потерь.

2. Архитектура нейронной сети

Универсальная сеть: Вместо использования отдельных сетей для каждого класса, можно использовать единую архитектуру, которая будет обучаться сегментировать все возможные классы. В такой сети может быть предусмотрена отдельная выходная карта для каждого класса, и "don’t care" метки могут быть использованы для игнорирования отсутствующих классов, когда таковые известны, или же вместо отсутствующих классов будет использована карта с нулевой вероятностью.

3. Дополнительные методы и техники

Конфидентное обучение (Confident Learning): Эта методика может помочь в идентификации ошибочных меток и оценке уровня шума в ваших данных. Конфидентное обучение фокусируется на "прореживании" шумных данных, оценке вероятностных порогов для определения шума и ранжировании примеров, чтобы обучаться на наиболее надежных данных.

Дополнительные слабые метки: Если возможно, можно включить использование дополнительных данных или слабых меток для социальных классов (например, с помощью техники самообучения или полуобучения), чтобы сеть могла лучше обобщать информацию о классе, даже если он не размечен на части изображений.

SEO-оптимизация и подача материала:

  • Используйте ключевые фразы, связанные с темой, такие как "многоклассовая семантическая сегментация", "слабое обучение", "функция потерь".
  • Поддерживайте структурированную и логичную презентацию материала (вступление, основные секции, вывод).
  • Обеспечьте ясное и профессиональное изложение, избегая клише и поверхностных фраз.

Заключение: Прежде всего, важно признать ограничения данных с неполной разметкой и адаптировать подход к решению задачи с учетом этой неопределённости. Каждый указанный метод требует тщательной настройки и тестирования для достижения наилучших результатов в конкретной задаче.

Оцените материал
Добавить комментарий

Капча загружается...