Что означает большое O в оптимальных весах KNN?

Вопрос или проблема

Вики дает это определение KNN

В распознавании образов алгоритм k-ближайших соседей (k-NN) является
непараметрическим методом, используемым для классификации и регрессии. В обоих
случаях входные данные состоят из k ближайших обучающих примеров в
пространстве признаков. Выход зависит от того, используется ли k-NN для
классификации или регрессии:

  • В классификации k-NN выходом является членство в классе. Объект
    классифицируется по большинству голосов его соседей, при этом объект
    назначается к классу, наиболее распространенному среди его k ближайших соседей
    (k – положительное целое число, обычно небольшое). Если k = 1, то объект
    просто назначается к классу этого единственного ближайшего соседа.
  • В регрессии k-NN выходом является значение свойства для объекта. Это значение
    является средним значением значений k ближайших соседей.

K-NN является одним из типов обучения на примерах, или ленивого обучения,
где функция аппроксимируется только локально, и все вычисления откладываются
до классификации.

Как для классификации, так и для регрессии полезной техникой может быть присвоение
веса вкладам соседей, так что ближние соседи вносят больший вклад в среднее, чем отдаленные.
Например, одна распространенная схема взвешивания заключается в присвоении каждому
соседу веса 1/d, где d — это расстояние до соседа.

и это объяснение о “Взвешенном классификаторе ближайших соседей”

Классификатор k-ближайших соседей можно рассматривать как присвоение k
ближайшим соседям веса 1/k, а всем остальным – 0. Это можно
обобщить на взвешенные классификаторы ближайших соседей. То есть, где
i-й ближайший сосед получает вес ${\displaystyle
> w_{ni}}$
, с ${\displaystyle \sum _{i=1}^{n}w_{ni}=1}$. Аналогичным
образом также выполняется результат о сильной согласованности взвешенных классификаторов ближайших соседей.

Обозначим $C_{n}^{wnn}$ как взвешенный классификатор ближайших соседей с весами $\{w_{{ni}}\}_{{i=1}}^{n}$.

При соблюдении регулярных условий по распределениям классов избыточный риск имеет следующее асимптотическое разложение
${\mathcal {R}}_{{\mathcal {R}}}(C_{{n}}^{{wnn}})-{\mathcal {R}}_{{{\mathcal {R}}}}(C^{{Bayes}})=\left(B_{1}s_{n}^{2}+B_{2}t_{n}^{2}\right)\{1+o(1)\},$

и эта формула

С оптимальными весами доминирующий член в асимптотическом разложении избыточного риска равен ${\mathcal {O}}(n^{{-{\frac 4{d+4}}}})$

Означает ли $\mathcal {O}$ здесь нотацию “Большое O” или что-то другое?

Чтобы более четко прояснить ответ @Mohith7548, обозначение O() в вашем описании KNN относится к скорости сходимости статистического оценщика. Это не имеет отношения к вычислительной эффективности алгоритмов, а скорее к тому, насколько далеко ожидаются оценки, выводимые алгоритмом KNN, от идеальных оценок (т.е. лучших возможных прогнозов) для выборки размера n и размерности d. По мере роста n до бесконечности оценщик KNN должен сойтись к оптимальному предсказателю (при соблюдении некоторых базовых регулярных условий), и формула O() описывает, как быстро эта сходимость происходит с увеличением n. Сходимость медленнее с высокоразмерными данными, потому что статистическая оценка большего количества чисел сложнее (см. “проклятие размерности”).

Смотрите “сходимость по вероятности“, чтобы узнать больше о этой теме статистических скоростей сходимости (которые отличаются от вычислительной сложности).

Ответ или решение

Вопрос, связанный с обозначением O() в контексте весов KNN (k-ближайших соседей), касается не только вычислительной эффективности алгоритма, но и характеристики сходимости статистического оценивателя. Важно понять, что здесь O() указывает на скорость сходимости оценок, вырабатываемых алгоритмом KNN, к наилучшим возможным предсказаниям.

Что такое Big O в KNN с оптимальными весами?

  1. Обозначение O() как Биг O:
    В данной формуле O() действительно относится к нотации Биг O, однако здесь она используется не в контексте оценки временной сложности, как обычно, а для описания уровня ошибки или риска для статистического оценивателя. В частности, речь идет о том, как быстро оценки, полученные с помощью KNN, приближаются к идеальным предсказаниям.

  2. Сходимость оценивателя:
    Когда мы говорим о скорости сходимости, мы имеем в виду, что при увеличении объема выборки (n) KNN должен стремиться к оптимальному предсказателю, который минимизирует риск. С уменьшением асимптоти́ческого риска, выраженного как O(n^{-4/(d+4)}), мы видим, что с увеличением размера выборки (n) уровень ошибки уменьшается, но это зависит от размерности данных (d). В частности, сложность растет в высоких размерностях из-за так называемого "проклятия размерности", которое затрудняет статистическое оценивание.

  3. Практическое приложение:
    На практике это означает, что при добавлении большего количества образцов (например, в задачах классификации или регрессии), ожидание того, что KNN будет давать более точные предсказания, усиливается, хотя скорость этой точности усложняется при высокой размерности данных. Это важное замечание для практиков, работающих с KNN, так как необходимо учитывать размер выборки и размерность признаков при оценке эффективности модели.

  4. Регулярные условия:
    То, что в формуле указано "при соблюдении регулярных условий на распределениях классов", подчеркивает, что сходимость и эффективность KNN зависят от предположений, которые мы делаем о данных. Эти условия включают, например, однородность статистических свойств классов.

Заключение

Таким образом, O() в контексте весов KNN обозначает не просто вычислительную сложность, а является важным индикатором прогноза и качества работы статистического оценивателя. Это говорит о том, как быстро KNN может удовлетворительно приближаться к теоретически наилучшим предсказаниям. Понимание этих концепций помогает лучше использовать алгоритм KNN в практических приложениях, особенно в условиях высокого измерения.

Оцените материал
Добавить комментарий

Капча загружается...