Добавка 1e-6 — это практический приём для повышения числовой стабильности, чаще всего при масштабировании признаков и делении на стандартное отклонение.
Типичный контекст:
Z = (X - mu) / (sigma + 1e-6)Зачем это делают:
- Защита от деления на ноль
Еслиsigma = 0(константный признак), добавка предотвращаетinfиnan. - Стабилизация при очень малых σ
Даже еслиsigmaблизко к нулю, деление без добавки:
– усиливает шум
– создаёт огромные значения
– портит градиенты и спектры
1e-6 задаёт нижнюю границу масштаба.
- Числовая, а не статистическая мера
Это не математически строгая операция, а инженерная защита от плохих чисел.
Что важно понимать:
– добавка искажает масштаб признака
– для константного признака результат ≈ 0, но формально определён
– выбор величины (1e-6, 1e-8, eps) зависит от масштаба данных
Альтернатива, более строгая:
mask = sigma > 0
Z = np.zeros_like(X)
Z[:, mask] = (X[:, mask] - mu[mask]) / sigma[mask]Когда добавку используют на практике:
– в нейросетях
– в пайплайнах, где важна непрерывность вычислений
– когда заранее неизвестно, какие признаки выродятся
Когда не стоит использовать бездумно:
– в аналитических задачах
– если важна строгая интерпретация коэффициентов
Коротко:
+ 1e-6 — это инженерный приём для предотвращения деления на ноль и взрывных значений, улучшающий числовую стабильность ценой небольшой потери строгости.