Шрифт:
Интервал:
Закладка:
меньше
с вероятностью, близкой к значению интеграла
[напр., I (1,96) = 0,950; I (2,58) = 0,990; I (3,00) = 0,997].
Если веса измерений pi заданы, а множитель k до наблюдений остаётся неопределённым, то этот множитель и дисперсия оценки могут быть приближённо оценены по формулам:
и
(обе оценки лишены систематических ошибок).
В том практически важном случае, когда ошибки di подчиняются нормальному распределению, можно найти точное значение вероятности, с которой абсолютная погрешность приближённого равенства
окажется меньше ts (t — произвольное положительное число). Эту вероятность, как функцию от t , называют функцией распределения Стьюдента с n - 1 степенями свободы и вычисляют по формуле
где постоянная Cn -1 выбрана таким образом, чтобы выполнялось условие: In -1 (¥) = 1. При больших n формулу (2) можно заменить формулой (1). Однако применение формулы (1) при небольших n привело бы к грубым ошибкам. Так, например, согласно (1), значению I = 0,99 соответствует t = 2,58; истинные значения t , определяемые при малых n как решения соответствующих уравнений ln -1 (t ) = 0,99, приведены в таблице:
n 2 3 4 5 10 20 30 t 63,66 9,92 5,84 4,60 3,25 2,86 2,76Пример. Для определения массы некоторого тела произведено 10 независимых равноточных взвешиваний, давших результаты Yi (в г ):
Y i 18,41 18,42 18,43 18,44 18,45 18,46 ni 1 3 3 1 1 1(здесь ni — число случаев, в которых наблюдался вес Yi , причём n = Sni , = 10). Так как все взвешивания равноточные, то следует положить pi = ni и в качестве оценки для неизвестного веса m, выбрать величину
Задавая, например, I 9 = 0,95, по таблицам распределения Стьюдента с девятью степенями свободы можно найти, что t = 2,262, и поэтому в качестве предельной абсолютной погрешности приближённого равенства m » 18,431 следует принять величину
Т. о. 18,420 < m < 18,442.
Случай нескольких неизвестных (линейные связи). Пусть n результатов измерений Y 1 , Y 2 ,..., Yn связаны с m неизвестными величинами x 1 , x 2 ,..., хm (m < n ) независимыми линейными отношениями
где aij — известные коэффициенты, а di — независимые случайные ошибки измерений. Требуется оценить неизвестные величины xj (эту задачу можно рассматривать как обобщение предыдущей, в которой m = x1 и m = ai1 = 1; i = 1,2,..., n ).
Так как Е di = 0, то средние значения результатов измерений yi , = E yi . связаны с неизвестными величинами x 1 , x 2 ,..., хm линейными уравнениями (линейные связи):
Следовательно, искомые величины xj представляют собой решение системы (4), уравнения которой предполагаются совместными. Точные значения измеряемых величин yi и случайные ошибки di обычно неизвестны, поэтому вместо систем (3) и (4) принято записывать так называемые условные уравнения
Согласно Н. к. м., качестве оценок для неизвестных xj применяют такие величины Xj , для которых сумма квадратов отклонений
будет наименьшей (как и в предыдущем случае, pi — вес измерения Yi , — величина, обратно пропорциональная дисперсии случайной ошибки di ). Условные уравнения, как правило, несовместны, т. е. при любых значениях Xj разности
не могут, вообще говоря, все обратиться в нуль, и в этом случае
также не может обратиться в нуль. Н. к. м. предписывает в качестве оценок выбрать такие значения Xj , которые минимизируют сумму S . В тех исключительных случаях, когда условные уравнения совместны и, значит, обладают решением, это решение совпадает с оценками, полученными согласно Н. к. м.
Сумма квадратов S представляет собой квадратичный многочлен относительно переменных Xj ; этот многочлен достигает минимума при таких значениях X 1 , X 2 ,..., Хm , при которых обращаются в нуль все первые частные производные:
Отсюда следует, что оценки Xj , полученные согласно Н. к. м., должны удовлетворять системе так называемых нормальных уравнений, которая в обозначениях, предложенных Гауссом, имеет вид:
где
Оценки Xj , получающиеся в результате решения системы нормальных уравнений, лишены систематических ошибок (E xj = xj ); дисперсии D xj ; величин Xj равны kdjj /d , где d — определитель системы (5), а djj — минор, соответствующий диагональному элементу [раj aj ] (иными словами, djj /d — вес оценки Xj ). Если множитель пропорциональности k (k называется дисперсией на единицу веса) заранее неизвестен, то для его оценки, а также для оценки дисперсии D xj служат формулы:
k » S/ (n - m ) и D xj » s2 j = Sdjj /d (n - m )
(S — минимальное значение исходной суммы квадратов). При некоторых общих предположениях можно показать, что если количество наблюдений n достаточно велико, то абсолютная погрешность приближённого равенства xi » Xj меньше tsj с вероятностью, близкой к значению интеграла (1). Если случайные ошибки наблюдений di подчиняются нормальному распределению, то все отношения (Xj - xj )/sj распределены по закону Стьюдента с n - m степенями свободы [точная оценка абсолютной погрешности приближённого равенства производится здесь с помощью интеграла (2) так же, как в случае одного неизвестного]. Кроме того, минимальное значение суммы S в вероятностном смысле не зависит от X 1 , X 2 ,..., Xm и поэтому приближённые значения дисперсий оценок D xj » s2 j не зависят от самих оценок Xj .
Один из наиболее типичных случаев применения Н. к. м. — «выравнивание» таких результатов наблюдений Yi , для которых в уравнениях (3) aij = aj (ti ), где aj (t ) — известные функции некоторого параметра t (если t — время, то t 1 , t 2 ,... — те моменты времени, в которые производились наблюдения). Особенно часто встречается в приложениях случай так называемой параболической интерполяции, когда aj (t ) — многочлены [например, a 1 (t ) = 1, a 2 (t ) = t , a 3 (t ) = t2 ,... и т.д.]; если t 2 — t 1 = t 3 — t 2 =... = tn — tn -1 , a наблюдения равноточные, то для вычисления оценок Xj можно воспользоваться таблицами ортогональных многочленов, имеющимися во многих руководствах по современной вычислительной математике. Другой важный для приложения случай — так называемая гармоническая интерполяция, когда в качестве aj (t ) выбирают тригонометрические функции [например, aj (t ) = cos (j - 1) t , j = 1, 2,..., m ].
- Большая Советская Энциклопедия (ЭЙ) - БСЭ БСЭ - Энциклопедии
- Большая Советская Энциклопедия (ОБ) - БСЭ БСЭ - Энциклопедии
- Большая Советская Энциклопедия (ЧХ) - БСЭ БСЭ - Энциклопедии
- Большая Советская Энциклопедия (СЫ) - БСЭ БСЭ - Энциклопедии
- Большая Советская Энциклопедия (УЗ) - БСЭ БСЭ - Энциклопедии
- Большая Советская Энциклопедия (КЗ) - БСЭ БСЭ - Энциклопедии
- Большая Советская Энциклопедия (ДИ) - БСЭ БСЭ - Энциклопедии
- Большая Советская Энциклопедия (СЮ) - БСЭ БСЭ - Энциклопедии
- Большая Советская Энциклопедия (ЦИ) - БСЭ БСЭ - Энциклопедии
- Большая Советская Энциклопедия (СЭ) - БСЭ БСЭ - Энциклопедии