Виды погрешностей определение точности измерений



Определение точности измерений

3.4.1 Понятие погрешности измерения

При практическом использовании тех или иных результатов измерений важно оценить их точность. Термин «точность измерений», т. е. степень приближения результатов измерения к некоторому истинному значению, не имеет строгого определения и используется для качественного сравнения измерительных операций. Для количественной оценки применяется понятие «погрешность измерений» (чем меньше погрешность, тем выше точность).

Погрешностью называют отклонение результата измерений от истинного (действительного) значения измеряемой величи­ны. При этом следует иметь в виду, что истинное значение физической величины считается неизвестным и применяется в теоретических исследованиях. Действительное значение физической величины устанавливается экспериментальным путем в предположении, что результат эксперимента (измерения) в максимальной степени приближается к истинному значению. Оценка погрешности измерения — одно из важных мероприятий по обеспечению единства измерений.

Погрешность измерений зависит в первую очередь от погрешностей СИ, а также от условий, в которых проводится измерение, от экспериментальной ошибки методики и субъективных особенностей человека в случаях, где он непосредственно участвует в измерениях. Поэтому можно говорить о нескольких составляющих погрешности измерений или о ее суммарной погрешности.

Количество факторов, влияющих на точность измерения, достаточно велико, и любая классификация погрешностей измерения (рисунок.15) в известной мере условна, так как различные погрешности в зависимости от условий измерительного процесса проявляются в разных группах.

Рисунок 15 – Классификация погрешностей измерения

3.4.2 Виды погрешностей

Как указывалось выше, погрешность измерения – это отклонение результата измерения Х от истинного Хи значения измеряемой величины. При этом вместо истинного значения физической величины Хи используют ее действительное значение Хд.

В зависимости от формы выражения различают абсолютную, относительную и приведенную погрешности измерения.

Абсолютная погрешность – это погрешность средства измерений, выраженная в единицах измеряемой физической величины. Она определяется как разность Δ’= Хi — Хи или Δ = X — Хд., где Xi – результат измерения.

Относительная погрешность – это погрешность средства измерений, выраженная отношением абсолютной погрешности средства измерений к результату измерений или действительному значению измеряемой физической величины. Она определяется как отношение δ = ±(Δ/Хд)·100%.

Приведенная погрешность – выраженное в % отношении измеряемой величины к значению абсолютной погрешности прибора, которое соответствует конечной отметке шкалы этого прибора, называют относительной приведенной погрешностью прибора.

В качестве нормирующего значения (ΧN) используют диапазон измерений прибора. Главная предельно допустимая приведенная погрешность прибора обуславливает класс точности этого прибора. Классы точности: 0,05; 0,1; 0,2;1,0; 1,5; 2,5; 4,0.Так, приборы класса точности 2,5 имеют допустимую приведенную погрешность 2,5%. Сведения о погрешности прибора, как правило, указывают на его шкале, а также в паспорте прибора. Они позволяют осуществить подходящий правильный подбор в зависимости от условий эксплуатации и определённо помогают правильно использовать прибор при выполнении измерений.

Методами теории вероятностей установлено, что в качестве действительного значения результата при многократных измерениях параметра, изменяющегося случайным образом, выступает среднее арифметическое значение X:

X = i ,

где Xi – результат i -го измерения, n – число измерений.

Величина `X, полученная в одной серии измерений, является случайным приближением к Хи. Для оценки ее возможных отклонений от Хи определяют оценку среднего квадратического отклонения от среднего арифметического:

S(`X)=

Для оценки рассеяния отдельных результатов измерения Xi относительно среднего арифметического `X определяют выборочное среднее квадратическое отклонение:

σ =

Эти формулы соответствуют центральной предельной теореме теории вероятностей, согласно которой среднее арифметическое из ряда измерений всегда имеет меньшую погрешность, чем погрешность каждого определенного измерения:

S(`X)= σ /

Эта формула отражает фундаментальный закон теории погрешностей. Из него следует, что если необходимо повысить точность результата (при исключенной систематической погрешности) в 2 раза, то число измерений нужно увеличить в 4 раза; если точность требуется увеличить в 3 раза, то число измерений увеличивают в 9 раз и т.д.

Нужно четко разграничивать применение величин S и σ: первая используется при оценке погрешностей окончательного результата, а вторая – при оценке погрешности метода измерения.

В зависимости от характера проявления, причин возникновения и возможностей устранения различают систематическую и случайную погрешности измерений, а также грубые погрешности (промахи).

Систематическая погрешность – это составляющая погрешности, принимаемая за постоянную или закономерно изменяющуюся при повторных измерениях одного и того же параметра. Как правило, считают, что систематические погрешности могут быть обнаружены и исключены. Однако в реальных условиях полностью исключить эти погрешности невозможно. Всегда остаются какие-то неисключенные остатки, которые нужно учитывать, чтобы оценить их границы. Это и будет систематическая погрешность измерения.

Случайная погрешность – это составляющая погрешности, изменяющаяся в тех же условиях измерения случайным образом. Значение случайной погрешности заранее неизвестно, она возникает из-за множества не уточненных факторов. Исключить из результатов случайные погрешности нельзя, но их влияние может быть уменьшено путем статистической обработки результатов измерений.

Случайная и систематическая составляющие погрешности из­мерения проявляются одновременно, так что при их независимости их общая погрешность равна сумме погрешностей. В принципе систематическая погрешность тоже случайна и указанное деление обусловлено лишь установившимися традициями обработки и представления результатов измерения.

В отличие от случайной погрешности, выявляемой в целом, вне зависимости от ее источников, систематическая погрешность рассматривается по составляющим в зависимости от источников ее возникновения. Различают субъективную, методическую и инструментальную составляющие систематической погрешности.

Субъективная составляющая погрешности связана с индивидуальными особенностями оператора. Как правило, эта погрешность возникает из-за ошибок в отсчете показаний и неверных навыков оператора. В основном же систематическая погрешность возникает из-за методической и инструментальной составляющих.

Методическая составляющая погрешности обусловлена несовершенством метода измерения, приемами использования средств измерения, некорректностью расчетных формул и округления результатов.

Инструментальная составляющая возникает из-за собственно погрешности средств измерения, определяемой классом его точности, влиянием средств измерения на объект измерения и ограниченной разрешающей способности средств измерения.

Целесообразность разделения систематической погрешности на методическую и инструментальную составляющие объясняется следующим:

для повышения точности измерений можно выделить лимитирующие факторы и, следовательно, принять решение либо об усовершенствовании методики, либо о выборе более точных средств измерения;

появляется возможность определить составляющую общей погрешности, увеличивающейся либо со временем, либо под влиянием внешних факторов, и, следовательно, целенаправленно осуществлять периодические поверки и аттестации;

инструментальная составляющая может быть оценена доразработки методики, а потенциальные точностные возможности выбранного метода определит только методическая составляющая.

Грубые погрешности (промахи) возникают из-за ошибочных действий оператора, неисправности средств измерения или резких изменений условий измерений. Как правило, грубые погрешности выявляются в результате статистической обработки результатов измерений при помощи специальных критериев.

3.4.3 Показатели качества измерений и испытаний

Единство измерений, однако, не может быть обеспечено только знанием погрешностей. При проведении измерений также важно знать показатели качества измерений. Под качеством измерений понимают совокупность свойств, обусловливающих получение результатов с требуемыми точностными характеристиками в необходимом виде и в установленные сроки.

Качество измерений характеризуется такими показателями, как точность, правильность и достоверность. Эти показатели должны определяться по оценкам, к которым предъявляются требования состоятельности, несмещенности и эффективности. Причем, в отличие от числовых характеристик, оценки являются случайными величинами, значение которых зависит от числа наблюдений n.

Состоятельной называют оценку, которая при n→ ∞ сводится по вероятности к оцениваемой величине.

Несмещенной называется оценка, математическое ожидание которой равно оцениваемой величине.

Эффективной называют такую оценку, которая имеет наименьшую дисперсию σ 2 = min.

Точность измерений определяется близостью к нулю погрешности результата измерения. Количественно точность может быть выражена обратной величиной модуля относительной погрешности, определенной в долях.

Правильность измерений определяется близостью к нулю систематической погрешности, т.е. результат «исправлен» на величину систематической погрешности.

Достоверность измерений определяется степенью доверия к результату и характеризуется вероятностью того, что истинное значение измеряемой величины лежит в указанных окрестностях действительного. Эти вероятности называют доверительными, а окрестности – доверительным интервалом с доверительными границами.

Доверительным интервалом от – Δд до + Δд называют интервал значений случайной погрешности, который с заданной доверительной вероятностью Рд накрывает истинное значение измеряемой величины:

При малом числе измерений (n 20…25) и использовании нормального закона не представляется возможным определить доверительный интервал, так как нормальный закон распределения описывает поведение случайной погрешности в принципе при бесконечно большом числе измерений.

Поэтому при малом числе измерений используют распределение Стьюдента (предложенное английским статистиком Госсетом, публиковавшимся под псевдонимом «студент»), которое обеспечивает возможность определения доверительных интервалов при ограниченном числе измерений.

Границы доверительного интервала при этом определяются по формуле

Δд = t·S( ),

где t – коэффициент распределения Стьюдента, зависящий от задаваемой доверительной вероятности Рд и числа измерений n.

При увеличении числа наблюдений n распределение Стьюдента быстро приближается к нормальному распределению и совпадает с ним уже при n ≥30.

Следует отметить, что результаты измерений, не обладающие достоверностью, т. е. степенью уверенности в их правильности, не представляют ценности. К примеру, датчик измерительной схемы может иметь весьма высокие метрологические характеристики, но влияние погрешностей от его установки, внешних условий, методов регистрации и обработки сигналов приведет к большой конечной погрешности измерений.

При проведении испытаний их качество, наряду с такими показателями, как точность, правильность и достоверность, характеризуется также сходимостью и воспроизводимостью результатов.

Очевидно, что два испытания одного и того же объекта одинаковым методом не дают идентичных результатов. Объективной мерой их могут служить статистически обоснованные оценки ожидаемой близости результатов двух или более испытаний, полученных при строгом соблюдении их методики. В качестве таких статистических оценок согласованности результатов испы­таний и принимаются сходимость и воспроизводимость.

Сходимость – это близость результатов двух испытаний, полученных одним методом, на идентичных установках, в одной лаборатории. Воспроизводимость отличается от сходимости тем, что оба результата должны быть получены в разных лабораториях.

| следующая лекция ==>
Основы техники измерений | Получение и представление результатов измерений

Дата добавления: 2019-02-07 ; просмотров: 3974 ; ЗАКАЗАТЬ НАПИСАНИЕ РАБОТЫ

Источник

Измерения

Погрешность средств измерения и результатов измерения.

Погрешности средств измерений – отклонения метрологических свойств или параметров средств измерений от номинальных, влияющие на погрешности результатов измерений (создающие так называемые инструментальные ошибки измерений).
Погрешность результата измерения – отклонение результата измерения от действительного (истинного) значения измеряемой величины.

Инструментальные и методические погрешности.

Методическая погрешность обусловлена несовершенством метода измерений или упрощениями, допущенными при измерениях. Так, она возникает из-за использования приближенных формул при расчете результата или неправильной методики измерений. Выбор ошибочной методики возможен из-за несоответствия (неадекватности) измеряемой физической величины и ее модели.

Причиной методической погрешности может быть не учитываемое взаимное влияние объекта измерений и измерительных приборов или недостаточная точность такого учета. Например, методическая погрешность возникает при измерениях падения напряжения на участке цепи с помощью вольтметра, так как из-за шунтирующего действия вольтметра измеряемое напряжение уменьшается. Механизм взаимного влияния может быть изучен, а погрешности рассчитаны и учтены.

Инструментальная погрешность обусловлена несовершенством применяемых средств измерений. Причинами ее возникновения являются неточности, допущенные при изготовлении и регулировке приборов, изменение параметров элементов конструкции и схемы вследствие старения. В высокочувствительных приборах могут сильно проявляться их внутренние шумы.

Статическая и динамическая погрешности.

  • Статическая погрешность измерений – погрешность результата измерений, свойственная условиям статического измерения, то есть при измерении постоянных величин после завершения переходных процессов в элементах приборов и преобразователей.
    Статическая погрешность средства измерений возникает при измерении с его помощью постоянной величины. Если в паспорте на средства измерений указывают предельные погрешности измерений, определенные в статических условиях, то они не могут характеризовать точность его работы в динамических условиях.
  • Динамическая погрешность измерений – погрешность результата измерений, свойственная условиям динамического измерения. Динамическая погрешность появляется при измерении переменных величин и обусловлена инерционными свойствами средств измерений. Динамической погрешностью средства измерений является разность между погрешностью средсва измерений в динамических условиях и его статической погрешностью, соответствующей значению величины в данный момент времени. При разработке или проектировании средства измерений следует учитывать, что увеличение погрешности измерений и запаздывание появления выходного сигнала связаны с изменением условий.

Статические и динамические погрешности относятся к погрешностям результата измерений. В большей части приборов статическая и динамическая погрешности оказываются связаны между собой, поскольку соотношение между этими видами погрешностей зависит от характеристик прибора и характерного времени изменения величины.

Систематическая и случайная погрешности.

Систематическая погрешность измерения – составляющая погрешности измерения, остающаяся постоянной или закономерно изменяющаяся при повторных измерениях одной и той же физической величины. Систематические погрешности являются в общем случае функцией измеряемой величины, влияющих величин (температуры, влажности, напряжения питания и пр.) и времени. В функции измеряемой величины систематические погрешности входят при поверке и аттестации образцовых приборов.

Причинами возникновения систематических составляющих погрешности измерения являются:

  • отклонение параметров реального средства измерений от расчетных значений, предусмотренных схемой;
  • неуравновешенность некоторых деталей средства измерений относительно их оси вращения, приводящая к дополнительному повороту за счет зазоров, имеющихся в механизме;
  • упругая деформация деталей средства измерений, имеющих малую жесткость, приводящая к дополнительным перемещениям;
  • погрешность градуировки или небольшой сдвиг шкалы;
  • неточность подгонки шунта или добавочного сопротивления, неточность образцовой измерительной катушки сопротивления;
  • неравномерный износ направляющих устройств для базирования измеряемых деталей;
  • износ рабочих поверхностей, деталей средства измерений, с помощью которых осуществляется контакт звеньев механизма;
  • усталостные измерения упругих свойств деталей, а также их естественное старение;
  • неисправности средства измерений.

Случайной погрешностью называют составляющие погрешности измерений, изменяющиеся случайным образом при повторных измерениях одной и той же величины. Случайные погрешности определяются совместным действием ряда причин: внутренними шумами элементов электронных схем, наводками на входные цепи средств измерений, пульсацией постоянного питающего напряжения, дискретностью счета.

Погрешности адекватности и градуировки.

Погрешность градуировки средства измерений – погрешность действительного значения величины, приписанного той или иной отметке шкалы средства измерений в результате градуировки.

Погрешностью адекватности модели называют погрешность при выборе функциональной зависимости. Характерным примером может служить построение линейной зависимости по данным, которые лучше описываются степенным рядом с малыми нелинейными членами.

Погрешность адекватности относится к измерениям для проверки модели. Если зависимость параметра состояния от уровней входного фактора задана при моделировании объекта достаточно точно, то погрешность адекватности оказывается минимальной. Эта погрешность может зависеть от динамического диапазона измерений, например, если однофакторная зависимость задана при моделировании параболой, то в небольшом диапазоне она будет мало отличаться от экспоненциальной зависимости. Если диапазон измерений увеличить, то погрешность адекватности сильно возрастет.

Абсолютная, относительная и приведенная погрешности.

Абсолютная погрешность – алгебраическая разность между номинальным и действительным значениями измеряемой величины. Абсолютная погрешность измеряется в тех же единицах измерения, что и сама величина, в расчетах её принято обозначать греческой буквой – ∆. На рисунке ниже ∆X и ∆Y – абсолютные погрешности.

Относительная погрешность – отношение абсолютной погрешности к тому значению, которое принимается за истинное. Относительная погрешность является безразмерной величиной, либо измеряется в процентах, в расчетах обозначается буквой – δ.

Приведённая погрешность – погрешность, выраженная отношением абсолютной погрешности средства измерений к условно принятому значению величины, постоянному во всем диапазоне измерений или в части диапазона. Вычисляется по формуле

где Xn – нормирующее значение, которое зависит от типа шкалы измерительного прибора и определяется по его градуировке:

– если шкала прибора односторонняя и нижний предел измерений равен нулю (например диапазон измерений 0. 100), то Xn определяется равным верхнему пределу измерений (Xn=100);
– если шкала прибора односторонняя, нижний предел измерений больше нуля, то Xn определяется как разность между максимальным и минимальным значениями диапазона (для прибора с диапазоном измерений 30. 100, Xn=Xmax-Xmin=100-30=70);
– если шкала прибора двухсторонняя, то нормирующее значение равно ширине диапазона измерений прибора (диапазон измерений -50. +50, Xn=100).

Приведённая погрешность является безразмерной величиной, либо измеряется в процентах.

Аддитивные и мультипликативные погрешности.

  • Аддитивной погрешностью называется погрешность, постоянную в каждой точке шкалы.
  • Мультипликативной погрешностью называется погрешность, линейно возрастающую или убывающую с ростом измеряемой величины.

Различать аддитивные и мультипликативные погрешности легче всего по полосе погрешностей (см.рис.).

Если абсолютная погрешность не зависит от значения измеряемой величины, то полоса определяется аддитивной погрешностью (а). Иногда аддитивную погрешность называют погрешностью нуля.

Если постоянной величиной является относительная погрешность, то полоса погрешностей меняется в пределах диапазона измерений и погрешность называется мультипликативной (б). Ярким примером аддитивной погрешности является погрешность квантования (оцифровки).

Класс точности измерений зависит от вида погрешностей. Рассмотрим класс точности измерений для аддитивной и мультипликативной погрешностей:

– для аддитивной погрешности:
аддитивная погрешность
где Х – верхний предел шкалы, ∆0 – абсолютная аддитивная погрешность.
– для мультипликативной погрешности:
мультипликативная погрешность
порог чувствительности прибора – это условие определяет порог чувствительности прибора (измерений).

Источник

Поделиться с друзьями
Моя стройка
Adblock
detector