Меню

Погрешность средства измерения при нормальных условиях эксплуатации это



Погрешность. Классы точности средств измерений.

Позволю себе вначале небольшое отступление. Такие понятия как погрешность, класс точности довольно подробно описываются в нормативной документации ГОСТ 8.009-84 «Нормируемые метрологические характеристики средств измерений», ГОСТ 8.401-80 «Классы точности средств измерений. Общие требования» и им подобных. Но открывая эти документы сразу возникает чувство тоски… Настолько сухо и непонятно простому начинающему «киповцу», объяснены эти понятия. Давайте же пока откинем такие вычурные и непонятные нам определения, как «среднее квадратическое отклонение случайной составляющей погрешности» или «нормализованная автокорреляционная функция» или «характеристика случайной составляющей погрешности от гистерезиса — вариация Н выходного сигнала (показания) средства измерений» и т. п. Попробуем разобраться, а затем свести в одну небольшую, но понятную табличку, что же такое «погрешность» и какая она бывает.

Погрешности измерений – отклонения результатов измерения от истинного значения измеряемой величины. Погрешности неизбежны, выявить истинное значение невозможно.

По числовой форме представления подразделяются:

  1. Абсолютная погрешность: Δ = Xд — Xизм, выражается в единицах измеряемой величины, например в килограммах (кг), при измерении массы.
    где Xд – действительное значение измеряемой величины, принимаются обычно показания эталона, образцового средства измерений;
    Xизм – измеренное значение.
  2. Относительная погрешность: δ = (Δ ⁄ Xд) · 100, выражается в % от действительного значения измеренной величины.
  3. Приведённая погрешность: γ = (Δ ⁄ Xн) · 100, выражается в % от нормирующего значения.
    где Xн – нормирующее значение, выраженное в тех же единицах, что и Δ, обычно принимается диапазон измерения СИ (шкала).

По характеру проявления:

  • систематические (могут быть исключены из результатов);
  • случайные;
  • грубые или промахи (как правило не включаются в результаты измерений).

В зависимости от эксплуатации приборов:

  • основная – это погрешность средства измерения при нормальных условиях; (ГОСТ 8.395-80)
  • дополнительная погрешность – это составляющая погрешности средства измерения, дополнительно возникающая из-за отклонения какой-либо из влияющих величин от нормативного значения или выход за пределы нормальной области значений. Например: измерение избыточного давления в рабочих условиях цеха, при температуре окружающего воздуха 40 ºС, относительной влажности воздуха 18% и атмосферном давлении 735 мм рт. ст., что не соответствует номинальным значениям влияющих величин при проведении поверки.
Наимено вание погреш ности Формула Форма выражения, записи Обозначение класса точности
В докумен тации На сред стве изме рений
Абсолют ная Δ = Xд — Xизм Δ = ±50 мг
Примеры:
Номинальная масса гири 1 кг ±50 мг
Диапазон измерения весов среднего III класса точности от 20 г до 15 кг ±10 г
Класс точности: М1
Класс точности: средний III
Примечание:
на многие виды измерений есть свои НД по выражению погрешностей, здесь для примера взято для гирь и весов.
М1
Относи тельная δ = (Δ ⁄ Xд) · 100 δ = ±0,5
Пример:
Измеренное значение изб. давления с отн. погр.
1 бар ±0,5%
т.е. 1 бар ±5 мбар (абс. погр.)
Класс точности 0,5
Приве дённая:
при равно мерной шкале
γ = (Δ ⁄ Xн) · 100 γ = ±0,5
Пример:
Измеренное значение на датчике изб. давления, при шкале от 0 до 10 бар
1 бар (= 0,5 % от 10 бар)
т.е. 1 бар ±50 мбар (абс. погр.)
Класс точности весов 0,5 0,5
с сущес твенно неравно мерной шкалой γ = ±0,5
Прописывается в норм .док-ии на СИ для каждого диапазона измерения (шкалы) своё нормирующее значение
Класс точности 0,5

Как определить погрешность комплекта приборов, в который входит первичный преобразователь, вторичный преобразователь (усилитель) и вторичный прибор. У каждого из элементов этого комплекта есть своя абсолютная, относительная или приведённая погрешность. И чтобы оценить, общую погрешность измерения, необходимо все погрешности привести к одному виду, а дальше посчитать по формуле:

Дальше будет интересно, наверное, только метрологам и то, только начинающим. Теперь совсем немного вспомним о средних квадратических отклонениях (СКО). Зачем они нужны? Так как истинное значение выявить невозможно, то необходимо хотя бы наиболее точно приблизиться к нему или определить доверительный интервал, в котором истинное значение находится с большой долей вероятности. Для этого применяют различные статистические методы, приведём формулы наиболее распространённого. Например, Вы провели n количество измерений чего угодно и Вам необходимо определить доверительный интервал:

  1. Определяем среднее арифметическое отклонение:

    где n – количество отклонений
  2. Определяем среднее квадратическое отклонение (СКО) среднего арифметического:
  3. Рассчитываем случайную составляющую погрешности:

    где t – коэффициент Стьюдента, зависящий от числа степеней свободы
    Таблица 1.
    α =0,68 α =0,95 α =0,99
    n tα,n n tα,n n tα,n
    2 2,0 2 12,7 2 63,7
    3 1,3 3 4,3 3 9,9
    4 1,3 4 3,2 4 5,8
    5 1,2 5 2,8 5 4,6
    6 1,2 6 2,6 6 4,0
    7 1,1 7 2,4 7 3,7
    8 1,1 8 2,4 8 3,5
    9 1,1 9 2,3 9 3,4
    10 1,1 10 2,3 10 3,3
    15 1,1 15 2,1 15 3,0
    20 1,1 20 2,1 20 2,9
    30 1,1 30 2,0 30 2,8
    100 1,0 100 2,0 100 2,6
  4. Определяем СКО систематической составляющей погрешности:
  5. Рассчитываем суммарное СКО:
  6. Определяем коэффициент, зависящий от соотношения случайной и систематической составляющей погрешности:
  7. Проводим оценку доверительных границ погрешности:
Читайте также:  Электротермометр для измерения температуры тела

В последнее время всё чаще на слуху термин «неопределённость». Медленно, но верно и настойчиво его внедряют в отечественную метрологию. Это дань интеграции нашей экономики во всемирную, естественно необходимо адаптировать нормативную документацию к международным стандартам. Не буду тут «переливать из пустого в порожнее», это хорошо сделано в различных нормативных документах. Чисто моё мнение, «расширенная неопределённость измерений» = основная погрешность + дополнительная, которая учитывает все влияющие факторы.

Источник

Погрешность средства измерения при нормальных условиях эксплуатации это

Погрешность средства измерений (англ. error (of indication) of a measuring instrument) – разность между показанием средства измерений и истинным (действительным) значением измеряемой физической величины.

Систематическая погрешность средства измерений (англ. bias error of a measuring instrument) – составляющая погрешности средства измерений, принимаемая за постоянную или закономерную изменяющуюся.
Примечание. Систематическая погрешность данного средства измерений, как правило, будет отличаться от систематической погрешности другого экземпляра средства измерений этого же типа, вследствие чего для группы однотипных средств измерений систематическая погрешность может иногда рассматриваться как случайная погрешность.

Случайная погрешность средства измерений (англ. repeatability error of a measuring instrument) – составляющая погрешности средства измерений, изменяющаяся случайным образом.

Абсолютная погрешность средства измерений – погрешность средства измерений, выраженная в единицах измеряемой физической величины.

Относительная погрешность средства измерений – погрешность средства измерений, выраженная отношением абсолютной погрешности средства измерений к результату измерений или к действительному значению измеренной физической величины.

Приведенная погрешность средства измерений (англ. reducial error of a measuring instrument) – относительная погрешность, выраженная отношением абсолютной погрешности средства измерений к условно принятому значению величины, постоянному во всем диапазоне измерений или в части диапазона.
Примечания:

  • Условно принятое значение величины называют нормирующим значением. Часто за нормирующее значение принимают верхний предел измерений.
  • Приведенную погрешность обычно выражают в процентах.

Основная погрешность средства измерений (англ. intrinsic error of a measuring instrument) – погрешность средства измерений, применяемого в нормальных условиях.

Дополнительная погрешность средства измерений (англ. complementary error of a measuring instrument) – составляющая погрешности средства измерений, возникающая дополнительно к основной погрешности вследствие отклонения какой-либо из влияющих величин от нормального ее значения или вследствие ее выхода за пределы нормальной области значений.

Статическая погрешность средства измерений – погрешность средства измерений, применяемого при измерении физической величины, принимаемой за неизменную.

Динамическая погрешность средства измерений – погрешность средства измерений, возникающая при измерении изменяющейся (в процессе измерений) физической величины.

Погрешность меры – разность между номинальным значением меры и действительным значением воспроизводимой ею величины.

Стабильность средства измерений (англ. stability) – качественная характеристика средства измерений, отражающая неизменность во времени его метрологических характеристик.
Примечание. В качестве количественной оценки стабильности служит нестабильность средства измерений.

Нестабильность средства измерений – изменение метрологических характеристик средства измерений за установленный интервал времени.
Примечания:

  • Для ряда средств измерений, особенно некоторых мер, нестабильность является одной из важнейших точностных характеристик. Для нормальных элементов обычно нестабильность устанавливается за год.
  • Нестабильность определяют на основании длительных исследований средства измерений, при этом полезны периодические сличения с более стабильными средствами измерений.
Читайте также:  Уровень измерения уровня сыпучих материалов

Точность средства измерений (англ. accuracy of a measuring instrument) – характеристика качества средства измерений, отражающая близость его погрешности к нулю.
Примечание. Считается, что чем меньше погрешность, тем точнее средство измерений.

Класс точности средств измерений (англ. accuracy class) – обобщенная характеристика данного типа средств измерений, как правило, отражающая уровень их точности, выражаемая пределами допускаемых основной и дополнительных погрешностей, а также другими характеристиками, влияющими на точность.
Примечания:

  • Класс точности дает возможность судить о том, в каких пределах находится погрешность средства измерений одного типа, но не является непосредственным показателем точности измерений, выполняемых с помощью каждого из этих средств. Это важно при выборе средств измерений в зависимости от заданной точности измерений.
  • Класс точности средств измерений конкретного типа устанавливают в стандартах технических требований (условий) или в других нормативных документах.

Предел допускаемой погрешности средства измерений – наибольшее значение погрешности средств измерений, устанавливаемое нормативным документом для данного типа средств измерений, при котором оно еще признается годным к применению.
Примечания:

  • При превышении установленного предела погрешности средство измерений признается негодным для применения (в данном классе точности).
  • Обычно устанавливают пределы допускаемой погрешности, то есть границы зоны, за которую не должна выходить погрешность.

Пример. Для 100-миллиметровой концевой меры длины 1-го класса точности пределы допускаемой погрешности +/- 50 мкм.

Нормируемые метрологические характеристики типа средства измерений – совокупность метрологических характеристик данного типа средств измерений, устанавливаемая нормативными документами на средства измерений.

Точностные характеристики средства измерений – совокупность метрологических характеристик средства измерений, влияющих на погрешность измерения.
Примечание. К точностным характеристикам относят погрешность средства измерений, нестабильность, порог чувствительности, дрейф нуля и др.

Источник

Погрешность средств измерений

От погрешностей, присущих средствам измерений, зависит погрешность результата измерений той или иной физической величины. Погрешность средства измерений есть разница между значением величины, полученной при помощи этого средства, и истинным значением измеряемой величины. Поскольку истинное значение величины не известно, на практике вместо него пользуются действительным значением величины, полученным при помощи более точного средства измерений.

Погрешности средств измерений могут быть классифицированы следующим образом:

— по характеру появления и причинам – систематические и случайные;

— по отношению к условию применения – основные и дополнительные;

— по способу (форме) числового выражения – абсолютные, относительные и приведенные.

Систематической погрешностью средства измерения называется составляющая погрешности, остающаяся постоянной или закономерно изменяющаяся при повторных измерениях одной и той же величины. Происхождение и характер этих погрешностей известен и выявляется в результате многократных измерений одной и той же величины. Влияние этих погрешностей исключается путем введением поправок, определяемых расчетным или опытным путем.

Случайной погрешностью средства измерения называется составляющая погрешности, изменяющиеся случайным образом при повторных измерениях одной и той же величины. Она возникает в результате влияния на средства измерений таких случайных факторов как вибрация, наличие электромагнитных полей, изменение органов чувств наблюдателя. Они не могут быть исключены опытным путем. Для учета случайных погрешностей одну и ту же величину измеряют много раз данным средством измерений. К полученному ряду значений применимы теории вероятности и математической статистики, на основании которых оценивается случайная составляющая погрешности средств измерений.

Основная погрешность – это погрешность средства измерения, используемого в нормальных условиях, которые обычно определены в нормативно-технической документации на данное средство измерения.

Под дополнительными погрешностями понимают изменение погрешности средств измерений вследствие отклонения влияющих величин от нормальных значений.

Абсолютная погрешность измерительного прибора – это разность между показаниями прибора и истинным (действительным) значением измеряемой величины:

Х =

где ХП – показания прибора;

Хд – действительное значение измеряемой величины. За действительное значение измеряемой величины принимают показания образцового прибора.

Относительная погрешность прибора – это отношение абсолютной погрешности измерительного прибора к истинному (действительному) значению измеряемой величины, %:

Приведенная погрешность измерительного прибора — это отношение абсолютной погрешности измерительного прибора к нормирующему значению. нормирующее значение – условно принятое значение ХN, равное или верхнему пределу измерения, или диапазону измерений, или длине шкалы. Приведенную погрешность обычно выражают в %:

Читайте также:  Назначение измерений по постоянному току

Точность СИ – характеристика качества средства измерений, отражающая близость его погрешности к нулю. Класс точности СИ – это обобщенная характеристика данного типа СИ, как правило, отражающая уровень их точности, выражается пределами допускаемых основных и дополнительных погрешностей, а также другими характеристиками, влияющими на точность. Класс точности дает возможность судить о том, в каких пределах находится погрешность СИ данного типа, но не является непосредственным показателем точности измерений, выполняемых с помощью каждого из этих средств. Класс точности средств измерений конкретного типа устанавливается в стандартах, технических условиях или других нормативных документах.

В соответствии с основными нормативами документации (ГОСТ 12997-76 «Государственная система промышленных приборов и средств автоматизации. Технические условия») основной метрологической характеристикой измерительного прибора является класс точности , который является обобщенной характеристикой средств измерений, определяющей пределы допускаемых основных и дополнительных погрешностей. Под пределом допускаемой погрешности понимается наибольшая (без учета знака) погрешность средства измерений при которой оно может быть признано годным к эксплуатации.

ГОСТ 8.401-80 регламентирует способы значения классов точности в зависимости от способа выражения пределов допускаемых погрешностей средств измерений. Этим стандартом предусматривается выражение предельно допускаемых погрешностей средств измерений в виде абсолютных и приведенных погрешностей.

Абсолютная погрешность выражается

(1)

, (2)

где — предел допускаемой абсолютной погрешности, выражаемой в единицах на входе (выходе);

а – положительное число, выраженное в тех же единицах, что и

х – значение величины на входе (выходе) средств измерений;

в — отвлеченное положительное число.

Относительная погрешность выражается формулой:

(3)

, (4)

где — предел допускаемой относительной погрешности %;

с,d – относительные величины;

хк – конечное значение диапазона измерения прибора.

Приведенную погрешность определяют по формуле:

(5)

где — предел допускаемой приведенной погрешности, %;

хN – нормирующее значение, равное или верхнему пределу измерений или диапазону измерений, или длине шкалы.

Для измерительных приборов предельные допускаемые погрешности которых выражены как приведенные погрешности согласно выражению (5), должны быть присвоены классы точности, выбираемые из ряда чисел:

(1; 1.5; 2; 2.5; 3; 4; 5; 6) 10 n , где n = (1.0; 0; -1; -2; и т.д.) Класс точности прибора устанавливают при выпуске, градуируя его по образцовому прибору в нормальных условиях.

Для измерительных приборов, предел допускаемых погрешностей которых выражается относительной погрешностью в процентах, согласно выражению (4) класс точности определяется совокупностью значений с и d. Тогда условные обозначения состоят из двух чисел, разделенных косой чертой и равных с и d.

Таким образом, для большинства применяемых в практике приборов используются одночленные или двучленные обозначения класса точности. Например, обозначение класса точности 0,5 показывает, что пределы допускаемых погрешностей выражаются в процентах нормирующего значения. Обозначение класса точности 0,1/0,2 означает что предел допускаемой относительной погрешности в процентах значения измеряемой величины определяется формулой

,

где с = 0,1 d = 0,02

Статические погрешности СИ возникают при измерении физической величины, принимаемой за неизменную. Динамические погрешности средств измерений возникают при измерении изменяющейся во времени (в процессе измерений) физической величины.

На обеспечение качества измерений направлено применение аттестованных методик выполнения измерений (МВИ) – ГОСТ 8.563-96 «ГСИ. Методики выполнения измерений».

Методика выполнения измерений – это совокупность операций и правил, выполнение которых обеспечивает получение результатов измерений с известной погрешностью. МВИ – это, как правило, документированная измерительная процедура. МВИ может быть изложена в отдельном документе (стандарте, рекомендации), разделе стандарта, части технического документа (разделе ТУ, паспорта).

Аттестация МВИ – процедура установления и подтверждения соответствия МВИ предъявляемым к ней метрологическим требованиям. В документах, регламентирующих МВИ в общем случае указывают: назначение МВИ; условия выполнения измерений; требования к погрешности измерений; метод измерений; требования к средствам измерения, вспомогательным устройствам, материалам и т.п.; операции при подготовке к выполнению измерений; операции при выполнении измерений; операции обработки и вычисления результатов измерений; нормативы и процедуру контроля погрешности результатов выполняемых измерений; требования к квалификации операторов; требования к безопасности выполняемых работ.

Источник