Меню

Погрешности средств измерений при измерении давления



Пример оценивания характеристик погрешности и вычисления неопределенности измерений. Измерение давления манометром техническим показывающим

Пример оценивания характеристик погрешности и вычисления неопределенности измерений. Измерение давления манометром техническим показывающим.

Процесс оценивания неопределенности результата.

1 Описание измеряемой величины. Составление модели измерения.

2 Источники неопределенности.

3 Оценивание выходной величины, входной величины и их неопределенностей.

4 Анализ корреляции.

5 Составление бюджета неопределенности.

6 Вычисление суммарной неопределенности результата измерений.

7 Вычисление расширенной неопределенности.

8 Представление конечного результата измерений.

1 Описание измеряемой величины. Составление модели измерения.

1.1 Манометр технический показывающий предназначен для измерения и отсчета показаний избыточного давления. Измерение давления производим техническим манометром показывающим типа МТП-1М, предел измерения 25 кгс/см2, класс точности 4,0, основная погрешность не превышает значения 0,8 предела основной абсолютной погрешности манометра.

1.2 В качестве эталона используем грузопоршневой манометр типа МП-60, класс точности 0,05, предел измерения 60 кгс/см2. Рабочей жидкостью является трансформаторное масло.

При выборе эталона для определения погрешности калибруемого прибора, должно быть соблюдено следующее условие:

, (1)

— предел допускаемой абсолютной погрешности эталона на калибруемой отметке шкалы;

Д – диапазон показаний калибруемого прибора;

— отношение предела допускаемого значения погрешности эталона, к пределу допускаемого значения погрешности калибруемого (к );

— предел допускаемой основной погрешности калибруемого манометра.

Вычисляем значения по формуле 1

Условия выбора эталона соблюдены. Эталон выбран правильно.

1.3 Подготовку к выполнению измерений производим в соответствии с

1.4 Выполнение измерений

Калибровку проводим в пяти точках: 5, 10, 15, 20, 25 кгс/см2. Для расчета берем одну калибруемую точку -20 кгс/см2. При калибровке давление плавно повышаем и проводим отсчитывание показаний. Затем манометр выдерживаем в течение 5 мин. под давлением, равном верхнему пределу измерений. После чего давление плавно понижаем и проводим отсчитывание показаний при тех же значениях давления, что и при повышении давления Движение стрелки происходит плавно, без заеданий и скачков. Стрелка не касается циферблата и стекла.

1.5 Составляем модель измерения:

, (2)

— показание прибора;

— показание эталона;

— погрешность эталонного манометра;

— погрешность калибруемого манометра;

— изменение показаний калибруемого манометра от воздействия температуры окружающего воздуха;

— ошибки считывания со шкалы калибруемого манометра (разрешающая способность манометра);

— прецезионность в условиях повторяемости.

2. Источники неопределенности

2.1 Основными источниками неопределенности являются:

— погрешность эталонного манометра;

— отклонение калибруемого манометра;

— ошибка считывания со шкалы калибруемого манометра (разрешающая способность прибора);

— прецезионность в условиях повторяемости;

— изменения показаний калибруемого манометра от воздействия температуры окружающего воздуха.

2.2 Измерения выполняем методом сравнения с мерой. Калибровка производится путем задания давления, созданного грузопоршневым манометром, показания отсчитывают по калибруемому манометру. Среда, создающая давление — трансформаторное масло.

При выполнении измерений соблюдаем следующие условия:

— температура окружающего воздуха, ºС 20 ±5

— относительная влажность, % 30 — 80

— атмосферное давление, мм рт.ст. 630-800

2.3 Средства измерений для калибровки манометра МТП-1М представлены в таблице 1

Таблица 1 Средства измерений

Наименование, тип и характеристики средств измерений

Наименование измеряемой физической величины

Манометр грузопоршневой МП-60

Диапазон измерений 0-60 кгс/см2

Доп. погрешность ±0,24

Класс точности ±0,05

Диапазон измерений 0-45 ºС

Температура и влажность окружающей среды

Диапазон измерений 600-800 мм рт.ст.

Погрешность ±0,8 мм рт.ст.

3 Оценивание выходной величины, входных величин и их неопределенностей

Каждое значение величины и связанные с ней стандартные неопределенности получаем с учетом функции распределения вероятности величин.

Для определения прецезионности в условиях повторяемости проведем пять измерений в точке 20 кгс/см2 .

3.1 Вычисление стандартной неопределенности по типу А производим путем статического анализа результатов многократных измерений.

Стандартную неопределенность оцениваем из данных, приведенных в таблице 2 и по формулам 3, 4, 5, 6.

Источник

Определение погрешности ТС при измерении давления.

2.6.6.1. Определение методом непосредственного сличения погрешности ТС при измерении давления выполняется следующим образом. ПД поверяемого канала измерения давления помещается на калибратор давления, диапазон задаваемых давлений которого должен обеспечивать установку давления в рабочем диапазоне ТС. Поверка выполняется при давлениях 0,25Рнаиб, 0,5Рнаиб, 0,9Рнаиб, где Рнаиб — наибольшее значение измеряемого давления. ТС устанавливается в режим индикации давления по данному каналу (в том числе по RS выходу). Давление устанавливается с допуском ± 10 %. После установки необходимого давления с калибратора считывается действительное значение давления Ро, а с ТС измеренное — Ри. В каждой поверочной точке снимается по три значения Рии определяется среднее арифметическое:

Мпа (2.19)

Pисрi— среднее значение измеренного давления в i-той поверочной точке, МПа.

Определение погрешности ТС при измерении давления выполняется по формуле:

, (2.20)

где sТСPi — погрешность ТС в i-той поверочной точке при измерении давления, % ;

Pисрi — среднее значение измеренного давления в i-той поверочной точке, МПа;

Ро — максимальное значение диапазона измерения, МПа;

Роi — значение давления в i-той поверочной точке, определенное по показаниям КД, МПа.

Результаты поверки считаются положительными, если погрешность ТС при измерении давления не превышает ± 2,0 %.

Читайте также:  Алгоритм измерения термометрии пациента

2.6.6.2. При поэлементной поверке каналов измерения давления ПД должны быть поверены по своим методикам поверки. Результаты поверки считаются положительными, если погрешность измерения ПД не превышают ± 1,8 % во всех поверочных точках.

Для поверки каналов измерения давления ТВ к его входу вместо ПД подключается источник тока. Поверка выполняется при токах, соответствующих давлениям 0,25Рнаиб, 0,5Рнаиб, 0,9Рнаиб, где Рнаиб — наибольшее значение измеряемого давления. ТВ устанавливается в режим иняикации давления (в том числе по RS выходу). Ток устанавливается с допуском ± 10 %. В соответствии с установленным током определяется действительное значение давления Ро. С ТВ (ПК) считывается измеренное — Ри. В каждой поверочной точке снимается по три значения Ри и определяется среднее арифметическое

МПа, (2.21)

Рисрi — среднее значение измеренного давления в 1-той поверочной точке, МПа.

Определение погрешности при измерении давления выполняется по формуле:

, (2.22)

где sТСPi; — погрешность в i-той поверочной точке при измерении давления, %;

Р — максимальное значение диапазона измерения, МПа;

Pi — значение давления в i-той поверочной точке, определенное по показаниям источника тока, МПа.

Результаты проверки считаются положительными, если погрешность ТВ при измерении давления не превышает ± 0,5 % во всех поверочных точках.

В протоколе (Приложение 2) делается отметка о соответствии.

2.6.7. Определение погрешности ТС при измерении количества тепловой энергии и тепловой мощности.

2.6.7.1. Поверка ТС методом непосредственного сличения при измерении количества тепловой энергии и тепловой мощности выполняется на поверочной установке (в т. ч. имитационной), воспроизводящей образцовые значения среднего объемного (массового) расхода теплоносителя, его температур и давлений в диапазоне измерения ТС с погрешностью не превышающей 1/3-1/2 допустимой погрешности измерения воспроизводимого параметра. Для поверки ТС, работающего в режиме измерения тепловой энергии в системе с неравными расходами теплоносителя в подающем и обратном трубопроводах, поверочная установка должна позволять устанавливать разницу расходов для ПР подающего и обратного трубопроводов не менее 10 %. ПР устанавливаются на испытательный стенд поверочной установки (имитатор расхода), ПТ — в КТК, ПД — на калибратор давлений. Поверка выполняется в 3-х режимах:

— при температуре 150 ± 5 °С для ПТ, предназначенного к установке в подающий трубопровод, и 70 ± 2°С — в обратный трубопровод. Значение расхода устанавливается 0,5* Qнаиб (режим 1);

— при температуре 25 ± 0,5 °С для ПТ, предназначенного к установке в подающий трубопровод, и 21 ± 0,5 °С — в обратный трубопровод. Значение расхода устанавливается Qнаиб (режим 2);

— при температуре 85 ± 3 °С для ПТ, предназначенного к установке в подающий трубопровод, и 70 ± 2 °С — в обратный трубопровод. Значение расхода устанавливается 0,02* Qнаиб (режим 3).

Давление во всех 3-х режимах устанавливается фиксированным из диапазона (0,1 -1,6)МПа.

Допуск на установку значений расхода ± 10 %.

Действительные значения тепловой энергии, переданной в системе и по каждому трубопроводу, определяются в соответствии с формулами, установленными в рекомендации МИ 2412. Тепловая мощность рассчитывается в соответствии с формулами:

где Еi — действительное значение потребляемой (передаваемой) в системе тепловой мощности, ГДж/ч (Гкал/ч);

Wi — действительное значение потребленной (переданной) в системе тепловой энергий, ГДж (Гкал);

Wi(1),(2) — действительное значение тепловой энергии в подающем (1) и обратном (2) трубопроводах, ГДж (Гкал);

В каждом режиме с дисплея, RS выхода и импульсного выхода ТС снимается по три измеренных значения количества тепловой энергии и тепловой мощности, для которых определяется среднее арифметическое.

Погрешности ТС при измерении тепловой энергии рассчитываются по формулам:

(2.23)

……… (2.24)

где WoiTP — действительное значение количества тепловой энергии, прошедшей по трубопроводу, в i-том поверочном режиме, ГДж (Гкал);

Woi — действительное значение потребленной (переданной) тепловой энергии, ГДж (Гкал);

WисрiTP — среднее значение измеренного количества тепловой энергии, прошедшей по трубопроводу, в i-том поверочном режиме, ГДж (Гкал);

Wисрi — среднее значение измеренного количества потребленной (переданной) тепловой энергии в i-том поверочном режиме, ГДж (Гкал);

sтвwiтр — погрешность ТС при измерении количества тепловой энергии, прошедшей по трубопроводу, в i-том поверочном режиме, %.

sтв wi погрешность ТС при измерении потребленной (переданной) тепловой энергии в i-том поверочном режиме, %.

Погрешности ТС при измерении тепловой мощности рассчитываются по формулам:

2.25)

2.26)

где Еоi ТР — действительное значение тепловой мощности, прошедшей по трубопроводу, в i-том поверочном режиме, ГДж/ч (Гкал/ч);

Eоi — действительное значение потребленной (переданной) тепловой мощности, ГДж/ч (Гкал/ч);

ЕисрiТР — среднее значение измеренной тепловой мощности, прошедшей по трубопроводу, в i-том поверочном режиме, ГДж/ч (Гкал/ч);

Еисрi — среднее значение измеренной потребленной (переданной) тепловой мощности, ГДж/ч (Гкал/ч);

sтвEiТР — погрешность ТС при измерении прошедшей по трубопроводу тепловой мощности в i-том поверочном режиме, %;

sтвEi — погрешность ТС при измерении потребленной (переданной) тепловой мощности в i-том поверочном режиме, %.

Читайте также:  Модель измерения основные постулаты метрологии

Результаты поверки считаются положительными, если погрешности ТС при измерении количества тепловой энергии и тепловой мощности не превысили значений, приведенных в таблицах 3-5 приложения 3 настоящей инструкции.

Минимальное время одного измерения должно быть таким, чтобы при снятии показаний с дисплея или RS выхода было набрано не менее 0,5 ГДж (Гкал), а при снятии показаний с импульсного выхода — не менее 500 импульсов.

Для сокращения времени поверки допускается выполнять определение погрешности ТС только по импульсному выходу. При этом, измеренные значения, считанные с дисплея и RS выхода ТС, не должны отличаться от результата измерения по импульсному выходу более чем на единицу младшего разряда дисплея (RS выхода).

Источник

На сколько официально может врать автоматический тонометр. Вас это вряд ли порадует

В этом блоге мы довольно часто возвращаемся к теме точности современных тонометров, особенно автоматических. Сегодня предлагаю определить, на сколько им можно официально ошибаться.

Речь шла о том, что автоматический тонометр надо подбирать «под себя» с учетом особенностей своего организма. И в этом смысле ничего не меняется: например, если у вас есть тонометр, который точно показывает ваше давление, то это не значит , что он не будет врать у кого-то из ваших близких.

На сколько тонометр ошибается?

Согласно Приказу Минздрава от от 24.01.2003 г. № 4 единственным достоверным методом определения артериального давления является метод Короткова. Отмечается, что иные, в том числе измерения автоматическим тонометром, могут давать устойчивую погрешность от 5 до 15% !

Какие есть хитрости?

Согласно ГОСТ Р 51959.3-2002 (EN 1060-3-97), погрешность в устройствах (кроме тех, где используется стетофонендоскоп) может достигать, цитирую:

  • систематическая составляющая погрешности измерения — в пределах ±5 мм рт. ст. (±0,7 кПа)
  • случайная составляющая погрешности — среднеквадратическое отклонение ±8 мм рт. ст. (1,1 кПа)

Но есть нюанс ! В документациях на автоматические тонометры можно встретить формулировку, типа:

Погрешность составляет менее ±3 мм рт. ст.

Что такое погрешность 3 мм рт. ст.?

Если вы читаете эту фразу, то должны понимать, что речь идет не об измерении давления. Под данной цифрой имеется в виду погрешность индикации давления в манжете ! То есть на конечный результат это, бесспорно, может влиять, но к абсолютной погрешности не относится!

Международные стандарты

Так как большинство тонометров импортные, то соответствуют они также стандартам AAMI/ANSI (США) и BHS (Англия). Согласно этим стандартам допускается погрешность до 15 мм рт. ст . Описание тестирования, например, можно найти в работе к. мед. н. Федоровой С. И. и др.:

ТЕСТИРОВАНИЕ ОСЦИЛЛОМЕТРИЧЕСКОГО И АУСКУЛЬТАТИВНОГО РЕЖИМОВ РАБОТЫ МОНИТОРА МЭКГ-ДП-НС-01 ПО ПРОТОКОЛАМ ESH, BHS И AAMI, Альманах клинической медицины, 31, 2004

В частности, требования к точности в одном из тестирований описаны таким образом:

В 1-й части протокола требуется, чтобы выполнялись хотя бы два из следующих трех условий:

  • в 73 измерениях из 99 различие между измерением прибора и средним экспертным значением должно быть ≤5 мм рт. ст.
  • в 87 из 99 – ≤10 мм рт. ст.
  • в 96 из 99 – ≤15 мм рт. ст.

Для анализа использовались 99 измерений ( 33 пациента по 3 измерения ).

Обобщим

В итоге мы должны отметить, что диапазон допустимой официально погрешности может быть в пределах 15 единиц ! В этом случае тонометр все равно можно будет признать точным .

При этом все измерения желательно проводить, следуя правилам, которые также рекомендованы Минздравом. Об этом я писал тут:

При этом и они не могут быть гарантией, потому что каждый отдельный случай, пациент обладают рядом индивидуальных особенностей.

Источник

Основные технические и метрологические характеристики приборов для измерения давления

ОСНОВНЫЕ ХАРАКТЕРИСТИКИ ПРИБОРОВ:

1. ДИАПАЗОН ИЗМЕРЕНИЯ — это диапазон измерения давления, в котором нормируются метрологические характеристики. Диапазон измерений для краткости часто называют термином «шкала». Диапазон измерения ограничен верхним (ВПИ) и нижним (НПИ) пределами. Многие современные циф­ровые средства измерения позволяют перенастраивать свой предел измерения. Такие приборы называют многопредельными. Для них важной характеристикой являются пределы перенастройки диапазона измерений, ограниченные нижним пределом перенастройки НПП и верхним пределом перенастройки ВПП.

2. МЕТРОЛОГИЧЕСКИЕ ХАРАКТЕРИСТИКИ:
• п редел основной приведенной погрешности (ОПП) – это относительная погрешность средств измерения, выраженная абсолютной погрешностью средства измерения к условно принятому значению величины, постоянному во всем диапазоне измерений. Эта погрешность нормируется в нормальных условиях эксплуатации (температура 293К, статическое давление равно 0, отсутствует дрейф, перегрузка и другие возмущающие факторы).
• пределы дополнительных погрешностей, таких как влияние температуры, статического давления, односторонней перегрузки и т. п.
• стабильность — предел изменения метрологических характеристик за установленный период времени.
Предел основной погрешности в основном диапазоне перенастройки шкалы нормируется в % шкалы. Способы выражения остальных метрологических характеристик определяются изготовителем прибора.

3. РАБОЧИЕ УСЛОВИЯ ЭКСПЛУАТАЦИИ И НАДЕЖНОСТЬ — это условия, при которых гарантируется работоспособность прибора и нормируются его метрологические характеристики:
• пределы статического давления,
• диапазоны температур,
• характер измеряемой среды,
• диапазоны напряжений питания.

Читайте также:  Единица измерения один секрет

Важным условием применения современных датчиков давления является их надежность. Она определяется временем, при котором прибор сохраняет свою работоспособность и метрологические характеристики.

МЕТОДЫ И СРЕДСТВА ИЗМЕРЕНИЯ ДАВЛЕНИЯ:

Все методы измерения давления классифицируют по способу передачи давления на измерительный элемент. Различают:
• прямые (жидкостные, грузопоршневые). В них измеряемое давление воздействует непосредственно на измеритель. В приборах, изготовленных по этому принципу, давление уравновешивается массой столба жидкости (жидкостные манометры) или поршнем с грузом (грузопоршневые). Эти приборы используются в лабораторных усло­виях и в качестве эталонных средств измерения.
• косвенные (деформационно-механические, электромеханические и электронные). В приборах этого типа измерений давление воздействует на передающий элемент, который преобразует его в электрический сигнал или изменяет положение стрелки прибора.

КОСВЕННЫЕ МЕТОДЫ ИЗМЕРЕНИЯ ДАВЛЕНИЯ:

• механические, деформационные:
Принцип действия деформационного манометра основан на зависимости деформации чувствительного элемента или развиваемой им силы от измеряемого давления (ГОСТ 8.7271-77).
В деформационных манометрах упругими чувствительными элементами являются: трубчатая пружина, мембрана или мембранная коробка, сильфон.
Упругие чувствительные элементы широко применяются не только в деформационных манометрах, но и в электронных. Рабочее давление воздействует на упругий элемент (мембрану), которая через разделительную жидкость воздействует на электронный компонент прибора.
К основным метрологическим характеристикам упругих чувствительных элементов относятся: рабочий ход элемента, нелинейность упругой характеристики, гистерезис, чувствительность, изменение начального положения, постоянство упругой характеристики.
К достоинствам этих приборов относят их невысокую стоимость, простоту конструкции, отсутствие источника питания. К недостаткам: невысокую точность измерения, отсутствие выходного электрического сигнала.
Данные приборы используются в основном для индикации давления по месту измерения.

• электромеханические:
Принцип работы электромеханических приборов базируется на преобразовании перемещения чувствительного элемента в электрический сигнал. По сути, измеритель представляет собой механический манометр, соединенный с неким плунжером. Плунжер взаимодействует с электрическим полем, и его перемещение вызывает изменение этого поля.
Все недостатки механических методов измерения присущи и этому методу. Плюс недостатки электрокинематической связи. К достоинствам можно отнести преобразование давления в электрический сигнал.
На данный момент такие приборы сняты с производства. Их заменяют современные электронные датчики давления, которые обладают лучшими метрологическими характеристиками.

• электронные:
Электронный принцип измерения основан на изменении электрических характеристик чувствительного элемента. Приборы, действующие по этому принципу, преобразуют рабочее давление в выходной электрический сигнал. Главное отличие электронного принципа измерения от электромеханического – чрезвычайно малая деформация чувствительных элементов. Чувствительный элемент, часто называемый сенсором, определяет в основном технические характеристики измерительного прибора. В свою очередь, на технические характеристики сенсора, включая чувствительность, величину гистерезиса, нелинейность основной зависимости, оказывает влияние заложеный принцип преобразования.

Общая схема работы электронного преобразователя давления

ЭЛЕМЕНТЫ ДАТЧИКА:

• чувствительный элемент (сенсор), преобразующий давление в одну из электрических величин;
• узел приема давления, служащий для передачи давления от измеряемой среды сенсору, а также для его защиты от воздействия измеряемой среды и перегрузки;
• микропроцессорный электронный модуль, измеряющий сигнал сенсора, выполняющий его линеаризацию, коррекцию влияния паразитных факторов и преобразующий полученный результат в выходной сигнал. Кроме того, электронные модули современных датчиков давления выполняют еще целый ряд функций, таких как самодиагностика, местная индикация результатов измерений, коммуникация по цифровым протоколам, местная и дистанционная перенастройка диапазона измерений («нуля» и «шкалы») и т. д.

Главным элементом, определяющим метрологические и важнейшие технические характеристики датчика, является сенсор.

Параметры сенсора:
• принцип действия (физическое явление, на котором основано преобразование разности давлений в выходной сигнал сенсора);
• чувствительность (относительное изменение выходного сигнала сенсора при изменении разности давлений от нуля до ВПП);
• рабочий диапазон условий эксплуатации: давления и температуры;
• нелинейность (максимальное относительное отклонение статической характеристики сенсора от линейной);
• гистерезис;
• влияние температуры (максимальное относительное изменение статической характеристики при изменении температуры на определенную величину);
• влияние статического давления (максимальное относительное изменение статической характеристики сенсора при изменении статического давления на определенную величину);
• стабильность (максимальное относительное изменение статической характеристики сенсора за определенный промежуток времени).

Все характеристики сенсора определяются в первую очередь его принципом действия и в существенно меньшей степени совершенством технологии изготовления. На сегодняшний день в серийно выпускаемых датчиках разности давлений применяются четыре основных принципа измерения: тензорезистивный, пьезорезистивный, емкостный и резонансный.

ВЫХОДНЫЕ СИГНАЛЫ:

Выходные сигналы измерительных преобразователей давления, разрежения предназначены для автоматизации процесса измерения: связи с вторичными приборами, регуляторами, сигнализаторами и машинами централизованного и индивидуального контроля:
• токовый сигнал 4…20 мА. Р анее достаточно широко применялись токовые сигналы 0…5 и 0…20 мА. Расширение использования таких сигналов было затруднено сложностью контроля точки «нуль», которая в ряде измерительных схем могла быть как начальной точкой рабочего диапазона преобразования, так и обрывом или коротким замыканием цепи;
• цифровой код. Его форма и параметры определяются принятыми стандартами. Наибольшее распространение в качестве стандартов получили BRAIN-, HART-, PROFIBUS-, FOUNDATION FIELDBUS-протоколы.

Источник