Меню

Что называется измерением погрешностью измерений средствам измерений

Погрешность средств измерений

От погрешностей, присущих средствам измерений, зависит погрешность результата измерений той или иной физической величины. Погрешность средства измерений есть разница между значением величины, полученной при помощи этого средства, и истинным значением измеряемой величины. Поскольку истинное значение величины не известно, на практике вместо него пользуются действительным значением величины, полученным при помощи более точного средства измерений.

Погрешности средств измерений могут быть классифицированы следующим образом:

— по характеру появления и причинам – систематические и случайные;

— по отношению к условию применения – основные и дополнительные;

— по способу (форме) числового выражения – абсолютные, относительные и приведенные.

Систематической погрешностью средства измерения называется составляющая погрешности, остающаяся постоянной или закономерно изменяющаяся при повторных измерениях одной и той же величины. Происхождение и характер этих погрешностей известен и выявляется в результате многократных измерений одной и той же величины. Влияние этих погрешностей исключается путем введением поправок, определяемых расчетным или опытным путем.

Случайной погрешностью средства измерения называется составляющая погрешности, изменяющиеся случайным образом при повторных измерениях одной и той же величины. Она возникает в результате влияния на средства измерений таких случайных факторов как вибрация, наличие электромагнитных полей, изменение органов чувств наблюдателя. Они не могут быть исключены опытным путем. Для учета случайных погрешностей одну и ту же величину измеряют много раз данным средством измерений. К полученному ряду значений применимы теории вероятности и математической статистики, на основании которых оценивается случайная составляющая погрешности средств измерений.

Основная погрешность – это погрешность средства измерения, используемого в нормальных условиях, которые обычно определены в нормативно-технической документации на данное средство измерения.

Под дополнительными погрешностями понимают изменение погрешности средств измерений вследствие отклонения влияющих величин от нормальных значений.

Абсолютная погрешность измерительного прибора – это разность между показаниями прибора и истинным (действительным) значением измеряемой величины:

Х =

где ХП – показания прибора;

Хд – действительное значение измеряемой величины. За действительное значение измеряемой величины принимают показания образцового прибора.

Относительная погрешность прибора – это отношение абсолютной погрешности измерительного прибора к истинному (действительному) значению измеряемой величины, %:

Приведенная погрешность измерительного прибора — это отношение абсолютной погрешности измерительного прибора к нормирующему значению. нормирующее значение – условно принятое значение ХN, равное или верхнему пределу измерения, или диапазону измерений, или длине шкалы. Приведенную погрешность обычно выражают в %:

Точность СИ – характеристика качества средства измерений, отражающая близость его погрешности к нулю. Класс точности СИ – это обобщенная характеристика данного типа СИ, как правило, отражающая уровень их точности, выражается пределами допускаемых основных и дополнительных погрешностей, а также другими характеристиками, влияющими на точность. Класс точности дает возможность судить о том, в каких пределах находится погрешность СИ данного типа, но не является непосредственным показателем точности измерений, выполняемых с помощью каждого из этих средств. Класс точности средств измерений конкретного типа устанавливается в стандартах, технических условиях или других нормативных документах.

В соответствии с основными нормативами документации (ГОСТ 12997-76 «Государственная система промышленных приборов и средств автоматизации. Технические условия») основной метрологической характеристикой измерительного прибора является класс точности , который является обобщенной характеристикой средств измерений, определяющей пределы допускаемых основных и дополнительных погрешностей. Под пределом допускаемой погрешности понимается наибольшая (без учета знака) погрешность средства измерений при которой оно может быть признано годным к эксплуатации.

ГОСТ 8.401-80 регламентирует способы значения классов точности в зависимости от способа выражения пределов допускаемых погрешностей средств измерений. Этим стандартом предусматривается выражение предельно допускаемых погрешностей средств измерений в виде абсолютных и приведенных погрешностей.

Абсолютная погрешность выражается

(1)

, (2)

где — предел допускаемой абсолютной погрешности, выражаемой в единицах на входе (выходе);

а – положительное число, выраженное в тех же единицах, что и

х – значение величины на входе (выходе) средств измерений;

в — отвлеченное положительное число.

Читайте также:  Эффективное средство для восстановления лактации

Относительная погрешность выражается формулой:

(3)

, (4)

где — предел допускаемой относительной погрешности %;

с,d – относительные величины;

хк – конечное значение диапазона измерения прибора.

Приведенную погрешность определяют по формуле:

(5)

где — предел допускаемой приведенной погрешности, %;

хN – нормирующее значение, равное или верхнему пределу измерений или диапазону измерений, или длине шкалы.

Для измерительных приборов предельные допускаемые погрешности которых выражены как приведенные погрешности согласно выражению (5), должны быть присвоены классы точности, выбираемые из ряда чисел:

(1; 1.5; 2; 2.5; 3; 4; 5; 6) 10 n , где n = (1.0; 0; -1; -2; и т.д.) Класс точности прибора устанавливают при выпуске, градуируя его по образцовому прибору в нормальных условиях.

Для измерительных приборов, предел допускаемых погрешностей которых выражается относительной погрешностью в процентах, согласно выражению (4) класс точности определяется совокупностью значений с и d. Тогда условные обозначения состоят из двух чисел, разделенных косой чертой и равных с и d.

Таким образом, для большинства применяемых в практике приборов используются одночленные или двучленные обозначения класса точности. Например, обозначение класса точности 0,5 показывает, что пределы допускаемых погрешностей выражаются в процентах нормирующего значения. Обозначение класса точности 0,1/0,2 означает что предел допускаемой относительной погрешности в процентах значения измеряемой величины определяется формулой

,

где с = 0,1 d = 0,02

Статические погрешности СИ возникают при измерении физической величины, принимаемой за неизменную. Динамические погрешности средств измерений возникают при измерении изменяющейся во времени (в процессе измерений) физической величины.

На обеспечение качества измерений направлено применение аттестованных методик выполнения измерений (МВИ) – ГОСТ 8.563-96 «ГСИ. Методики выполнения измерений».

Методика выполнения измерений – это совокупность операций и правил, выполнение которых обеспечивает получение результатов измерений с известной погрешностью. МВИ – это, как правило, документированная измерительная процедура. МВИ может быть изложена в отдельном документе (стандарте, рекомендации), разделе стандарта, части технического документа (разделе ТУ, паспорта).

Аттестация МВИ – процедура установления и подтверждения соответствия МВИ предъявляемым к ней метрологическим требованиям. В документах, регламентирующих МВИ в общем случае указывают: назначение МВИ; условия выполнения измерений; требования к погрешности измерений; метод измерений; требования к средствам измерения, вспомогательным устройствам, материалам и т.п.; операции при подготовке к выполнению измерений; операции при выполнении измерений; операции обработки и вычисления результатов измерений; нормативы и процедуру контроля погрешности результатов выполняемых измерений; требования к квалификации операторов; требования к безопасности выполняемых работ.

Источник



Погрешности измерений и средств измерений

В настоящее время измерение является неотъемлемой частью практически любой деятельности человека. Фак­тически измерения — это процесс, завершающим этапом которого является «результат измерения». Любой результат измерения содержит погрешность, которая складывается из ряда факторов.

Погрешность результатов измерения является важной характеристикой измерения, она вычисляется или оцени­вается, или приписывается полученному результату.

Погрешность результата измерения— это отклонение результата измерений изм) от истинного (действитель­ного) значения ист(действ) измеряемой величины. Чаще всего она указывает границы неопределенности значения измеряемой величины. Погрешность средства измере­ния— разность между показанием средства измерения и истинным (действительным) значением измеряемой величины. Она характеризует точность результатов изме­рений, проводимых данным средством. Эти два понятия во многом близки друг другу и классифицируются по одинаковым признакам. По форме представления по­грешности разделяются на абсолютные, относительные и приведенные.

Погрешность измерений, как правило, представляют в виде абсолютной погрешности, выраженной в единицах измеряемой величины

или в виде относительной погрешности— отношения аб­солютной погрешности к истинному (действительному) значению измеряемой величины или принятому опорному значению (ГОСТ Р ИСО 5725)

или в процентах

δ

Для указания и нормирования погрешности средств измерений используется еще одна разновидность погреш­ности — приведенная. Приведенная погрешность средства измерений — это относительная погрешность, выраженная отношением абсолютной погрешности средства измерений к условно принятому значению величины, постоянному во всем диапазоне измерений или в части диапазона:

Читайте также:  Дезинфицирующие средства дезарин инструкция

γ*100%

По закономерностям проявления погрешности изме­рений делятся на систематические и случайные.

Систематическая погрешность —одна из составляю­щихпогрешности результата измерения, остающаяся пос­тоянной или закономерно изменяющейся при повторных измерениях одной и той же измеряемой величины, Эти погрешности могут быть выявлены, изучены и результат измерения может быть уточнен путем введения поправок, если числовые значения этих погрешностей определены, или путем исключения влияния этой систематической погрешности без ее определения. Чем меньше система­тическая погрешность, тем ближе результат измерения к истинному значению измеряемой величины, тем выше качество и правильность измерений. Систематическая погрешность данного средства измерений, как правило, отличается от систематической погрешности другого эк­земпляра средства измерений этого же типа.

В зависимости от характера изменения систематичес­кие погрешности подразделяют на постоянные и пере­менные.

Наиболее часто встречаются постоянные погрешности, которые сохраняют свое значение в течение всего периода выполнения измерений.

Переменные погрешности — это погрешности, изме­няющие свое значение в процессе измерения. Они могут быть непрерывно возрастающими или убывающими. Эти по­грешности определяются процессами износа или старения узлов и деталей средств измерения. К ним могут относиться погрешности от износа контактирующих деталей средств измерения, старения отдельных элементов (конденсаторов, резисторов и т.д.) средств измерения. В настоящее время существует много способов опреде­ления систематической погрешности средств измерений.

Один из них — это сравнение результатов измерения одной и той же величины, полученных с помощью изу­чаемого и эталонного средства измерения.

Случайными называются погрешности, изменяющиеся случайным образом (по знаку и значению) при одинако­вых повторных измерениях одной и той же величины. Эта погрешность возникает в результате влияния на процесс измерения многочисленных случайных факторов, учесть которые достаточно сложно. Случайные погрешности поэтому не могут быть исключены из результата измере­ния в отличие от систематических..

К случайным погрешностям, как правило, относится и промах(грубая погрешность измерений), характеризую­щийся тем, что погрешность результата отдельного изме­рения, входящего в ряд измерений, для данных условий резко отличается от остальных результатов этого ряда. Причинами этого вида погрешностей являются ошибки оператора, неисправность измерительных приборов резкое изменение условий наблюдения, ошибки в записях и вычислениях и др.

По условиям проведения измерений погрешности средств измерений разделяются на основныеи дополни­тельные.

Основной называется погрешностьсредства измере­ний, применяемого в установленных условиях, которые называются нормальными. Эти условия устанавливаются в нормативно-технических документах на данный вид или тип средств измерений (температура окружающей среды, влажность, давление, напряжение питающей электричес­кой сети и др.) и при них нормируется его погрешность. Значения погрешностей средств измерений, эксплуати­руемых в условиях, отличающихся от нормальных, будут различными и плохо контролируемыми. Составляющая погрешности средства измерений, возникающая дополни­тельно к основной погрешности вследствие отклонения какой-либо из влияющих величин от нормального его значения или вследствие ее выхода за пределы нормаль­ной области значений, называется дополнительной погреш­ностью.

Инструментальная погрешностьобусловлена несо­вершенством средств измерений и его конструктивными особенностями. Иногда эту погрешность называют приборной или аппаратурной.

Методическая погрешностьобусловлена несовершенством и недостатками применяемого в средстве измерений метода измерений и упрощений при разработке конструк­ции средства измерений, а также возможными недостат­ками методик измерений.

Субъективная (личная) погрешностьизмерения обус­ловлена погрешностью отсчета оператором показаний по шкале средства измерений вследствие индивидуальных особенностей оператора (внимание, зрение, подготовка и др.). Эти погрешности практически отсутствуют при использовании автоматических или автоматизированных средств измерений.

По характеру измерения величины погрешности сред­ства измерений разделяются на статические и динами­ческие.

Источник

Погрешности измерений

Погре́шность измере́ния — оценка отклонения величины измеренного значения величины от её истинного значения. Погрешность измерения является характеристикой (мерой) точности измерения.

Поскольку выяснить с абсолютной точностью истинное значение любой величины невозможно, то невозможно и указать величину отклонения измеренного значения от истинного. (Это отклонение принято называть ошибкой измерения. В ряде источников, например, в БСЭ, термины ошибка измерения и погрешность измерения используются как синонимы.) Возможно лишь оценить величину этого отклонения, например, при помощи статистических методов. При этом за истинное значение принимается среднестатистическое значение, полученное при статистической обработке результатов серии измерений. Это полученное значение не является точным, а лишь наиболее вероятным. Поэтому в измерениях необходимо указывать, какова их точность. Для этого вместе с полученным результатом указывается погрешность измерений. Например, запись T=2.8±0.1 c. означает, что истинное значение величины T лежит в интервале от 2.7 с. до 2.9 с. некоторой оговоренной вероятностью (см. доверительный интервал, доверительная вероятность, стандартная ошибка).

Читайте также:  Средства индивидуализации юридического лица что это такое

В 2006 году на международном уровне был принят новый документ, диктующий условия проведения измерений и установивший новые правила сличения государственных эталонов. Понятие «погрешность» стало устаревать, вместо него было введено понятие «неопределенность измерений».

Содержание

Определение погрешности

В зависимости от характеристик измеряемой величины для определения погрешности измерений используют различные методы.

  • Метод Корнфельда, заключается в выборе доверительного интервала в пределах от минимального до максимального результата измерений, и погрешность как половина разности между максимальным и минимальным результатом измерения:

  • Средняя квадратическая погрешность:

  • Средняя квадратическая погрешность среднего арифметического:

Классификация погрешностей

По форме представления

  • Абсолютная погрешность — ΔX является оценкой абсолютной ошибки измерения. Величина этой погрешности зависит от способа её вычисления, который, в свою очередь, определяется распределением случайной величины Xmeas . При этом равенство:

где Xtrue — истинное значение, а Xmeas — измеренное значение, должно выполняться с некоторой вероятностью близкой к 1. Если случайная величина Xmeas распределена по нормальному закону, то, обычно, за абсолютную погрешность принимают её среднеквадратичное отклонение. Абсолютная погрешность измеряется в тех же единицах измерения, что и сама величина.

  • Относительная погрешность — отношение абсолютной погрешности к тому значению, которое принимается за истинное:

.

Относительная погрешность является безразмерной величиной, либо измеряется в процентах.

  • Приведенная погрешность — относительная погрешность, выраженная отношением абсолютной погрешности средства измерений к условно принятому значению величины, постоянному во всем диапазоне измерений или в части диапазона. Вычисляется по формуле

,

где Xn — нормирующее значение, которое зависит от типа шкалы измерительного прибора и определяется по его градуировке:

— если шкала прибора односторонняя, т.е. нижний предел измерений равен нулю, то Xn определяется равным верхнему пределу измерений;
— если шкала прибора двухсторонняя, то нормирующее значение равно ширине диапазона измерений прибора.

Приведенная погрешность — безразмерная величина (может измеряться в процентах).

По причине возникновения

  • Инструментальные / приборные погрешности — погрешности, которые определяются погрешностями применяемых средств измерений и вызываются несовершенством принципа действия, неточностью градуировки шкалы, ненаглядностью прибора.
  • Методические погрешности — погрешности, обусловленные несовершенством метода, а также упрощениями, положенными в основу методики.
  • Субъективные / операторные / личные погрешности — погрешности, обусловленные степенью внимательности, сосредоточенности, подготовленности и другими качествами оператора.

В технике применяют приборы для измерения лишь с определенной заранее заданной точностью – основной погрешностью, допускаемой нормали в нормальных условиях эксплуатации для данного прибора.

Если прибор работает в условиях, отличных от нормальных, то возникает дополнительная погрешность, увеличивающая общую погрешность прибора. К дополнительным погрешностям относятся: температурная, вызванная отклонением температуры окружающей среды от нормальной, установочная, обусловленная отклонением положения прибора от нормального рабочего положения, и т.п. За нормальную температуру окружающего воздуха принимают 20°С, за нормальное атмосферное давление 01,325 кПа.

Обобщенной характеристикой средств измерения является класс точности, определяемый предельными значениями допускаемых основной и дополнительной погрешностей, а также другими параметрами, влияющими на точность средств измерения; значение параметров установлено стандартами на отдельные виды средств измерений. Класс точности средств измерений характеризует их точностные свойства, но не является непосредственным показателем точности измерений, выполняемых с помощью этих средств, так как точность зависит также от метода измерений и условий их выполнения. Измерительным приборам, пределы допускаемой основной погрешности которых заданы в виде приведенных основных (относительных) погрешностей, присваивают классы точности, выбираемые из ряда следующих чисел: (1; 1,5; 2,0; 2,5; 3,0; 4,0; 5,0; 6,0)*10n, где n = 1; 0; -1; -2 и т.д.

Источник