Сообщение на тему погрешность измерений

Обновлено: 02.07.2024

Всякий процесс измерения независимо от условий, в которых его про­водят, сопряжен с погрешностями, которые искажают представление о действительном значении измеряемой величины.

Погрешностью называют отличие между объективно существующим истинным значением физической величины и найденным в результате измерения действительным значением физической величины.

Истинное значение физической величины идеальным образом отражает соответствующее свойство объекта. Практически получено быть не может.

Действительное значение физической величины находится как результат измерения и приближается к истинному значению настолько, что для данной цели может применяться вместо него.

Источниками появления погрешностей при измерениях могут служить различные факторы, основными из которых являются: несовершенство конструкции средств измерений или принципиальной схемы метода измерения; неточность изготовления средств измерений; несоблюдение внешних условий при измерениях; субъективные погрешности и др.

Метрология как наука и область практической деятельности человека зародилась в глубокой древности. На всем пути развития человеческого общества измерения были основой взаимоотношений людей между собой, с окружающими предметами, с природой. При этом вырабатывались определенные представления о размерах, формах, свойствах предметов и явлений, а также правила и способы их сопоставления.

С течением времени и развитием производства ужесточились требования к качеству метрологической информации, что привело в итоге к созданию системы метрологического обеспечения деятельности человека.
В данной работе мы рассмотрим одно из направлений метрологического обеспечения - метрологическое обеспечение деятельности по сертификации и стандартизации продукции в Российской Федерации.

Погрешность измерений

Метрология – наука об измерениях, методах средствах обеспечения их единства и способах достижения требуемой точности.

Измерение – нахождение значения физической величины опытным путем с помощью спец тех средств.

Значение физической величины это - количественная оценка, т.е. число, выраженное в определенных единицах, принятых для данной величины. Отклонение результата измерения от истинного значения физической величины называют погрешностью измерения:

где А – измеренное значение, А0 – истинное.

Так как истинное значение неизвестно, то погрешность измерения оценивают исходя из свойств прибора, условий эксперимента, анализа полученных результатов.

Обычно объекты исследования обладают бесконечным множеством свойств. Такие свойства называют существенными или основными. Выделение существенных свойств называют выбором модели объекта. Выбрать модель - значит установить измеряемые величины, в качестве которых принимают параметры модели.

Идеализация, присутствующая при построении модели, обуславливает несоответствие между параметром модели и реальным свойством объекта. Это приводит к погрешности. Для измерений необходимо, чтобы погрешность была меньше допустимых норм.

Виды, методы и методики измерений.

В зависимости от способа обработки экспериментальных данных различают прямые, косвенные, совокупные и совместные измерения.

Прямые - измерение, при котором искомое значение величины находят непосредственно из опытных данных (измерение напряжения вольтметром).

Косвенные - измерение, при котором искомое значение величины вычисляется по результатам прямых измерений других величин (коэффициент усиления усилителя вычисляют по измеренным значениям входного и выходного напряжений).

Результат, полученный в процессе измерения физической величины на некотором временном интервале - наблюдением. В зависимости от свойств исследуемого объекта, свойств среды, измерительного прибора и других причин измерения выполняют с однократным или многократным наблюдениями. В последнем случае для получения результата измерения требуется статистическая обработка наблюдений, а измерения называют статистическими.

В зависимости от точности оценки погрешности различают измерения с точным или с приближенным оцениванием погрешности. В последнем случае учитывают нормированные данные о средствах и приближенно оценивают условия измерений. Таких измерений большинство. Метод измерения – совокупность средств и способов их применения.

Числовое значение измеряемой величины определяют путем её сравнения с известной величиной - мерой.

Методика измерений - установленная совокупность операций и правил, выполнение которых обеспечивает получение результата измерений в соответствии с выбранным методом.

Измерение – единственный источник информации о свойствах физических объектов и явлений. Подготовка к измерениям включает:

· анализ поставленной задачи;

· создание условий для измерений;

· выбор средств и методов измерений;

· опробование средств измерений.

Достоверность результатов измерений зависит от условий, в которых выполнялись измерения.

Условия – это совокупность величин, влияющих на значение результатов измерения. Влияющие величины разделяются на следующие группы: климатические, электрические и магнитные (колебания электрического тока, напряжения в сети), внешние нагрузки (вибрации, ударные нагрузки, внешние контакты приборов). Для конкретных областей измерений устанавливают единые нормальные условия. Значение физической величины, соответствующее нормальному, называют номинальным. При выполнении точных измерений применяют специальные средства защиты, обеспечивающие нормальные условия.

Организация измерений имеет большое значение для получения достоверного результата. Это в значительной мере зависит от квалификации оператора, его технической и практической подготовки, проверки средств измерений до начала измерительного процесса, а также выбранной методики проведения измерений. Во время выполнения измерений оператору необходимо:

· соблюдать правила по технике безопасности при работе с измерительными приборами;

· следить за условиями измерений и поддерживать их в заданном режиме;

· тщательно фиксировать отсчеты в той форме, в которой они получены;

· вести запись показаний с числом цифр после запятой на две больше, чем требуется в окончательном результате;

· определять возможный источник систематических погрешностей.

Принято считать, что погрешность округления при снятии отсчета оператором не должна изменять последнюю значащую цифру погрешности окончательного результата измерений. Обычно ее принимают равной 10 % от допускаемой погрешности окончательного результата измерений. В противном случае число измерений увеличивают настолько, чтобы погрешность округления удовлетворяла указанному условию. Единство одних и тех же измерений обеспечивается едиными правилами и способами их выполнения.

Слагаемые делят на погрешность меры, погрешность преобразования, погрешность сравнения, погрешность фиксации результата. В зависимости от источника возникновения могут быть:

· погрешности метода (из-за неполного соответствия принятого алгоритма математическому определению параметра);

· инструментальные погрешности (из-за того, что принятый алгоритм не может быть точно реализован практически);

· внешние ошибки - обусловлены условиями, в которых проводятся измерения;

· субъективные ошибки - вносятся оператором (неправильный выбор модели, ошибки отсчитывания, интерполяции и т.д.).

В зависимости от условий применения средств выделяют:

· основную погрешность средства, которая имеет место при нормальных условиях (температура, влажность, атмосферное давление, напряжение питания и т.д.), оговоренных ГОСТ;

· дополнительную погрешность, которая возникает при отклонении условий от нормальных.

В зависимости от характера поведения измеряемой величины различают:

· статическую погрешность - погрешность средства при измерении постоянной величины;

· погрешность средства измерения в динамическом режиме. Она возникает при измерении переменной во времени величины, из-за того, что время установления переходных процессов в приборе больше интервала измерения измеряемой величины. Динамическая погрешность определяется как разность между погрешностью измерения в динамическом режиме и статической погрешностью.

По закономерности проявления различают:

· систематическую погрешность - постоянную по величине и знаку, проявляющуюся при повторных измерениях (погрешность шкалы, температурная погрешность и т.д.);

· случайную погрешность - изменяющуюся по случайному закону при повторных измерениях одной и той же величины;

· грубые погрешности (промахи) следствие небрежности или низкой квалификации оператора, неожиданных внешних воздействий.

По способу выражения различают:

· абсолютную погрешность измерения, определяемую в единицах измеряемой величины, как разность между результатом измерения А и истинным значением А0 :

· относительную погрешность - как отношение абсолютной погрешности измерения к истинному значению:

Так как А0n , то на практике в вместо А0 подставляют Ап .

Абсолютную погрешность измерительного прибора

где Ап - показания прибора;

Относительную погрешность прибора:

Приведенную погрешность измерительного прибора

где L - нормирующее значение, равное конечному значению рабочей части шкалы, если нулевая отметка находится на краю шкалы; арифметической сумме конечных значений шкалы (без учета знака), если нулевая отметка находится внутри рабочей части шкалы; всей длине логарифмической или гиперболической шкалы.

Точность и достоверность результатов измерений

Точность измерений - степень приближения измерения к действительному значению величины.

Достоверность – это характеристика знаний как обоснованных, доказанных, истинных. В экспериментальном естествознании достоверными знаниями считаются те, которые получили документальное подтверждение в ходе наблюдений и экспериментов. Наиболее полным и глубоким критерием достоверности знаний является общественно-историческая практика. Достоверные знания следует отличать от вероятностных знаний, соответствие которых действительности утверждается только в качестве возможной характеристики.

Достоверность измерений – это показатель степени доверия к результатам измерения, то есть вероятность отклонений измерения от действительных значений. Точность и достоверность измерений определяются погрешностью из-за несовершенства методов и средств измерений, тщательности проведения опыта, субъективных особенностей и квалификации экспериментаторов и других факторов.

Государственная система приборов.

Повышение требований к количеству и качеству средств измерений для нужд народного хозяйства привело к созданию Государственной системы промышленных приборов и средств автоматизации (ГСП). ГСП – это совокупность изделий, предназначенных для использования в промышленности в качестве технических средств автоматических и автоматизированных систем контроля, измерения, регулирования и управления технологическими процессами (АСУТП). С помощью средств ГСП измеряются и регулируются величины: пространства и времени, механические, электрические, магнитные, тепловые и световые.

Развитие науки и техники обуславливает повышение роли измерений. Количество средств и методов измерения непрерывно возрастает, при этом важно, чтобы количественное и качественное развитие метрологии происходило в рамках единства измерении, под которым понимают представление результатов в узаконенных единицах с указанием значения и характеристик погрешностей.

В деятельности по метрологическому обеспечению участвуют не только метрологи, т.е. лица или организации, ответственные за единство измерений, но и каждый специалист: или как потребитель количественной информации, в достоверности которой он заинтересован, или как участник процесса её получения и обеспечения измерений.

Современной состояние системы метрологического обеспечения требует высокой квалификации специалистов. Механическое перенесение зарубежного опыта в отечественные условия невозможно, и специалистам необходимо иметь достаточно широкий кругозор, чтобы творчески подходить к выработке и принятию творческих решений на основе измерительной информации. Это касается не только работников производственной сферы. Знания в области метрологии важны и для специалистов по сбыту, менеджеров, экономистов, которые должны использовать достоверную измерительную информацию в своей деятельности.

Список использованной литературы

1. Под ред. В. А. Швандара, Стандартизация и управление качеством продукции: Учебник для ВУЗов, В. Пейджер, Е. М. Купряков и др.; - М.: Юнити-Дана, 2000;

Неотъемлемой частью любого измерения является погрешность измерений. С развитием приборостроения и методик измерений человечество стремиться снизить влияние данного явления на конечный результат измерений. Предлагаю более детально разобраться в вопросе, что же это такое погрешность измерений.

Погрешность измерения – это отклонение результата измерения от истинного значения измеряемой величины. Погрешность измерений представляет собой сумму погрешностей, каждая из которых имеет свою причину.

По форме числового выражения погрешности измерений подразделяются на абсолютные и относительные

Абсолютная погрешность – это погрешность, выраженная в единицах измеряемой величины. Она определяется выражением.

(1.2), где X — результат измерения; Х0 — истинное значение этой величины.

Поскольку истинное значение измеряемой величины остается неизвестным, на практике пользуются лишь приближенной оценкой абсолютной погрешности измерения, определяемой выражением

(1.3), где Хд — действительное значение этой измеряемой величины, которое с погрешностью ее определения принимают за истинное значение.

Относительная погрешность – это отношение абсолютной погрешности измерения к действительному значению измеряемой величины:

(1.4)

По закономерности появления погрешности измерения подразделяются на систематические, прогрессирующие, и случайные .

Систематическая погрешность – это погрешность измерения, остающаяся постоянной или закономерно изменяющейся при повторных измерениях одной и той же величины.

Прогрессирующая погрешность – это непредсказуемая погрешность, медленно меняющаяся во времени.

Систематические и прогрессирующие погрешности средств измерений вызываются:

  • первые — погрешностью градуировки шкалы или ее небольшим сдвигом;
  • вторые — старением элементов средства измерения.

Систематическая погрешность остается постоянной или закономерно изменяющейся при многократных измерениях одной и той же величины. Особенность систематической погрешности состоит в том, что она может быть полностью устранена введением поправок. Особенностью прогрессирующих погрешностей является то, что они могут быть скорректированы только в данный момент времени. Они требуют непрерывной коррекции.

Случайная погрешность – это погрешность измерения изменяется случайным образом. При повторных измерениях одной и той же величины. Случайные погрешности можно обнаружить только при многократных измерениях. В отличии от систематических погрешностей случайные нельзя устранить из результатов измерений.

По происхождению различают инструментальные и методические погрешности средств измерений.

Инструментальные погрешности — это погрешности, вызываемые особенностями свойств средств измерений. Они возникают вследствие недостаточно высокого качества элементов средств измерений. К данным погрешностям можно отнести изготовление и сборку элементов средств измерений; погрешности из-за трения в механизме прибора, недостаточной жесткости его элементов и деталей и др. Подчеркнем, что инструментальная погрешность индивидуальна для каждого средства измерений.

Методическая погрешность — это погрешность средства измерения, возникающая из-за несовершенства метода измерения, неточности соотношения, используемого для оценки измеряемой величины.

Погрешности средств измерений.

Абсолютная погрешность меры – это разность между номинальным ее значением и истинным (действительным) значением воспроизводимой ею величины:

(1.5), где Xн – номинальное значение меры; Хд – действительное значение меры

Абсолютная погрешность измерительного прибора – это разность между показанием прибора и истинным (действительным) значением измеряемой величины:

(1.6), где Xп – показания прибора; Хд – действительное значение измеряемой величины.

Относительная погрешность меры или измерительного прибора – это отношение абсолютной погрешности меры или измерительного прибора к истинному

(действительному) значению воспроизводимой или измеряемой величины. Относительная погрешность меры или измерительного прибора может быть выражена в ( % ).

(1.7)

Приведенная погрешность измерительного прибора – отношение погрешности измерительного прибора к нормирующему значению. Нормирующие значение XN – это условно принятое значение, равное или верхнему пределу измерений, или диапазону измерений, или длине шкалы. Приведенная погрешность обычно выражается в ( % ).

(1.8)

Предел допускаемой погрешности средств измерений – наибольшая без учета знака погрешность средства измерений, при которой оно может быть признано и допущено к применению. Данное определение применяют к основной и дополнительной погрешности, а также к вариации показаний. Поскольку свойства средств измерений зависят от внешних условий, их погрешности также зависят от этих условий, поэтому погрешности средств измерений принято делить на основные и дополнительные .

Основная – это погрешность средства измерений, используемого в нормальных условиях, которые обычно определены в нормативно-технических документах на данное средство измерений.

Дополнительная – это изменение погрешности средства измерений вследствии отклонения влияющих величин от нормальных значений.

Погрешности средств измерений подразделяются также на статические и динамические .

Статическая – это погрешность средства измерений, используемого для измерения постоянной величины. Если измеряемая величина является функцией времени, то вследствие инерционности средств измерений возникает составляющая общей погрешности, называется динамической погрешностью средств измерений.

Также существуют систематические и случайные погрешности средств измерений они аналогичны с такими же погрешностями измерений.

Факторы влияющие на погрешность измерений.

Погрешности возникают по разным причинам: это могут быть ошибки экспериментатора или ошибки из-за применения прибора не по назначению и т.д. Существует ряд понятий которые определяют факторы влияющие на погрешность измерений

Вариация показаний прибора – это наибольшая разность показаний полученных при прямом и обратном ходе при одном и том же действительном значении измеряемой величины и неизменных внешних условиях.

Класс точности прибора – это обобщенная характеристика средств измерений (прибора), определяемая пределами допускаемых основной и дополнительных погрешностей, а также другими свойствами средств измерений, влияющих на точность, значение которой устанавливаются на отдельные виды средств измерений.

Классы точности прибора устанавливают при выпуске, градуируя его по образцовому прибору в нормальных условиях.

Прецизионность — показывает, как точно или отчетливо можно произвести отсчет. Она определяется, тем насколько близки друг к другу результаты двух идентичных измерений.

Разрешение прибора — это наименьшее изменение измеряемого значения, на которое прибор будет реагировать.

Диапазон прибора — определяется минимальным и максимальным значением входного сигнала, для которого он предназначен.

Полоса пропускания прибора — это разность между минимальной и максимальной частотой, для которых он предназначен.

Чувствительность прибора — определяется, как отношение выходного сигнала или показания прибора к входному сигналу или измеряемой величине.

Погрешность измерений. Виды погрешностей.

В практике использования измерений очень важным показателем становится их точность, которая представляет собой ту степень близости итогов измерения к некоторому действительному значению, которая используется для качественного сравнения измерительных операций. А в качестве количественной оценки, как правило, используется погрешность измерений.

Разница между результатом измерения и истинным значением измеряемой величины называется погрешностью измерения.

Причем чем погрешность меньше, тем считается выше точность.

Согласно закону теории погрешностей, если необходимо повысить точность результата (при исключенной систематической погрешности) в 2 раза, то число измерений необходимо увеличить в 4 раза; если требуется увеличить точность в 3 раза, то число измерений увеличивают в 9 раз и т. д.

Процесс оценки погрешности измерений считается одним из важнейших мероприятий в вопросе обеспечения единства измерений. Естественно, что факторов, оказывающих влияние на точность измерения, существует огромное множество. Следовательно, любая классификация погрешностей измерения достаточно условна, поскольку нередко в зависимости от условий измерительного процесса погрешности могут проявляться в различных группах.

Выделяют следующие виды погрешностей:

1) абсолютная погрешность;

2) относительна погрешность;

3) приведенная погрешность;

4) основная погрешность;

5) дополнительная погрешность;

6) систематическая погрешность;

7) случайная погрешность;

8) инструментальная погрешность;

9) методическая погрешность;

10) личная погрешность;

11) статическая погрешность;

12) динамическая погрешность.

Абсолютная погрешность – это значение, вычисляемое как разность между значением величины, полученным в процессе измерений, и настоящим (действительным) значением данной величины.

Абсолютная погрешность вычисляется по следующей формуле:

где AQn – абсолютная погрешность;

Qn – значение некой величины, полученное в процессе измерения;

Q0 – значение той же самой величины, принятое за базу сравнения (настоящее значение).

Относительная погрешность – это число, отражающее степень точности измерения.

Относительная погрешность вычисляется по следующей формуле:


где ΔQ – абсолютная погрешность;

Q0 – настоящее (действительное) значение измеряемой величины.

Относительная погрешность выражается в процентах.

Приведенная погрешность – это значение, вычисляемое как отношение значения абсолютной погрешности к нормирующему значению.

Инструментальная погрешность – это погрешность, возникающая из—за допущенных в процессе изготовления функциональных частей средств измерения ошибок.

Методическая погрешность – это погрешность, возникающая по следующим причинам:

1) неточность построения модели физического процесса, на котором базируется средство измерения;

2) неверное применение средств измерений.

Субъективная погрешность – это погрешность возникающая из-за низкой степени квалификации оператора средства измерений, а также из-за погрешности зрительных органов человека, т. е. причиной возникновения субъективной погрешности является человеческий фактор.

Погрешности по взаимодействию изменений во времени и входной величины делятся на статические и динамические погрешности.

Неточность градуировки, конструктивные несовершенства, изменения характеристик прибора в процессе эксплуатации и т. д. являются причинами основных погрешностей инструмента измерения.

Дополнительные погрешности, связанные с отклонением условий, в которых работает прибор, от нормальных, отличают от инструментальных (ГОСТ 8.009-84), т. к. они связаны скорее с внешними условиями, чем с самим прибором.

Систематическая погрешность – это составляющая погрешности измерения, остающаяся постоянной или закономерно изменяющаяся при повторных измерениях одной и той же величины. Причинами появления систематической погрешности могут являться неисправности средств измерений, несовершенство метода измерений, неправильная установка измерительных приборов, отступление от нормальных условий их работы, особенности самого оператора.




Статическая погрешность – это погрешность, которая возникает в процессе измерения постоянной (не изменяющейся во времени) величины.

Динамическая погрешность – это погрешность, численное значение которой вычисляется как разность между погрешностью, возникающей при измерении непостоянной (переменной во времени) величины, и статической погрешностью (погрешностью значения измеряемой величины в определенный момент времени).

Случайная погрешность – это составная часть погрешности результата измерения, изменяющаяся случайно, незакономерно при проведении повторных измерений одной и той же величины. Появление случайной погрешности нельзя предвидеть и предугадать. Случайную погрешность невозможно полностью устранить, она всегда в некоторой степени искажает конечные результаты измерений. Но можно сделать результат измерения более точным за счет проведения повторных измерений.

Причиной случайной погрешности может стать, например, случайное изменение внешних факторов, воздействующих на процесс измерения. Случайная погрешность при проведении многократных измерений с достаточно большой степенью точности приводит к рассеянию результатов.

Погрешность измерений. Виды погрешностей.

В практике использования измерений очень важным показателем становится их точность, которая представляет собой ту степень близости итогов измерения к некоторому действительному значению, которая используется для качественного сравнения измерительных операций. А в качестве количественной оценки, как правило, используется погрешность измерений.

Разница между результатом измерения и истинным значением измеряемой величины называется погрешностью измерения.

Причем чем погрешность меньше, тем считается выше точность.

Согласно закону теории погрешностей, если необходимо повысить точность результата (при исключенной систематической погрешности) в 2 раза, то число измерений необходимо увеличить в 4 раза; если требуется увеличить точность в 3 раза, то число измерений увеличивают в 9 раз и т. д.

Процесс оценки погрешности измерений считается одним из важнейших мероприятий в вопросе обеспечения единства измерений. Естественно, что факторов, оказывающих влияние на точность измерения, существует огромное множество. Следовательно, любая классификация погрешностей измерения достаточно условна, поскольку нередко в зависимости от условий измерительного процесса погрешности могут проявляться в различных группах.

Выделяют следующие виды погрешностей:

1) абсолютная погрешность;

2) относительна погрешность;

3) приведенная погрешность;

4) основная погрешность;

5) дополнительная погрешность;

6) систематическая погрешность;

7) случайная погрешность;

8) инструментальная погрешность;

9) методическая погрешность;

10) личная погрешность;

11) статическая погрешность;

12) динамическая погрешность.

Абсолютная погрешность – это значение, вычисляемое как разность между значением величины, полученным в процессе измерений, и настоящим (действительным) значением данной величины.

Абсолютная погрешность вычисляется по следующей формуле:

где AQn – абсолютная погрешность;

Qn – значение некой величины, полученное в процессе измерения;

Q0 – значение той же самой величины, принятое за базу сравнения (настоящее значение).

Относительная погрешность – это число, отражающее степень точности измерения.

Относительная погрешность вычисляется по следующей формуле:


где ΔQ – абсолютная погрешность;

Q0 – настоящее (действительное) значение измеряемой величины.

Относительная погрешность выражается в процентах.

Приведенная погрешность – это значение, вычисляемое как отношение значения абсолютной погрешности к нормирующему значению.

Инструментальная погрешность – это погрешность, возникающая из—за допущенных в процессе изготовления функциональных частей средств измерения ошибок.

Методическая погрешность – это погрешность, возникающая по следующим причинам:

1) неточность построения модели физического процесса, на котором базируется средство измерения;

2) неверное применение средств измерений.

Субъективная погрешность – это погрешность возникающая из-за низкой степени квалификации оператора средства измерений, а также из-за погрешности зрительных органов человека, т. е. причиной возникновения субъективной погрешности является человеческий фактор.

Погрешности по взаимодействию изменений во времени и входной величины делятся на статические и динамические погрешности.

Неточность градуировки, конструктивные несовершенства, изменения характеристик прибора в процессе эксплуатации и т. д. являются причинами основных погрешностей инструмента измерения.

Дополнительные погрешности, связанные с отклонением условий, в которых работает прибор, от нормальных, отличают от инструментальных (ГОСТ 8.009-84), т. к. они связаны скорее с внешними условиями, чем с самим прибором.

Систематическая погрешность – это составляющая погрешности измерения, остающаяся постоянной или закономерно изменяющаяся при повторных измерениях одной и той же величины. Причинами появления систематической погрешности могут являться неисправности средств измерений, несовершенство метода измерений, неправильная установка измерительных приборов, отступление от нормальных условий их работы, особенности самого оператора.

Статическая погрешность – это погрешность, которая возникает в процессе измерения постоянной (не изменяющейся во времени) величины.

Динамическая погрешность – это погрешность, численное значение которой вычисляется как разность между погрешностью, возникающей при измерении непостоянной (переменной во времени) величины, и статической погрешностью (погрешностью значения измеряемой величины в определенный момент времени).

Случайная погрешность – это составная часть погрешности результата измерения, изменяющаяся случайно, незакономерно при проведении повторных измерений одной и той же величины. Появление случайной погрешности нельзя предвидеть и предугадать. Случайную погрешность невозможно полностью устранить, она всегда в некоторой степени искажает конечные результаты измерений. Но можно сделать результат измерения более точным за счет проведения повторных измерений.

Причиной случайной погрешности может стать, например, случайное изменение внешних факторов, воздействующих на процесс измерения. Случайная погрешность при проведении многократных измерений с достаточно большой степенью точности приводит к рассеянию результатов.

Погрешности средств измерений – отклонения метрологических свойств или параметров средств измерений от номинальных, влияющие на погрешности результатов измерений (создающие так называемые инструментальные ошибки измерений).
Погрешность результата измерения – отклонение результата измерения от действительного (истинного) значения измеряемой величины.

Инструментальные и методические погрешности.

Методическая погрешность обусловлена несовершенством метода измерений или упрощениями, допущенными при измерениях. Так, она возникает из-за использования приближенных формул при расчете результата или неправильной методики измерений. Выбор ошибочной методики возможен из-за несоответствия (неадекватности) измеряемой физической величины и ее модели.

Причиной методической погрешности может быть не учитываемое взаимное влияние объекта измерений и измерительных приборов или недостаточная точность такого учета. Например, методическая погрешность возникает при измерениях падения напряжения на участке цепи с помощью вольтметра, так как из-за шунтирующего действия вольтметра измеряемое напряжение уменьшается. Механизм взаимного влияния может быть изучен, а погрешности рассчитаны и учтены.

Инструментальная погрешность обусловлена несовершенством применяемых средств измерений. Причинами ее возникновения являются неточности, допущенные при изготовлении и регулировке приборов, изменение параметров элементов конструкции и схемы вследствие старения. В высокочувствительных приборах могут сильно проявляться их внутренние шумы.

Статическая и динамическая погрешности.

  • Статическая погрешность измерений – погрешность результата измерений, свойственная условиям статического измерения, то есть при измерении постоянных величин после завершения переходных процессов в элементах приборов и преобразователей.
    Статическая погрешность средства измерений возникает при измерении с его помощью постоянной величины. Если в паспорте на средства измерений указывают предельные погрешности измерений, определенные в статических условиях, то они не могут характеризовать точность его работы в динамических условиях.
  • Динамическая погрешность измерений – погрешность результата измерений, свойственная условиям динамического измерения. Динамическая погрешность появляется при измерении переменных величин и обусловлена инерционными свойствами средств измерений. Динамической погрешностью средства измерений является разность между погрешностью средсва измерений в динамических условиях и его статической погрешностью, соответствующей значению величины в данный момент времени. При разработке или проектировании средства измерений следует учитывать, что увеличение погрешности измерений и запаздывание появления выходного сигнала связаны с изменением условий.

Статические и динамические погрешности относятся к погрешностям результата измерений. В большей части приборов статическая и динамическая погрешности оказываются связаны между собой, поскольку соотношение между этими видами погрешностей зависит от характеристик прибора и характерного времени изменения величины.

Систематическая и случайная погрешности.

Систематическая погрешность измерения – составляющая погрешности измерения, остающаяся постоянной или закономерно изменяющаяся при повторных измерениях одной и той же физической величины. Систематические погрешности являются в общем случае функцией измеряемой величины, влияющих величин (температуры, влажности, напряжения питания и пр.) и времени. В функции измеряемой величины систематические погрешности входят при поверке и аттестации образцовых приборов.

Причинами возникновения систематических составляющих погрешности измерения являются:

  • отклонение параметров реального средства измерений от расчетных значений, предусмотренных схемой;
  • неуравновешенность некоторых деталей средства измерений относительно их оси вращения, приводящая к дополнительному повороту за счет зазоров, имеющихся в механизме;
  • упругая деформация деталей средства измерений, имеющих малую жесткость, приводящая к дополнительным перемещениям;
  • погрешность градуировки или небольшой сдвиг шкалы;
  • неточность подгонки шунта или добавочного сопротивления, неточность образцовой измерительной катушки сопротивления;
  • неравномерный износ направляющих устройств для базирования измеряемых деталей;
  • износ рабочих поверхностей, деталей средства измерений, с помощью которых осуществляется контакт звеньев механизма;
  • усталостные измерения упругих свойств деталей, а также их естественное старение;
  • неисправности средства измерений.

Случайной погрешностью называют составляющие погрешности измерений, изменяющиеся случайным образом при повторных измерениях одной и той же величины. Случайные погрешности определяются совместным действием ряда причин: внутренними шумами элементов электронных схем, наводками на входные цепи средств измерений, пульсацией постоянного питающего напряжения, дискретностью счета.

Погрешности адекватности и градуировки.

Погрешность градуировки средства измерений – погрешность действительного значения величины, приписанного той или иной отметке шкалы средства измерений в результате градуировки.

Погрешностью адекватности модели называют погрешность при выборе функциональной зависимости. Характерным примером может служить построение линейной зависимости по данным, которые лучше описываются степенным рядом с малыми нелинейными членами.

Погрешность адекватности относится к измерениям для проверки модели. Если зависимость параметра состояния от уровней входного фактора задана при моделировании объекта достаточно точно, то погрешность адекватности оказывается минимальной. Эта погрешность может зависеть от динамического диапазона измерений, например, если однофакторная зависимость задана при моделировании параболой, то в небольшом диапазоне она будет мало отличаться от экспоненциальной зависимости. Если диапазон измерений увеличить, то погрешность адекватности сильно возрастет.

Абсолютная, относительная и приведенная погрешности.

Абсолютная погрешность – алгебраическая разность между номинальным и действительным значениями измеряемой величины. Абсолютная погрешность измеряется в тех же единицах измерения, что и сама величина, в расчетах её принято обозначать греческой буквой – ∆. На рисунке ниже ∆X и ∆Y – абсолютные погрешности.

Относительная погрешность – отношение абсолютной погрешности к тому значению, которое принимается за истинное. Относительная погрешность является безразмерной величиной, либо измеряется в процентах, в расчетах обозначается буквой – δ.

Приведённая погрешность – погрешность, выраженная отношением абсолютной погрешности средства измерений к условно принятому значению величины, постоянному во всем диапазоне измерений или в части диапазона. Вычисляется по формуле

где Xn – нормирующее значение, которое зависит от типа шкалы измерительного прибора и определяется по его градуировке:

– если шкала прибора односторонняя и нижний предел измерений равен нулю (например диапазон измерений 0. 100), то Xn определяется равным верхнему пределу измерений (Xn=100);
– если шкала прибора односторонняя, нижний предел измерений больше нуля, то Xn определяется как разность между максимальным и минимальным значениями диапазона (для прибора с диапазоном измерений 30. 100, Xn=Xmax-Xmin=100-30=70);
– если шкала прибора двухсторонняя, то нормирующее значение равно ширине диапазона измерений прибора (диапазон измерений -50. +50, Xn=100).

Приведённая погрешность является безразмерной величиной, либо измеряется в процентах.

Аддитивные и мультипликативные погрешности.

  • Аддитивной погрешностью называется погрешность, постоянную в каждой точке шкалы.
  • Мультипликативной погрешностью называется погрешность, линейно возрастающую или убывающую с ростом измеряемой величины.

Различать аддитивные и мультипликативные погрешности легче всего по полосе погрешностей (см.рис.).

Если абсолютная погрешность не зависит от значения измеряемой величины, то полоса определяется аддитивной погрешностью (а). Иногда аддитивную погрешность называют погрешностью нуля.

Если постоянной величиной является относительная погрешность, то полоса погрешностей меняется в пределах диапазона измерений и погрешность называется мультипликативной (б). Ярким примером аддитивной погрешности является погрешность квантования (оцифровки).

Класс точности измерений зависит от вида погрешностей. Рассмотрим класс точности измерений для аддитивной и мультипликативной погрешностей:

– для аддитивной погрешности:
аддитивная погрешность
где Х – верхний предел шкалы, ∆0 – абсолютная аддитивная погрешность.
– для мультипликативной погрешности:
мультипликативная погрешность
порог чувствительности прибора – это условие определяет порог чувствительности прибора (измерений).

Читайте также: