Что такое дискретизация звука кратко

Обновлено: 04.07.2024

Звук – это звуковая волна, у которой непрерывно меняется амплитуда и частота. При этом амплитуда определяет громкость звука, а частота — его тон. Чем больше амплитуда звуковых колебаний, тем он громче. А частота писка комара больше частоты сигнала автомобиля. Частоту измеряют в Герцах. 1Гц — это одно колебание в секунду.

Кодирование звука.

Компьютер является мощнейшим устройством для обработки различных типов информации, в том числе и звуковой. Но аналоговый звук непригоден для обработки на компьютере, его необходимо преобразовать в цифровой. Для этого используются специальные устройства — аналого-цифровые преобразователи или АЦП. В компьютере роль АЦП выполняет звуковая карта. Каким же образом АЦП преобразует сигнал из аналогового в цифровой вид? Давайте разберемся.

Пусть у нас есть источник звука с частотой 440Гц, пусть это будет гитара. Сначала звук нужно превратить в электрический сигнал. Для этого используем микрофон. На выходе микрофона мы получим электрический сигнал с частотой 440Гц. Графически он выглядит таким образом:


Следующая задача — преобразовать этот сигнал в цифровой вид, то есть в последовательность цифр. Для этого используется временная дискретизация — аналоговый звуковой сигнал разбивается на отдельные маленькие временные участки и для каждого такого участка устанавливается определенная величина интенсивности звука, которая зависит от амплитуды. Другими словами через какие-то промежутки времени мы измеряем уровень аналогового сигнала. Количество таких измерений за одну секунду называется частотой дискретизации. Частота дискретизации измеряется в Герцах. Соответственно, если мы будет измерять наш сигнал 100 раз в секунду, то частота дискретизации будет равна 100Гц.

Вот примеры некоторых используемых частот дискретизации звука:

  • 8 000 Гц — телефон, достаточно для речи;
  • 11 025 Гц;
  • 16 000 Гц;
  • 22 050 Гц — радио;
  • 32 000 Гц;
  • 44 100 Гц — используется в Audio CD;
  • 48 000 Гц — DVD, DAT;
  • 96 000 Гц — DVD-Audio (MLP 5.1);
  • 192 000 Гц — DVD-Audio (MLP 2.0);
  • 2 822 400 Гц — SACD, процесс однобитной дельта-сигма модуляции, известный как DSD — Direct Stream Digital, совместно разработан компаниями Sony и Philips;
  • 5,644,800 Гц — DSD с удвоенной частотой дискретизации, однобитный Direct Stream Digital с частотой дискретизации вдвое больше, чем у SACD. Используется в некоторых профессиональных устройствах записи DSD.

В итоге наш аналоговый сигнал превратится в цифровой, а график станет уже не гладким, а ступенчатым, дискретным:


Глубина кодирования звука — это количество возможных уровней сигнала. Другими словами глубина кодирования это точность измерения сигнала. Глубина кодирования измеряется в битах. Например, если количество возможных уровней сигнала равно 255, то глубина кодирования такого звука 8 бит. 16-битный звук уже позволяет работать с 65536 уровнями сигнала. Современные звуковые карты обеспечивают глубину кодирования в 16 и даже 24 бита, а это возможность кодирования 65536 и 16 777 216 различных уровней громкости соответственно.

Зная глубину кодирования, можно легко узнать количество уровней сигнала цифрового звука. Для этого используем формулу:

где N — количество уровней сигнала, а i — глубина кодирования.

Например, мы знаем, что глубина кодирования звука 16 бит. Значит количество уровней цифрового сигнала равно 2 16 =65536.

Чтобы определить глубину кодирования если известно количество возможных уровней применяют эту же формулу. Например, если известно, что сигнал имеет 256 уровней сигнала, то глубина кодирования составит 8 бит, так как 2 8 =256.

Как понятно из данного вышеприведенного рисунка, чем чаще мы будем измерять уровень сигнала, т.е. чем выше частота дискретизации и чем точнее мы будем его измерять, тем более график цифрового сигнала будет похож на аналоговый график, соответственно, тем выше качество цифрового звука мы получим. И тем больший объем будет иметь файл.

Кроме того, мы рассматривали монофонический (одноканальный) звук, если же звук стереофонический, то размер файла увеличивается в 2 раза, так как он содержит 2 канала.

Рассмотрим пример задачи.

Какой объем будет иметь звуковой монофонический файл содержащий звук, если длительность звука 1 минута, глубина кодирования 8 бит, а частота дискретизации 22050Гц?

Зная частоту дискретизации и длительность звука легко установить количество измерений уровня сигнала за все время. Если частота дискретизации 22050Гц — значит за 1 секунду происходит 22050 измерений, а за минуту таких измерений будет 22050*60=1 323 000.

На одно измерение требуется 8 бит памяти, следовательно на 1 323 000 измерений потребуется 1 323 000*8 = 10 584 000 бит памяти. Разделив полученное число на 8 получим объем файла в байтах — 10584000/8=1 323 000 байт. Далее, разделив полученное число на 1024 получим объем файла в килобайтах — 1 291,9921875 Кбайт. А разделив полученное число еще раз на 1024 и округлив до сотых получим размер файла в мегабайтах — 1 291,9921875/1024=1,26Мбайт.


Рассмотрим теоретические аспекты преобразования аналогового (аудио) сигнала в цифровой.
Статья не будет всеохватывающей, но в тексте будут гиперссылки для дальнейшего изучения темы.

Чем отличается цифровой аудиосигнал от аналогового?

Аналоговый (или континуальный) сигнал описывается непрерывной функцией времени, т.е. имеет непрерывную линию с непрерывным множеством возможных значений (рис. 1).



Цифровой сигнал — это сигнал, который можно представить как последовательность определенных цифровых значений. В любой момент времени он может принимать только одно определенное конечное значение (рис. 2).



Аналоговый сигнал в динамическом диапазоне может принимать любые значения. Аналоговый сигнал преобразуется в цифровой с помощью двух процессов — дискретизация и квантование. Очередь процессов не важна.

Дискретизацией называется процесс регистрации (измерения) значения сигнала через определенные промежутки (обычно равные) времени (рис. 3).



Квантование — это процесс разбиения диапазона амплитуды сигнала на определенное количество уровней и округление значений, измеренных во время дискретизации, до ближайшего уровня (рис. 4).



Дискретизация разбивает сигнал по временной составляющей (по вертикали, рис. 5, слева).
Квантование приводит сигнал к заданным значениям, то есть округляет сигнал до ближайших к нему уровней (по горизонтали, рис. 5, справа).



Эти два процесса создают как бы координатную систему, которая позволяет описывать аудиосигнал определенным значением в любой момент времени.
Цифровым называется сигнал, к которому применены дискретизация и квантование. Оцифровка происходит в аналого-цифровом преобразователе (АЦП). Чем больше число уровней квантования и чем выше частота дискретизации, тем точнее цифровой сигнал соответствует аналоговому (рис. 6).



Уровни квантования нумеруются и каждому уровню присваивается двоичный код. (рис. 7)



Количество битов, которые присваиваются каждому уровню квантования называют разрядностью или глубиной квантования (eng. bit depth). Чем выше разрядность, тем больше уровней можно представить двоичным кодом (рис. 8).



Данная формула позволяет вычислить количество уровней квантования:

Если N — количество уровней квантования,
n — разрядность, то

Обычно используют разрядности в 8, 12, 16 и 24 бит. Несложно вычислить, что при n=24 количество уровней N = 16,777,216.

Ошибкой квантований называют отклонение квантованного сигнала от аналогового, т.е. разница между входным значением и квантованным значением ()

Большие ошибки квантования приводят к сильным искажениям аудиосигнала (шум квантования).

Чем выше разрядность, тем незначительнее ошибки квантования и тем лучше отношение сигнал/шум (Signal-to-noise ratio, SNR), и наоборот: при низкой разрядности вырастает шум (рис. 9).



Разрядность также определяет динамический диапазон сигнала, то есть соотношение максимального и минимального значений. С каждым битом динамический диапазон вырастает примерно на 6dB (Децибел) (6dB это в 2 раза; то есть координатная сетка становиться плотнее, возрастает градация).

Ошибки квантования (округления) из-за недостаточного количество уровней не могут быть исправлены.





Аудиопример 1: 8bit/44.1kHz, ~50dB SNR
примечание: если аудиофайлы не воспроизводятся онлайн, пожалуйста, скачивайте их.



Аудиопример 2: 4bit/48kHz, ~25dB SNR



Аудиопример 3: 1bit/48kHz, ~8dB SNR



Теперь о дискретизации.

Как уже говорили ранее, это разбиение сигнала по вертикали и измерение величины значения через определенный промежуток времени. Этот промежуток называется периодом дискретизации или интервалом выборок. Частотой выборок, или частотой дискретизации (всеми известный sample rate) называется величина, обратная периоду дискретизации и измеряется в герцах. Если
T — период дискретизации,
F — частота дискретизации, то

Теорема Котельникова гласит:

Если аналоговый сигнал имеет финитный (ограниченной по ширине) спектр, то он может быть восстановлен однозначно и без потерь по своим дискретным отсчетам, взятым с частотой, строго большей удвоенной верхней частоты.

Вам знакомо число 44.1kHz? Это один из стандартов частоты дискретизации, и это число выбрали именно потому, что человеческое ухо слышит только сигналы до 20kHz. Число 44.1 более чем в два раза больше чем 20, поэтому все частоты в цифровом сигнале, доступные человеческому уху, могут быть преобразованы в аналоговом виде без искажении.

Но ведь 20*2=40, почему 44.1? Все дело в совместимости с стандартами PAL и NTSC. Но сегодня не будем рассматривать этот момент. Что будет, если не следовать теореме Котельникова?

Когда в аудиосигнале встречается частота, которая выше чем 1/2 частоты дискретизации, тогда возникает алиасинг — эффект, приводящий к наложению, неразличимости различных непрерывных сигналов при их дискретизации.



Как видно из предыдущей картинки, точки дискретизации расположены так далеко друг от друга, что при интерполировании (т.е. преобразовании дискретных точек обратно в аналоговый сигнал) по ошибке восстанавливается совершенно другая частота.

Аудиопример 4: Линейно возрастающая частота от ~100 до 8000Hz. Частота дискретизации — 16000Hz. Нет алиасинга.



Аудиопример 5: Тот же файл. Частота дискретизации — 8000Hz. Присутствует алиасинг



Пример:
Имеется аудиоматериал, где пиковая частота — 2500Hz. Значит, частоту дискретизации нужно выбрать как минимум 5000Hz.

Следующая характеристика цифрового аудио это битрейт. Битрейт (bitrate) — это объем данных, передаваемых в единицу времени. Битрейт обычно измеряют в битах в секунду (Bit/s или bps). Битрейт может быть переменным, постоянным или усреднённым.

Следующая формула позволяет вычислить битрейт (действительна только для несжатых потоков данных):

Битрейт = Частота дискретизации * Разрядность * Количество каналов

Например, битрейт Audio-CD можно рассчитать так:
44100 (частота дискретизации) * 16 (разрядность) * 2 (количество каналов, stereo)= 1411200 bps = 1411.2 kbit/s

При кодировании переменным битрейтом (VBR), кодек выбирает битрейт исходя из задаваемого желаемого качества. Как видно из названия, битрейт варьируется в течение кодируемого аудиофайла. Данный метод даёт наилучшее соотношение качество/размер выходного файла. Из минусов: точный размер конечного файла очень плохо предсказуем.

Усреднённый битрейт (ABR) является частным случаем VBR и занимает промежуточное место между постоянным и переменным битрейтом. Конкретный битрейт задаётся пользователем. Программа все же варьирует его в определенном диапазоне, но не выходит за заданную среднюю величину.

При заданном битрейте качество VBR обычно выше чем ABR. Качество ABR в свою очередь выше чем CBR: VBR > ABR > CBR.

ABR подходит для пользователей, которым нужны преимущества кодирования VBR, но с относительно предсказуемым размером файла. Для ABR обычно требуется кодирование в 2 прохода, так как на первом проходе кодек не знает какие части аудиоматериала должны кодироваться с максимальным битрейтом.

Существуют 3 метода хранения цифрового аудиоматериала:

Несжатый (RAW) формат данных

содержит просто последовательность бинарных значений.
Именно в таком формате хранится аудиоматериал в Аудио-CD. Несжатый аудиофайл можно открыть, например, в программе Audacity. Они имеют расширение .raw, .pcm, .sam, или же вообще не имеют расширения. RAW не содержит заголовка файла (метаданных).

Другой формат хранения несжатого аудиопотока это WAV. В отличие от RAW, WAV содержит заголовок файла.

Аудиоформаты с сжатием без потерь

Принцип сжатия схож с архиваторами (Winrar, Winzip и т.д.). Данные могут быть сжаты и снова распакованы любое количество раз без потери информации.

Как доказать, что при сжатии без потерь, информация действительно остаётся не тронутой? Это можно доказать методом деструктивной интерференции. Берем две аудиодорожки. В первой дорожке импортируем оригинальный, несжатый wav файл. Во второй дорожке импортируем тот же аудиофайл, сжатый без потерь. Инвертируем фазу одного из дорожек (зеркальное отображение). При проигрывании одновременно обеих дорожек выходной сигнал будет тишиной.

Это доказывает, что оба файла содержат абсолютно идентичные информации (рис. 11).



Кодеки сжатия без потерь: flac, WavPack, Monkey’s Audio…

При сжатии с потерями

Другой пример — эффект маскировки. Слабые амплитуды, которые перекрываются сильными амплитудами, могут быть воспроизведены с меньшим качеством. При громких низких частотах тихие средние частоты не улавливаются ухом. Например, если присутствует звук в 1kHz с уровнем громкости в 80dB, то 2kHz-звук с громкостью 40dB больше не слышим.

Компьютер работает с цифровой информацией, которую можно представить в виде серии электрических импульсов - логических нулей и единиц. Но тот звук, который мы слышим,непрерывен. Эта звуковая волна с меняющейся амплитудой и частотой является аналоговым сигналом. Чтобы записать такой звук на диск компьютера его надо преобразовать в цифровую форму. Этим занимается аналого-цифровой преобразователь (АЦП). Для воспроизведения звука, записанного в цифровом виде, цифроаналоговый преобразователь преобразовывает его в аналоговый сигнал.

Дискретизация звука

Непрерывная звуковая волна разбивается на отдельные участки по времени, для каждого устанавливается своя величина амплитуды. Каждой ступеньке присваивается свой уровень громкости звука, который можно рассматривать как набор возможных состояний

Характеристики качества звука:

1. "Глубина" кодирования звука - количество бит на один звуковой сигнал
Современные звуковые карты обеспечивают 16-битную "глубину" кодирования звука. Количество уровней (градаций амплитуды) можно рассчитать по формуле

N = 2I = 216 = 65 536 уровней сигнала
(градаций амплитуды)

2. Частота дискретизации – это количество измерений уровней сигнала за 1 секунду

Одно измерение в 1 секунду соответствует частоте 1 Гц

1000 измерений в 1 секунду - 1 кГц

Количество измерений может лежать в диапазоне от 8000 до 48 000
(8 кГц – 48 кГц)

8 кГц соответствует частоте радиотрансляции,

48 кГц – качеству звучания аудио- CD.

Ухо человека воспринимает звук в диапазоне от ~20 Гц до 20 кГц.

Опыт показывает, что точное соответствие цифрового сигнала аналоговому достигается, если частота дискретизации будет вдвое выше максимальной звуковой частоты, то есть составит не менее 40 кГц.

На практике значения частоты дискретизации, применяемые в звуковых системах, равны 44,1 кГц или 48 кГц. Чем больше частота дискретизации, тем качественнее звук.

При двоичном кодировании непрерывного звукового сигнала он заменяется серией его отдельных выборок — отсчетов.

Современные звуковые карты могут обеспечить кодирование 65536 различных уровней сигнала или состояний.

Таким образом, современные звуковые карты обеспечивают 16-битное кодирование звука. При каждой выборке значению амплитуды звукового сигнала присваивается 16-битный код.

Звук - это физическое природное явление, распространяющееся посредством колебаний воздуха и, следовательно, можно сказать, что мы имеем дело только с волновыми характеристиками. Задачей преобразования звука в электронный вид является повторение всех его этих самых волновых характеристик. Но электронный сигнал не является аналоговым, и может записываться посредством коротких дискретных значений. Пусть они имеют малый интервал между собой и практически неощутимы, на первый взгляд для человеческого уха, но мы должны всегда иметь в виду, что имеем дело только с эмуляцией природного явления именуемого звуком.

Такая запись называется импульсно-кодовой модуляцией и являет собой последовательную запись дискретных значений. Разрядность устройства, исчисляемая в битах, говорит о том сколькими значениями одновременно в одном записанном дискрете, берется звук. Чем больше разрядность, тем больше звук соответствует оригиналу.

РСМ
РСМ расшифровывается как pulse code modulation, что и является в переводе как импульсно-кодовая. Файлы именно с таким расширением встречаются довольно редко. Но РСМ является основополагающей для всех звуковых файлов.

WAV
Самое простое хранилище дискретных данных. Один из типов файлов семейства RIFF. Помимо обычных дискретных значений, битности, количества каналов и значений уровней громкости, в wav может быть указано еще множество параметров, о которых Вы, скорее всего, и не подозревали - это: метки позиций для синхронизации, общее количество дискретных значений, порядок воспроизведения различных частей звукового файла, а также есть место для того, чтобы Вы смогли разместить там текстовую информацию.

RIFF
Resource Interchange File Format. Уникальная система хранения любых структурированных данных.

IFF
Эта технология хранения данных проистекает от Amiga-систем. Interchange File Format. Почти то же, что и RIFF, только имеются некоторые нюансы. Начнем с того, что система Amiga - одна из первых, в которой стали задумываться о программно-сэмплерной эмуляции музыкальных инструментов. В результате, в данном файле звук делится на две части: то, что должно звучать вначале и элемент того, что идет за началом. В результате, звучит начало один раз, за тем повторяется второй кусок столько раз, сколько Вам нужно и нота может звучать бесконечно долго.

MOD
Файл хранит в себе короткий образец звука, который потом можно использовать в качестве шаблона для инструмента.

AIFили AIFF
Audio Interchange File Format. Данный формат распространен в системах Apple Macintosh и Silicon Graphics. Заключает в себе сочетание MOD и WAV.

МР3
Самый скандальный формат за последнее время. Многие для объяснения параметров сжатия, которые в нем применяют, сравнивают его с jpeg для изображений. Там очень много наворотов в вычислениях, чего и не перечислишь, но коэффициент сжатия в 10-12 раз сказали о себе сами. Специалисты говорят о контурности звука как о самом большом недостатке данного формата. Действительно, если сравнивать музыку с изображением, то смысл остался, а мелкие нюансы ушли. Качество МР3 до сих пор вызывает много споров, но для "обычных немузыкальных" людей потери не ощутимы явно.

VQF
Хорошая альтернатива МР3, разве что менее распространенная. Есть и свои недостатки. Закодировать файл в VQF - процесс гораздо более долгий. К тому же, очень мало бесплатных программ, позволяющих работать с данным форматом файлов, что, собственно, и сказалось на его распространении.

RA
Real Audio или потоковая передача аудиоданных. Довольно распространенная система передачи звука в реальном времени через Интернет. Скорость передачи порядка 1 Кб в секунду. Полученный звук обладает следующими параметрами: 8 или 16 бит и 8 или 11 кГц.

Ввод музыки в компьютер.

Если источником музыки является виниловая пластинка или музыкальный инструмент/другое устройство со стереофоническим линейным выходом, то такая музыка, как правило, вводится с помощью установленной в компьютер звуковой карты. К современной звуковой карте через гнездо линейного входа можно напрямую подключить любой музыкальный инструмент (синтезатор, гитару и т.д.) или устройство воспроизведения (проигрыватель грампластинок, магнитофон и т.п.), после чего ПК может начать запись. Здесь исключительно важную роль играет размер и форма соединительных разъемов — многие современные звуковые карты высшего класса имеют входные разъемы, позволяющие подключать оптические, раздельные кабели и кабели с миништекерами. Существует множество вариантов соединений, каждый из которых обеспечивает определенный уровень качества и соответствует определенному стандарту.

MIDI – это общепринятая спецификация, связанная с организацией цифрового интерфейса для музыкальных устройств, включающая в себя стандарт на аппаратную и программную части.

Эта спецификация предназначена для организации локальной сети электронных инструментов (рис. 2). К MIDI-устройствам относятся различные аппаратные и музыкальные инструменты, отвечающие требованиям MIDI. Таким образом, MIDI-синтезатор – это музыкальный инструмент, предназначенный обычно для синтеза звука и музыки, а также удовлетворяющий спецификации MIDI. Давайте разберемся кратко, почему выделен отдельный класс устройств, названный MIDI.

Дело в том, что осуществление программной обработки звука часто сопряжено с неудобствами, обусловленными различными техническими особенностями этого процесса. Даже возложив операции по обработке звука на звуковую карту или любую другую аппаратуру, остается множество различных проблем. Во-первых, зачастую желательно пользоваться аппаратным синтезом звучания музыкальных инструментов (как минимум потому, что компьютер – это общий инструмент, часто необходим просто аппаратный синтезатор звуков и музыки, не более). Во-вторых, программная обработка звука часто сопровождается временными задержками, в то время как при концертной работе необходимо мгновенное получение обработанного сигнала. По этим и другим причинам и прибегают к использованию специальной аппаратуры для обработки, а не компьютеров со специальными программами. Однако при использовании аппаратуры возникает необходимость в едином стандарте, который позволил бы соединять устройства друг с другом и комбинировать их. Эти предпосылки и заставили в 1982 году несколько ведущих в области музыкального оборудования компаний утвердить первый MIDI-стандарт, который впоследствии получил продолжение и развивается по сей день. Что же, в конечном счете, представляет собой MIDI-интерфейс и устройства в него входящие с точки зрения персонального компьютера?

Следует отметить, что в отношении синтезаторов звука MIDI устанавливает строгие требования к их возможностям, примененным в них способам синтеза звука, а также к управляющим параметрам синтеза. Кроме того, для того, чтобы музыка созданная на одном синтезаторе могла бы быть легко перенесена и успешно воспроизведена на другом, были установлены несколько стандартов на соответствие инструментов (голосов) и их параметров в различных синтезаторах: стандарт General MIDI (GM), General Synth (GS) и eXtended General (XG). Базисным стандартом является GM, остальные два являются его логическими продолжениями и расширениями.

В качестве практического примера устройства MIDI, можно рассмотреть обычную MIDI-клавиатуру. Упрощенно, MIDI-клавиатура представляет собой укороченную клавиатуру рояля, в корпусе с которой находится MIDI-интерфейс, позволяющий подключать ее к другим MIDI-устройствам, например, к MIDI-синтезатору, который установлен в звуковой карте компьютера. Используя специальное программное обеспечение (например, MIDI-секвенсор) можно включить MIDI-синтезатор в режим игры, например, на рояле, и нажимая на клавиши MIDI-клавиатуры слышать звуки рояля. Естественно, что роялем дело не ограничивается – в стандарте GM имеются 128 мелодических инструментов и 46 ударных. Кроме того, используя MIDI-секвенсор можно записывать исполняемые на MIDI-клавиатуре ноты в компьютер, для последующего редактирования и аранжировки, либо просто для элементарной распечатки нот.

Надо отметить, что поскольку MIDI-данные – это набор команд, то музыка, которая написана с помощью MIDI, также записывается с помощью команд синтезатора. Иными словами, MIDI-партитура – это последовательность команд: какую ноту играть, какой инструмент использовать, какова продолжительность и тональность ее звучания и так далее. Знакомые многим MIDI-файлы (.MID) есть нечто иное, как набор таких команд. Естественно, что поскольку имеется великое множество производителей MIDI-синтезаторов, то и звучать один и тот же файл может на разных синтезаторах по-разному (потому что в файле сами инструменты не хранятся, а есть лишь только указания синтезатору какими инструментами играть, в то время как разные синтезаторы могут звучать по-разному).

Под обработкой звука следует понимать различные преобразования звуковой информации с целью изменения каких-то характеристик звучания. К обработке звука относятся способы создания различных звуковых эффектов, фильтрация, а также методы очистки звука от нежелательных шумов, изменения тембра и т.д. Все это огромное множество преобразований сводится, в конечном счете, к следующим основным типам:

1. Амплитудные преобразования.Выполняются над амплитудой сигнала и приводят к ее усилению/ослаблению или изменению по какому-либо закону на определенных участках сигнала.

4. Временные преобразования.Реализуются путем наложения, растягивания/сжатия сигналов; позволяют создать, например, эффекты эха или хора, а также повлиять на пространственные характеристики звука.

Приведу несколько практических примеров использования указанных видов преобразований при создании реальных звуковых эффектов:

Наиболее важный класс программ – редакторы цифрового аудио. Основные возможности таких программ это, как минимум, обеспечение возможности записи (оцифровки) аудио и сохранение на диск. Развитые представители такого рода программ позволяют намного больше: запись, многоканальное сведение аудио на нескольких виртуальных дорожках, обработка специальными эффектами очистка от шумов. Они имеют развитую навигацию и инструментарий в виде спектроскопа и прочих виртуальных приборов, управление/управляемость внешними устройствами, преобразование аудио из формата в формат, генерация сигналов, запись на компакт диски и многое другое. Некоторыеизтакихпрограмм: Cool Edit Pro
рис.8

Специализированные реставраторы аудио играют также немаловажную роль в обработке звука. Такие программы позволяют восстановить утерянное качество звучания аудио материала, удалить нежелательные щелчки, шумы, треск, специфические помехи записей с аудиокассет, и провести другую корректировку аудио. Программыподобногорода: Dart, Clean (отSteinberg Inc.), Audio Cleaning Lab. (от Magix Ent.), Wave Corrector.

Сайт учителя информатики. Технологические карты уроков, Подготовка к ОГЭ и ЕГЭ, полезный материал и многое другое.

Информатика. 10 класса. Босова Л.Л. Оглавление

§ 16. Кодирование звуковой информации

16.1. Звук и его характеристики

Звук — это распространяющиеся в воздухе, воде или другой среде волны с непрерывно меняющейся амплитудой и частотой (рис. 3.12).


Рис. 3.12. Звуковая волна

Амплитуду звуковых колебаний называют звуковым давлением или силой звука. Эта величина характеризует воспринимаемую громкость звука. Абсолютную величину звукового давления измеряют в единицах давления — паскалях (Па). Самые слабые, едва различимые звуки имеют амплитуду около 20 мкПа (2 • 10 -5 Па, так называемый порог слышимости). Самые сильные звуки, не выводящие слуховые органы из строя, могут иметь амплитуду до 200 Па (так называемый болевой порог).

На практике вместо абсолютной используют относительную силу (уровень) звука, измеряемую в децибелах (дБ). Вот некоторые значения уровня звука:


Частота определяется как количество колебаний в секунду и выражается в герцах (Гц). Чем больше частота, тем выше звук, и наоборот. Человек способен слышать звук в широком частотном диапазоне, но важное для жизни значение имеют только звуки от 125 до 8000 Гц.

Например, звуковые волны в диапазоне 500-4000 Гц соответствуют человеческому голосу. Звучание детского голоса, пение птиц, шёпот относятся к высоким частотам. Звук контрабаса, рычание зверей, раскаты грома — к низким.

16.2. Понятие звукозаписи

Звукозапись — это процесс сохранения информации о параметрах звуковых волн.


Аналоговый способ записи звука


Цифровой способ записи звука

16.3. Оцифровка звука

Чтобы компьютер мог обрабатывать звук, непрерывный звуковой сигнал должен быть преобразован в цифровую дискретную форму. Для этого его подвергают временной дискретизации и квантованию: параметры звукового сигнала измеряются не непрерывно, а через определённые промежутки времени (временная дискретизация); результаты измерений записываются в цифровом виде с ограниченной точностью (квантование).

Вообще говоря, в компьютер приходит не сам звук, а электрический сигнал, снимаемый с какого-либо устройства: например, микрофон преобразует звуковое давление в электрические колебания, которые в дальнейшем и обрабатываются.

Если записывается стереозвук (ведётся двухканальная запись), то оцифровке подвергается не один электрический сигнал, а сразу два и, следовательно, количество сохраняемой цифровой информации удваивается.

Сущность временной дискретизации заключается в том, что аналоговый звуковой сигнал разбивается на отдельные маленькие временные участки и для каждого такого участка устанавливается определённая величина интенсивности звука (рис. 3.13). Другими словами, через какие-то промежутки времени мы измеряем уровень аналогового сигнала. Количество таких измерений за одну секунду называется частотой дискретизации.

Частота дискретизации — это количество измерений громкости звука за одну секунду.


Рис. 3.13. Временная дискретизация звукового сигнала (А(t) — амплитуда, t — время)

Частота дискретизации измеряется в герцах (Гц) и килогерцах (кГц). 1 кГц = 1000 Гц. Частота дискретизации, равная 100 Гц, означает, что за одну секунду проводилось 100 измерений громкости звука.

Качество звукозаписи зависит не только от частоты дискретизации, но также и от глубины кодирования звука.

Глубина кодирования звука или разрешение — это количество информации, которое необходимо для кодирования дискретных уровней громкости цифрового звука.

Пусть под запись одного результата измерения громкости в памяти компьютера отведено n бит. Вы знаете, что это позволяет закодировать ровно 2 n разных результатов измерений. Так, при n = 8 можно закодировать 256 разных результатов измерений громкости звука. Поэтому весь диапазон, в котором могут находиться результаты измерений громкости звука, можно разбить на 256 разных поддиапазонов — уровней громкости звука, каждому из которых присвоить свой уникальный код. После этого каждый имеющийся результат измерений громкости звука можно соотнести с некоторым поддиапазоном, в который он попадает, и кодировать его номером (кодом) соответствующего уровня громкости.

В зависимости от ситуации на практике используются разные значения частоты дискретизации и глубины кодирования (табл. 3.13).

Таблица 3.13

Примеры параметров оцифровки звука


Пример. Оценим объём звукового стереоаудиофайла с глубиной кодирования 16 бит и частотой дискретизации 44,1 кГц, который хранит звуковой фрагмент длительностью звучания 15 секунд.

Объём такого звукового фрагмента равен:

2 (канала) • 16 бит • 44 100 Гц • 15 с = 2 646 000 байт ? 2 584 Кбайта.

Увеличивая частоту дискретизации и глубину кодирования, можно более точно сохранить и впоследствии восстановить форму звукового сигнала. При этом объём сохраняемых данных будет увеличиваться.

Важно понимать, каких параметров оцифровки достаточно, чтобы сохраняемый звук был достаточно близок к исходному, а содержащий его файл имел минимально возможный объём. В начале 30-х годов прошлого века было установлено, что это возможно, если частота временной дискретизации будет в два раза выше максимальной частоты измеряемого сигнала.

В 1928 году американский учёный Гарри Найквист высказал утверждение, что частота дискретизации должна быть в два или более раза выше максимальной частоты измеряемого сигнала. В 1933 году наш соотечественник В. А. Котельников и независимо от него американец Клод Шеннон в 1949 году сформулировали и доказали теорему, более сильную чем утверждение Найквиста, о том, при каких условиях и как по дискретным значениям можно восстановить форму непрерывного сигнала.

САМОЕ ГЛАВНОЕ

Звук — это распространяющиеся в воздухе, воде или другой среде волны с непрерывно меняющейся амплитудой и частотой.

Чтобы компьютер мог обрабатывать звук, непрерывный звуковой сигнал должен быть преобразован в цифровую дискретную форму. Для этого его подвергают временной дискретизации и квантованию: параметры звукового сигнала измеряются не непрерывно, а через определённые промежутки времени (временная дискретизация); результаты измерений записываются в цифровом виде с ограниченной точностью (квантование).

Таким образом, при оцифровке звука искажение сохраняемого сигнала происходит дважды: во-первых, при дискретизации теряется информация об истинном изменении звука между измерениями, а во-вторых, при квантовании сохраняются не точные, а близкие к ним дискретные значения.

Объём оцифрованного звукового фрагмента в битах находится как произведение частоты дискретизации в Гц, глубины кодирования звука в битах, длительности звучания записи в секундах и количества каналов.

Вопросы и задания

1. Каким образом происходит преобразование непрерывного звукового сигнала в дискретный цифровой код?

2. Как частота дискретизации и глубина кодирования влияют на качество цифрового звука?

3. Производится четырёхканальная (квадро) звукозапись с частотой дискретизации 32 кГц и 32-битным разрешением. Запись длится 4 минуты, её результаты заносятся в файл, сжатие данных не производится. Определите приблизительно размер полученного файла (в мегабайтах). В качестве ответа укажите ближайшее к размеру файла целое число, кратное 10.

4. Музыкальный фрагмент был записан в формате моно, оцифрован и сохранён в виде файла без использования сжатия данных. Размер полученного файла — 49 Мбайт. Затем тот же музыкальный фрагмент был записан повторно в формате стерео (двухканальная запись) и оцифрован с разрешением в 4 раза выше и частотой дискретизации в 3,5 раза меньше, чем в первый раз. Сжатие данных не производилось. Укажите в мегабайтах размер файла, полученного при повторной записи.

5. Музыкальный фрагмент был оцифрован и записан в виде файла без использования сжатия данных. Получившийся файл был передан в город А по каналу связи за 32 секунды. Затем тот же музыкальный фрагмент был оцифрован повторно с разрешением в 3 раза выше и частотой дискретизации в 3 раза выше, чем в первый раз. Сжатие данных не производилось. Полученный файл был передан в город Б. Пропускная способность канала связи с городом Б в 2 раза выше, чем канала связи с городом А. Сколько секунд длилась передача файла в город Б?

6. Музыкальный фрагмент был оцифрован и записан в виде файла без использования сжатия данных. Получившийся файл был передан в город А по каналу связи за 96 секунд. Затем тот же музыкальный фрагмент был оцифрован повторно с разрешением в 4 раза выше и частотой дискретизации в 3 раза ниже, чем в первый раз. Сжатие данных не производилось. Полученный файл был передан в город Б за 16 секунд. Во сколько раз пропускная способность канала связи с городом Б больше пропускной способности канала связи с городом А?

7. В сети Интернет найдите информацию о записи музыкальных произведений в формате MIDI. Почему запись звука в этом формате считают аналогичной векторному методу кодирования графических изображений?

Дополнительные материалы к главе смотрите в авторской мастерской.

Читайте также: