Пути развития: цифровое и аналоговое вещание

Спутниковые операторы, транспондерные новости и другие темы по спутниковому ТВ
Ответить
lelik3
Профессионал
Профессионал
Сообщения: 635
Зарегистрирован: 04 сен 2018, 06:41
Репутация: 147
Откуда: СПб, Минская область
Модель ресивера: OpenboxSX6, FormulerSTurbo PRO
Россия

Пути развития: цифровое и аналоговое вещание

Сообщение lelik3 » 09 авг 2019, 11:45

Стандарт сжатия MPEG

Часть I

В предыдущей публикации обсуждались идеи и математика способов сжатия цифровых потоков информации при передаче неподвижных изображений или отдельных кадров телевизионного изображения, таких как: импульсно-кодовая модуляция (ИКМ);дифференциальная импульсно-кодовая модуляция (ДИКМ) (кодирование сигнала “с предсказанием”);групповое кодирование с использованием дискретного косинусного преобразования (ДКП);метод кодирования по Хаффмену. Их использование привело к обоснованию Международного стандарта сжатия JPEG, который принят за основу технологии внутрикадрового кодирования. Для большего сжатия телевизионной информации применяются методы межкадрового кодирования.

Автор: Алексей Синятынский

Дифференциальная импульсно-кодовая модуляция (ДИКМ). Кодирование сигнала “с предсказанием”

Мы уже упоминали о кодировании “с предсказанием”, основой которого является метод ДИКМ. Метод хорошо и органично подходит для работы со статистическими свойствами реальных ТВ-изображений, в которых присутствует сильная корреляция между значениями отсчетов. Для предсказания значения отсчета можно использовать корреляционные соотношения следующих друг за другом кадров. При этом запоминающие устройства в кодере и декодере фиксируют необходимое число кадров. В системах с ДИКМ в качестве блока предсказания используется блок временной задержки Δt. Если Δt – период времени, равный периоду дискретизации, то в качестве предсказанного значения текущего отсчета используется предыдущий отсчет. Если Δt равен периоду строчной развертки, то предсказанное значение отсчета берется равным значению отсчета предыдущего кадра.

Устройство-вычитатель определяет разность предсказанного и текущего значения сигнала. Полученная разность квантуется, как правило, с намного меньшим количеством разрядов квантования, чем для передачи значений отсчетов начального сигнала. Таким образом, в квантователе с уменьшением количества двоичных разрядов возникает ошибка. Требуемое количество разрядов квантования восстанавливается в накопительном сумматоре декодера, поэтому в системе передачи информации по каналу связи выходной и входной сигналы будут отличаться друг от друга на величину накопленных ошибок, вносимых квантователем за время передачи сигнала. Таким образом, в выходном сигнале происходит накопление ошибок. Для устранения ошибок, как правило, универсальным методом коррекции является обратная связь, но при этом в такой системе необходимо создание двух каналов связи, прямого и обратного, что для телевизионного вещания из-за значительных трудностей является проблематичным.

Для этого в канале связи системы с ДИКМ используется прием, называемый кодированием “с утечкой”. В этом случае алгоритм работы сумматоров в линии связи работает по алгоритму, подобному RC-цепи вида:


где y(n) – выходной сигнал, k – все отсчеты без ошибок, Sn (k) – функция входного сигнала, m – показывает скорость спада в накопителе вклада ошибки, то есть если в каком-то такте в канале связи возникла ошибка, то через 3m тактов вклад ошибки во входной сигнал сводится к “0”.

Введение “утечки” в функцию накапливающих сумматоров снижает эффективность ДИКМ, то есть требует увеличения символьной скорости в канале связи. Однако другого результата и не следует ждать, так как теория связи говорит, что это есть необходимое условие для увеличения помехоустойчивости канала. Поэтому одним из распространенных методов повышения помехоустойчивости систем с ДИКМ является периодическая передача опорных отсчетов в рамках обычной системы ИКМ. При этом после каждого приема опорного отсчета в декодере формирование выходного сигнала по принимаемой ошибке происходит заново, а все накопившиеся до этого ошибки аннулируются.

Все предыдущие рассуждения о методе кодирования сигналов “с предсказанием”, используемом для компрессии цифрового потока, передаваемого по каналу ТВ-вещания, предполагали, что опорный кадр содержит неподвижный фон и перемещающиеся объекты.

Межкадровый ДИКМ “с компенсацией движения”

Однако это не совсем отражает действительность, так как в реальных телевизионных кадрах окружающий фон находится в движении. В этом случае рассчитано, что для реализации метода необходимо вместе с цифровым телевизионным сигналом передавать параметры вектора смещения или вектора движения объекта в картинке и взять в приемной системе декодера в качестве предсказанного кадра кадр со смещением на вектор движения. При этом мы значительно подвергаем компрессии цифровой поток, так как, чтобы показать изменившуюся картинку, нам необходимо передать только два параметра вектора движения, а не все параметры и коэффициенты, как при обычной межкадровой ДИКМ. Такой способ кодирования цифрового телевизионного сигнала называется межкадровым ДИКМ с компенсацией движения.

Технология выполнения выбора и оценки векторов движения сводится к разбивке исходного телевизионного кадра, приходящего на вход кодера, на макроблоки. Обычный размер макроблока составляет 16x16 элементов изображения. Для каждого макроблока R(k,l), имеющего координаты по горизонтали и вертикали k и l, присваивается вектор движения a1 (Δi, Δj)kl. Для этого путем перебора осуществляется поиск возможных значений вектора движения a1 (Δi, Δj)kl и вычисляется величина, равная разности суммы квадратов всех элементов n-го макроблока χ(i, j, n) и элементов смещенного на указанный вектор реконструированного в цепи обратной связи кодера кадра n-1, то есть χ(i, j, n-1). Здесь i и j – это номера элемента в строке и строки в макроблоке с координатами k и l. Таким образом, в качестве предсказанных значений элементов макроблока в кадре χ(i, j, n) берутся элементы реконструированного предыдущего кадра χ(i, j, n-1), смещенного на вектор a1 (Δi, Δj)kl, являющийся минимальным значением этого параметра и обозначенный r1 (i, j, n). Сигнал с такими параметрами поступает в устройство вычитания, где формируется значение разностного сигнала S(i, j, n), передаваемого по каналу связи. Аналогично работает и блок предсказания в декодере, то есть в нем также осуществляется смещение элементов предыдущего кадра на получившийся вектор r1 (i, j, n) в макроблоке. Необходимо отметить, что выбор вектора движения в каждом макроблоке происходит в пределах предварительно установленного предела смещений, на которые сдвигается объект за один период кадровой развертки.

Такой способ сокращения скорости цифрового потока в канале связи на основе оценки и компенсации движения макроблоков получил название “метод соответствующих блоков”, или Block Matching. Более обобщенные методики оценки движения при переходе от предыдущего кадра к настоящему предполагают изменение не только координат макроблоков, но и угловых смещений и деформацию объектов в кадре.

Цифровое преобразование аналогового цветного телевизионного сигнала. Компонентное кодирование

Касаемо цветного телевизионного вещания необходимо вспомнить следующее. Не будем забывать, что полный цветной телевизионный сигнал либо видеосигнал характеризуется четырьмя параметрами:

сигналом яркости уровня Y;
сигналами R, G, B, являющимися уровнями красного, зеленого и синего цвета.

При передаче цветного изображения по каналу связи учитывается, что зрение человека менее чувствительно к изменению уровней цветности, нежели уровня яркости сигнала. Это явление также применяется для уменьшения скорости передачи цифрового сигнала по каналу связи, используя уменьшение занимаемой полосы частот путем удаления части цветового сигнала. Зритель не замечает изменения цветового сигнала из-за уменьшения цветового разрешения, то есть изменения частоты дискретизации цветовых отсчетов. Известно, что значения R, G, B связаны с уровнем сигнала яркости Y-выражением


где Kr, Kg, Kb – весовые коэффициенты, характеризующие хроматический состав цветового сигнала, связанные соотношением


В соответствии с нормативом ВТ.601 Kr = 0,299, Kb = 0,114 и Kg = 0,587. На практике обычно пользуются цветоразностными сигналами:


В системе формата YUV они связаны соотношениями:


Центральная идея, реализованная в формате YUV, основана на том, о чем мы говорили ранее. Перефразируя ее, можно сказать, что человеческое зрение менее чувствительно к вариабильности частоты дискретизации цветовых отсчетов, нежели к дискретизации сигнала яркости.

Существует несколько конфигураций перегруппировки в блоки, макроблоки и вырезки последовательности кодированных отсчетов сигнала яркости Y и сигналов цветности R и B видеоинформации, поступающей на вход видеокодера. Вырезки – это срезы и слайсы, которые состоят из групп последовательных макроблоков, объединяемых общей шкалой квантования. Иными словами, существует несколько форматов цифрового кодирования цветной видеокартинки.

Три компоненты Y, R, B, представленные в базовых блоках-матрицах 8x8, закодированные в цифровом виде, объединяются и образуют макроблок. Каждый макроблок состоит из четырех блоков яркости и четырех блоков цветности (по два блока Сr и Сb). Тут сразу проявляется так называемый формат 4:2:2. Частота дискретизации составляет 6,75 МГц для цветоразностных сигналов и 13 МГц для нечетных отсчетов сигнала яркости, являющихся кратными частоте строчной развертки.

Впоследствии происходит выстраивание макроблоков в том порядке, в котором они появляются, чтобы получить вырезку. Вырезка состоит из макроблоков, к которой добавляются биты обнаруженной ошибки. Если на этапе декодирования обнаруживается ошибка, то декодер не регистрирует информацию, содержащуюся в этой вырезке, и переходит к следующей. В конечном итоге последовательность вырезок восстанавливает полный видеокадр, состоящий из составляющих изображения Y, Сr , Сb, готовый к следующему этапу кодирования.

Форматы могут быть разными. Мы уже упоминали о формате 4:2:2. При этом макроблок, как мы поняли, состоит из восьми блоков (четырех блоков яркости Y, двух Сr и двух Сb). Формат 4:4:4 содержит макроблок, состоящий из 12 блоков (четырех Y, четырех Сr и четырех Сb). Скорость цифрового потока при использовании этого формата составляет 206 Мбит/с.

Внутренняя организация макроблоков различна при кодировании кадров в различных форматах. Последовательность макроблоков объединяют в независимые серии, называемые слайсами. Слайс обычно содержит изображение и состоит из всех блоков в горизонтальном направлении изображения и имеет толщину в один макроблок. Серия является основным элементом синхронизации для восстановления данных. Порядок макроблоков в серии тот же, что и при сканировании растра в телевидении, – сверху вниз и слева направо. Слайс – это основной элемент синхронизации, служит для восстановления данных, составляющих изображение. Такое представление информации сериями удобно для коррекции ошибок в декодере. Количество ошибок меняет количество серий, что определяет эффективность передачи информации.

Почти стандартным является использование формата цифрового кодирования 4:2:0. При дискретизации в этом формате на четыре отсчета яркости Y приходится один отсчет красного сигнала Сr и один отсчет синего Сb цветов. В таком формате скорость передачи данных сокращается и составляет 162 Мбит/с. Для картинки с размерами LxH при несжатом изображении, следующем с частотой кадров fr в цветовом формате YUV, скорость потока вычисляется из выражения


Для примера: если взять один из самых малых типичных форматов видеоинформации (176x144), используемый при передаче через мобильную связь, составляющий ¼ от стандарта (704x576), соответствующий цветовой системе PAL, при частоте кадров fr = 25кадр/c, для q = 8-битовому кодовому слову, скорость составляет RYUV = 7,6 Мбит/с. В целом скорость передачи существенно сокращается. Однако этого недостаточно для использования в цифровой мобильной связи и тем более при интернет-трансляции цветной видеоинформации.

Стандарты сжатия MPEG

Для преодоления этого недостатка используются алгоритмы сжатия стандарта кодирования видео H.264 или стандарт усовершенствованного кодирования MPEG-4 Part10, разработанный в 2003 году. Это некий итоговый формат сжатия видео или телесигнала, который является последней разработкой в области компрессии цифрового сигнала. Так как разработкой занимались несколько международных организаций, включая ISO, ITU и т.д., вышеназванный стандарт имеет несколько названий. Это и AVC, JVT, H.26L, H264 и MPEG-4 Part10. Кодек H.264 состоит из тех же элементов, что и MPEG-1, MPEG-2, MPEG-4, H261 и H.263.

Как происходит в этих стандартах удаление временной избыточности? Мы уже упоминали о том, что различие между двумя последовательными видеокадрами очень небольшое, поэтому нет необходимости передавать полностью кадр за кадром. Технология временного сжатия организована на группе изображений из 12 кадров. Это так называемые GOP – Group of Pictures. Содержимое первого кадра в GOP запоминается и используется как I-эталонный для 11 последующих. Содержимое второго кадра после I-го – эталонного сравнивается с ним, и образуется разностный кадр P (Рredicted – предсказуемый). Затем аналогичная процедура совершается последовательно для каждых двух на всех кадрах вплоть до 12-го. Затем для последующей группы из 12 кадров образуется свой I-эталонный кадр. По технологии максимальное сжатие информации получается в P-кадрах. Ну а повышенное сжатие получается при использовании сжатия “с прямым предсказанием” и предсказанием “с компенсацией движения”.

“Прямым предсказанием” является технология формирования P-кадров, включающая предсказание ожидаемой разности между макроблоками последовательных кадров и передачу предсказанных в обработку. В “прямом предсказании” в качестве эталонного используется I-кадр или P-кадр, но он является восстановленным, и возникающие в кадре P ошибки будут передаваться в последующие до появления очередного I-кадра.

Предсказание “с компенсацией движения” сводится к сравнению содержимого предыдущего и последующего кадра для формирования конструированного кадра, то есть B-кадра (Backward-Prediction-кадра). B-кадры нежелательно использовать как эталонные. Поэтому в конечном итоге среди GOP кадров мы имеем восемь B-кадров, три P-кадра и один I-кадр. Сравнивая структуру яркостного содержания в последовательности кадров, можно предсказать вектор скорости и направления движения элементов структуры. Это относительно малый объем информации, который направляется к генераторам P- и B-кадров. Как только вектор движения детерминирован, он используется для формирования сигналов Y, Сr и Сb.

Далее, как и в технологиях JPEG-сжатия для удаления пространственной избыточности на основе группового кодирования с использованием ДКП, используется процессор ДКП как основное устройство кодирования видеоинформации. I-, B- и P-кадры поступают в виде потока блоков 8x8, структурированных в макроблоки и вырезки, образуя один видеокадр изображения, так как они могут являться частью кадра яркости Y или кадров цветности Сr и Сb. Перед ДКП каждое числовое значение в блоке 8x8 – это значение уровня в соответствующем отсчете, например яркости пикселя. При квантовании матрица ДКП каждого блока 8x8 переводится в последовательность через зигзагообразное сканирование, начиная с верхнего левого угла матрицы и заканчивая правым нижним для подачи на хаффменовский кодер. Полученная матрица ДКП кодируется с учетом физиологии зрения человека. Тут учитывается, что зрение человека наиболее чувствительно к градациям яркости укрупненных деталей картинки. Поэтому шаг квантования коэффициентов нулевых пространственных частот делается минимальным, а для высоких частот максимальным.

Источник:
broadcasting.ru

Часть II

В предыдущей публикации был представлен материал по стандарту сжатия MPEG, как одного из способов снижения скорости цифрового потока, находящегося в состоянии передачи движущихся фона и перемещающихся объектов в кадре. Основное внимание было уделено цифровому преобразованию аналогового цветного телевизионного сигнала и его компонентное кодирование.

Напомним, что стандарты сжатия MPEG были разработаны Экспертной группой по движущимся изображениям в кинематографии (Moving Picture Experts Group – MPEG). Эта технология определяет стандарты сжатия как аудио, так и видеоинформации и делает ее удобной для передачи в вещании. Опишем последовательно типы стандартов.

Стандарт сжатия MPEG-1

Стандарт MPEG-1 предполагает переход от пространственного представления изображения к спектральному. Это позволяет избирательно обрабатывать многомерную структуру изображения, чтобы добиться ее более качественных характеристик. В стандарте MPEG-1 для этого используется метод дискретного косинусного образования (ДКП), который применяется к все тем же блокам 8х8, на которые разбивается изображение. Применение ДКП дает матрицу из 64 спектральных составляющих – коэффициентов. Последовательное добавление коэффициентов при восстановлении изображения, начиная с нулевого, определяемого усредненной яркостью исходного блока, приводит к восстановлению блока до удовлетворительного изображения. Опыт показывает, что для средних картинок изображения более чем 50% всех блоков 8х8 могут быть восстановлены до хорошего состояния добавлением порядка 20 коэффициентов - спектральных составляющих из 64. Это позволяет сократить число бит, необходимых для кодирования. Степень сжатия при этом достигает восьми.

Стремление к более высоким степеням компрессии до сотен раз при использовании ДКМ-технологии (8х8 ) приводит к сильному искажению первоначальной картинки. А использование блоков 16х16 требует значительных вычислительных затрат.

По стандарту MPEG-1 аудио и видео информация (потоки) передаются со скоростью 150 Кбайт/с. При управлении потоками выбираются ключевые видеокадры и заполняются только области, изменяющиеся между кадрами.

Вкратце технология сжатия MPEG-1 включает в себя следующие этапы.

Перед кодированием удаление временной избыточности, как мы ранее описывали, происходит по технологии временного сжатия на группе изображений из 12-ти кадров – GOP, в которой выбираются I-кадры (intra frame – кадры), которые сжимаются без изменений, кадры P (predirected frame), при кодировании которых часть информации удаляется, а при воспроизведении используется информация с предыдущих I- или P-кадров. Самым "сжимаемым" типом кадров являются B (bidirectional frame) – кадры, у которых при кодировании потери информации значительны, а при воспроизведении используется информация предыдущих I или P кадров. Если взять сформированную при кодировании наиболее типичную цепочку кадров IBBPBBPBBIBB, то "на лицо" процесс сжатия информации, так как в GOP цепочке соотношение между кадрами (I: P:B) 2:2:8, т.е. превалирование самых сжимаемых кадров в 4 раза.

После окончания разбивки на кадры I-кадры разбиваются на блоки 8х8 пикселей, а кадры P и B типа "сжимаются" через технологию "предсказания движения". В качестве обрабатываемой информации алгоритм "предсказания движения" получает блок текущего кадра (8х8 пикселей) и подобные блоки от предыдущих I или P кадров.

После прохождения обработки в конечном итоге на этом этапе "сжатия" имеется следующая информация:

- вектор движения текущего блока относительно предыдущих,
- разница между настоящим и прошедшими блоками, подвергаемая кодированию в дальнейшем.

Процесс кодирования проходит три этапа

- ДКП (дискретное косинусное преобазование – DCT (discrete cosine transformation);
- квантование (quantization) – перевод информации из аналоговой формы в дискретную;
- перевод полученных блоков из матричной формы в линейную.

Стандарт MPEG-1 в системе цветного телевещаания оказался малопригодным, так как в формате YUY (см. выражения (4) и (5) в Части I настоящей статьи) он оптимизирован для использования с параметрами:

240 линий в кадре (line per frame – lpf);
352 точки в линии (point per line – ppl);
30-ти кадровая развертка (frame per second – fps);

поэтому обеспечивает более низкое качество видеоизображения, нежели передаваемое с соблюдением цветного телевизионного стандарта.

Тем не менее по мере развития формата MPEG-1 разрабатывались методы кодирования звука. Результат был представлен в виде серии звуковых кодеров Layer I, Layer II (Musicam), Layer III (MP3). Формат сжатия звуковой информации работает на принципе эффекта "маскировки" звуков. Чувствительность слуха для двух соседних частот неодинаков из-за последствия воздействия звука на частоте с более высокой мощностью воспроизведения и "затыкания" на время слуха для звука на соседней частоте. Таким образом, использование данного психоакустического эффекта в MPEG-1 заключается в разбивке всего частотного спектра на части, в которых уровень звука считается одинаковым и затем удаляются звуки, не воспринимаемые человеком из-за эффекта "маскировки".

Синхронизация видео- и аудиоинформации осуществляется с помощью технологии потока данных System stream, смыкающего два потока информации системной с таймером на частоте 90 кГц и служебной информацией для синхронизации кадров с звуковым треком и сжатый с видео- и аудиопотоками.

В целом можно подытожить, что результат разработки стандарта MPEG-1 свелся к следующему. Первый стандарт MPEG-1 используется для записи, просмотра и хранения видео- и аудиоинформации на CD дисках. На компакт CD диск помещается примерно 70 минут видео- и аудиоинформации при скорости записи 1,4 Мбит/с.

Стандарт MPEG-1 не получил значительного развития, так как качество видеоизображения было не на много лучше, чем в VHS-стандарте. Однако MPEG-1 все еще используется для записи и хранения информации, архивированной с помощью компьютера.

Стандарт сжатия MPEG-2

Стандартом сжатия, используемый чаще всего в нынешнем телевещании оказался стандарт, разработанный в 1992 году под названием MPEG-2. Технологии кодирования в этом стандарте описаны в основном в предыдущей части статьи. Если подытожить вкратце, то сжатие в формате MPEG-2 сводится к тому, что более 90% цифровой информации видеосигнала избыточна и может быть удалена без особого ущерба качеству изображения. Применительно к видеокартинке мы рассматривали технологии устранения пространственной и временной избыточности таким образом, что после удаления "избыточности" в формате MPEG-2 обеспечивается качественное видеоизображение при низкой скорости передачи информации.

Этапы кодирования в этом формате следующие:

- Аналого-цифровое преобразование и масштабирование кадра;
- Перевод цветного изображения из RGB формата в формат YUV с минимальными потерями;
- Устранение временной избыточности по технологии GOP-цепочек;
- Осуществление двумерного косинусного преобразования (ДКП) без потерь;
- Квантование Фурье-коэффициентов;
- Компрессия через метод эффективного кодирования по Хаффмену без потерь;
- Подсоединение к полученным закодированным кадрам заголовков и отличительных меток.

При кодировании аудиосигналов в стандарте сжатия MPEG-2 поддерживается многоканальность формата 5+1 звуковых каналов и стандарт AAC (Advanced Audio Coding – продвинутое кодирование звука), который предполагает HiFi качество звука со скоростью цифрового потока в 64 Кбит/с на канал.

Следующий формат сжатия MPEG-3, разработанный для телевидения высокой четкости HD с разрешением 19201080 точек при скорости потока 2040 Мбит/с и 30-ти кадрах в секунду, не дал принципиального улучшения картинки по сравнению со стандартом MPEG-2, поэтому не получил дальнейшего развития.

В целом на данный момент повествования можно резюмировать, что стандарт MPEG-2 в своей первоначальной разработке имел в основе стандарт MPEG-1, но имеет несколько существенных изменений для поддержки таких приложений, как эффективная компрессия чересстрочного и прогрессивного видео, более гибкий синтаксис и более существенную системную часть стандарта.

Стандарт оказался гибким и удобным для дальнейших разработок приложений. Он стал внедряться как основа широковещательной цифровой ТВ-трансляции, используя спутниковые каналы вещания, кабельные сети и наземное вещание. MPEG-2 с успехом используется для кодирования фильмов в формате DVD Video. DVD техника, при использовании полупроводникового лазера с длиной волны излучения почти в два раза меньше, чем в CD-устройствах, позволила увеличить рабочие объемы массивов информации и скорость записи и воспроизведения. Кодирование фильмов в формате DVD Video позволило вытеснить из бытового использования устройства VHS-стандарта. Однако следует заметить, что такое домашнее перевооружение произошло в пользу коммерческих структур, которые записывают и продают видеопродукцию, непозволительную в конечном итоге для пользователя. Совершенно исчезли из разработок и предложений на рынке устройства для DVD-записи информации (домашних фильмов) в быту. Тем самым вкус и желания рядовых зрителей просто игнорируются не только в масштабе отечественного рынка, но и в мировом культурном масштабе. Мы сейчас смотрим и воспринимаем информацию, диктуемую мировыми лидерами в производстве фильмов, передач и анимации.

В повествовании о стандартах сжатия мы забыли упомянуть о таком понятии в передаче цифровой информации как битрейт. Битрейт – это основной параметр (уровень), который задается кодеру и определяется как объем выходного потока в битах за единицу времени. Понятно, что чем выше битрейт, тем выше качество картинки. Ставится условие, что, ориентируясь на заданный битрейт, кодер должен иметь возможность динамически подстраивать параметры алгоритмов, используемых на различных этапах обработки информации, чтобы битрейт выходного цифрового потока был как можно ближе к заданному значению с минимальными потерями качества. Конечно, задача полна противоречий, но производители кодеров решают ее, каждый по-своему.

Стандарт сжатия MPEG-4

Далее, чтобы было понятно более или менее с развитием стандартов сжатия, нужно отметить следующее. Группа MPEG, которая занимается разработкой стандартов для международной организации по стандартам (ISO), поработав весьма успешно при создании стандартов сжатия MPEG-1 и MPEG-2 для кодирования видео- и аудиоинформации, создала еще стандарты MPEG-7 и MPEG-21, которые имеют дело с представлением мультимедийного контента и мультимедийной среды, при разработке стандарта MPEG-4, который является самым последним стандартом, определяющим аудиовизуальное кодирование, разделила свои усилия с рабочей группой VCEG (Video Coding Experts Group), работающей в организации ITU (International Telecommunication Union). Группа VCEG разработала в свое время первый рабочий стандарт для видеотелефонии H.261, в последствии H.263, и инициируя разработку стандарта H.26L, вписалась в совместную разработку с группой MPEG, создав совместную группу JVT (Joint Video Team) для придания стандарту H.26L статуса международного стандарта. JVT был создан стандарт H.264/MPEG-4.Part10, который был опубликован одновременно ISO/IEC (Electrotechnical Comission) и ITU-T в виде ITU-TH.264 в 2001 году.

Такие метаморфозы случились из-за того, что в 1994 году стало ясно, что стандарт H.263 потенциально обеспечивает более производительную и перспективную технологию сжатия. Поэтому группа MPEG, пытаясь соблюсти свои интересы и решив охватить кодирование и функциональность на основе "объектов", сделав это существенной особенностью нового стандарта MPEG-4 Visual взяла новую разработку группы ITU-T под названием H.26L, (где "L"- Long Term) и положила ее в основу предложенного в 2003 году стандарта MPEG-4.Part10, обозначив его как H.264/ MPEG-4.Part10 Advanced Video Coding или короче H.264/ MPEG-4.Part10AVC.

Для этого стандарта, который мы просто будем называть MPEG-4, в качестве базовой была выбрана технология кодирования видеоинформации на основе поблочной компенсации движения с последующим преобразованием и квантованием остаточных блоков. Позже этот стандарт впоследствии разделился на MPEG-4.Part2 и Part10/H.264, которые в настоящее время различаются по ряду параметров.

Полное название первого формата дается в виде MPEG-4 Visual (Part2.ISO/IEC 14496, "кодирование аудиовизуальных объектов"). Стандарт ориентирован на определение принципов работы с видео и аудиоинформацией в области интерактивного мультимедиа через каналы различной пропускной способностью цифрового телевидения и работы с графическим цифровым контентом. Так в рамках формата возможна работа с натуральными и созданными компьютером 2D- и 3D-объектами, указывая их взаимодействие между собой и обеспечивая интерактивное взаимодействие с пользователем.

Схема компрессии видеоинформации в стандарте MPEG-4 такой же, что и в предыдущих форматах MPEG. При кодировании выявляются и сохраняются ключевые кадры со сменой сюжета и прогнозируется с сохранением информация об изменениях в текущем кадре по отношению к предыдущему. Далее кодек может работать не только с квадратами, на которые разбивается изображение, но и с объектами произвольной формы. Конечно, в данном случае необходимы более значительные вычислительные ресурсы, однако это особенность формата, который дает возможность работать как с движущимися изображениями (прямоугольные кадры), видеообъектами произвольной формы, 2D- и 3D-объектами, синтезируемыми компьютером, анимационными объектами, так и с объектами неподвижного изображения.

Формат MPEG-4 поддерживает стандарты:

- цифрового телевещания, хранения видеоинформации;
- потокового видео, передаваемого через Интернет и мобильную связь;
- стандарты высококачественной видеопродукции, изготовляемой и распространяемой для студийного употребления;
- представления компьютерной графики в 2D и 3D геометрии;
- стандарты технологии анимационных изображений;
и т. д.

Не следует думать, что за внешней многообразностью и большим охватом возможностей MPEG-4 является каким-то особым стандартом сжатия, так как в основе своей имеет простой механизм видеокодирования, использующий кодирование на основе блоков с компенсацией движения. Далее с последующим преобразованием ДКП, квантованием и энтропийным кодированием. Синтаксис базового кодирования с некоторыми ограничениями идентичен стандарту H.263. Большинство остальных функциональных возможностей получились добавлением некоторых деталей, которые разработаны отдельно.

Звуковая часть MPEG-4 аналогично объектно ориентирована. Здесь используется описание звукового поля на языке BIFS, который позволяет располагать объекты-источники звука в трехмерном пространстве сцены в желаемое положение, менять характеристики звука и добавлять эффекты независимо каждому источнику, перемещая его вместе с визуальным объектом.

При кодировании аудиообъектов в технологии MPEG-4 заложены два языка SAOL (Structured Audio Orchestra Language) и SASL (Structured Audio Score Language), с помощью которых можно запрограммировать любой инструмент и любую программу воспроизведения синтезированного звука.

Особенность MPEG-4 в том, что окончательная сборка общей картины происходит в компьютере или другом приемном устройстве и пользователь может сам формировать получаемое изображение, как телережиссер. Команды пользователя могут обрабатываться в декодере или пересылаться источнику, осуществляя функцию интерактивности.

Переход цифрового вещания в стране от стандарта MPEG-2 к MPEG-4
Что касается перехода цифрового вещания в стране от стандарта сжатия MPEG-2 к стандарту MPEG-4, то у нас этот процесс проявился еще в 2015 году, когда операторы связи спутникового вещания "Триколор TV", "Орион" и "НТВ плюс" с 2016 года после предварительной подготовки начали постепенную замену оборудования как передающего, так и у пользователей.

Этому процессу способствовал еще и приказ Минкомсвязи "Об утверждении Требований к качеству звука и (или) изображения обязательных общедоступных телеканалов и (или) радиоканалов" от 01.09.2015 года, который обязывал операторов связи обеспечить трансляцию цифровых сигналов первого и второго мультиплексов в цифровом формате не хуже, чем с использованием стандарта MPEG-4.

Отметим, что у оператора Триколор ТВ в 2015 году 2 млн абонентов поменяли свое оборудование на новое. В 2016 году уже 75% абонентов совершили обмен.

В мировом масштабе перехода с MPEG-2 на MPEG-4 ускорил процесс внедрения вещания HD – каналов. В 2016 году их составляло более сотни в сетке вещания.

Аналогично сложилась ситуация и у остальных спутниковых операторов. Для ускорения процесса обмена оборудования "Орион" и "НТВ плюс" ввели даже новые правила продаж приемного оборудования MPEG-4 в рассрочку на два года и по сниженной цене. Хотя, конечно, переход от одного стандарта к другому делался постепенно с сохранением параллельного вещания в формате MPEG-2, все новые каналы транслируются в настоящее время в формате MPEG-4.

Источник:
broadcasting.ru

Ответить

Вернуться в «СПУТНИКОВОЕ ТЕЛЕВИДЕНИЕ»