устойчивая к коллективным атакам десинхронизация для цифрового помечания видео
Классы МПК: | H04N7/08 системы для одновременной или последовательной передачи более чем одного телевизионного сигнала, например дополнительных информационных сигналов, которые полностью или частично занимают одну и ту же полосу частот H04N5/08 отделение синхронизирующих сигналов от видеосигналов H04L7/00 Устройства для синхронизации приемника с передатчиком |
Автор(ы): | МИХКАК Мехмет Киванк (US), МАО Иниан (US) |
Патентообладатель(и): | МАЙКРОСОФТ КОРПОРЕЙШН (US) |
Приоритеты: |
подача заявки:
2006-04-21 публикация патента:
20.12.2010 |
Изобретение относится к области распространения цифрового мультимедиа. Техническим результатом является повышение стойкости к коллективным атакам злоумышленников для использования при вставке отличительных меток в цифровое видео, которое должно быть защищено. Указанный технический результат достигается тем, что десинхронизируют видео, которое должно быть защищено, и тем самым создают одно или более видео со вставленными цифровыми отличительными метками. В одной реализации видео, которое должно быть защищено, подвергается временной десинхронизации и пространственной десинхронизации. Создается копия видео с отличительными метками как измененная посредством временной и пространственной десинхронизации. 3 н. и 17 з.п. ф-лы, 17 ил., 2 табл.
Формула изобретения
1. Считываемый компьютером носитель, содержащий исполняемые компьютером команды для цифрового помечания видео, причем эти исполняемые компьютером команды содержат команды для создания помеченной копии видео, которое должно быть защищено, путем изменения этого видео выполнением временной десинхронизации упомянутого видео и пространственной десинхронизации данного видео, посредством чего комбинация множества помеченных копий упомянутого видео в одно видео при коллективной атаке приводит к видимым артефактам.
2. Считываемый компьютером носитель по п.1, в котором временная десинхронизация видео содержит применение решения методом аффинной деформации, причем решение методом аффинной деформации содержит команды для: выведения уравнения, описывающего аффинную деформацию кадра F1 в кадр F2 в видео- и нахождения вектора параметров, описывающего деформацию, посредством решения задачи минимизации, полученной из этого уравнения.
3. Считываемый компьютером носитель по п.1, в котором временная десинхронизация видео содержит применение решения методом аффинной деформации, причем решение методом аффинной деформации содержит команды для: оценки матрицы W деформации кадра F1 в кадр F 2; вычисления прямой и обратной аффинных матриц; получения прямого и обратного деформированных кадров посредством повторной дискретизации кадров F1 и F2 в деформированных координатах и интерполяции нецелочисленных координат для получения выходного значения.
4. Считываемый компьютером носитель по п.1, в котором временная десинхронизация видео содержит применение решения методом оптического потока, причем решение методом оптического потока содержит команды для: предположения постоянной освещенности f в точке (х, y) до и после движения; выведения уравнения потока, в котором f является вектором пространственного градиента; и вычисления вектора движения, с помощью которого следует дискретизировать видео, с использованием f и оцененного пространственного и временного градиента яркости.
5. Считываемый компьютером носитель по п.1, в котором временная десинхронизация видео содержит применение решения методом переключения вектора движения, причем решение методом переключения вектора движения содержит команды для: формирования множества пар деформированных кадров; привязки вектора движения к каждой паре деформированных кадров, тем самым получая множество векторов движения; применения функции ошибки к каждому из векторов движения и использования функции ошибки для выбора вектора движения из упомянутого множества векторов движения для использования при временной десинхронизации.
6. Считываемый компьютером носитель по п.1, в котором временная десинхронизация видео содержит применение решения методом временной интерполяции с компенсацией движения, причем решение методом временной интерполяции с компенсацией движения содержит команды для: формирования кадров G1 и G2 посредством деформации кадров F1 и F2 по направлению к моменту времени; повторной дискретизации кадров G1 и G2 в соответствии с функцией от кадров F1 и F2 и получения интерполированного кадра F как функции от кадров G1 и G2.
7. Считываемый компьютером носитель по п.1, в котором временная десинхронизация видео содержит применение решения методом случайной временной повторной дискретизации с ограничением, причем решение методом случайной временной повторной дискретизации с ограничением содержит команды для: формирования псевдослучайных индексов времени по временной оси и повторной дискретизации видео во вновь сформированные моменты времени посредством интерполяции кадров; ограничения упомянутого формирования так, чтобы по меньшей мере один кадр в повторной дискретизации находился между двумя интервалами кадров в первоначальном видео; формирования случайных приращений i времени, однородно распределенных в пределах [1- , 1+ ]; инициализации t(0)=0 и вычисления индекса времени t(i)=t(i-1)+ i для t=1, 2, , N, где N является длиной повторно дискретизированного видео и случайной величиной в соответствии с N ~ Uniform[M(1- ), М(1+ )]; масштабирования значений с t(1) no t(N), чтобы все индексы времени находились в пределах [0, М]; и выбора параметра для управления длиной изменения и параметра для управления временной пульсацией.
8. Считываемый компьютером носитель по п.1, в котором временная десинхронизация видео содержит стратегию пропуска интерполяции, причем стратегия пропуска интерполяции содержит команды для: определения того, какие кадры в видео описывают быстрое движение и сложное видео; и пропуска повторной дискретизации этих кадров.
9. Считываемый компьютером носитель по п.1, в котором пространственная десинхронизация видео содержит команды для поворота, масштабирования и сдвига точек в видео, которое должно быть защищено.
10. Считываемый компьютером носитель по п.1, в котором пространственная десинхронизация видео содержит решение методом случайного изгиба, причем решение методом случайного изгиба содержит команды для: формирования с использованием ключа псевдослучайной сетки дискретизации; сохранения порядка местоположений дискретизации как по строкам, так и по столбцам; дискретизации всех областей, имеющих площадь больше порогового значения; периодического формирования векторов искажения для выбранных местоположений и сглаживания векторов искажения посредством интерполяции.
11. Считываемый компьютером носитель по п.1, в котором пространственная десинхронизация видео содержит фильтрацию яркости, причем фильтрация яркости содержит команды для: создания симметричного фильтра яркости и выбора параметров в пределах фильтра для улучшения качества восприятия и увеличения случайности в помеченной копии видео.
12. Считываемый компьютером носитель по п.1, в котором пространственная десинхронизация видео содержит дискретизацию параметров, причем дискретизация параметров содержит команды для: выполнения операции поворота над кадром; усреднения кадра с повернутым кадром; определения малых значений, на которые может быть выполнена операция поворота, которые приводят к артефактам восприятия в усредненном кадре; использования малых значений в качестве дискретного размера шага при создании помеченной копии и повторения для операций масштабирования и сдвига.
13. Считываемый компьютером носитель по п.1, в котором пространственная десинхронизация видео содержит команды для сглаживания по времени, причем сглаживание по времени содержит команды для: формирования параметров поворота, масштабирования и сдвига и фильтрации яркости, используемых для пространственной десинхронизации кадров в видео через каждые N кадров; и интерполяции для получения полей параметров в промежуточных кадрах между группами из N кадров.
14. Считываемый компьютером носитель по п.1, в котором пространственная десинхронизация видео содержит команды для распределения параметров, причем распределение параметров содержит команды для: разделения кадров F1 и F2, причем кадры F1 и F2 относятся к помеченным копиям 1 и 2 кадра F видео, посредством дистанцирования параметров поворота, масштабирования, сдвига и случайного изгиба, относящихся к кадрам F1 и F2; и внесения ограничения случайности для этих параметров, причем ограничение случайности является функцией энтропии распределения параметров, превышающих пороговое значение.
15. Считываемый компьютером носитель, содержащий исполняемые компьютером команды для цифрового помечания видео, причем эти исполняемые компьютером команды содержат команды для создания первой и второй помеченных копий видео, которое должно быть защищено, путем изменения этого видео применением первой временной десинхронизации и второй временной десинхронизации к упомянутому видео и применением первой пространственной десинхронизации и второй пространственной десинхронизации к данному видео, посредством чего комбинация первой и второй помеченных копий упомянутого видео в одно видео при коллективной атаке приводит к заметным артефактам.
16. Считываемый компьютером носитель по п.15, в котором применение временной десинхронизации содержит команды для замены индексов времени, относящихся к дискретизации кадра видео, случайными индексами времени.
17. Считываемый компьютером носитель по п.15, в котором применение пространственной десинхронизации содержит команды для глобальных операций, применяемых к множеству кадров, и локальных операций, применяемых к отдельным кадрам.
18. Считываемый компьютером носитель, содержащий исполняемые компьютером команды для цифрового помечания видео, причем эти исполняемые компьютером команды содержат команды для создания помеченной копии видео, которое должно быть защищено, путем изменения этого видео выполнением временной десинхронизации упомянутого видео посредством использования псевдослучайных индексов времени и пространственной десинхронизации данного видео посредством применения операций поворота, масштабирования и сдвига в комбинации с операциями случайного изгиба, посредством чего комбинация множества копий видео, в отношении каждой из которых выполнены упомянутые пространственная десинхронизация и временная десинхронизация, приводит к копии видео с видимыми артефактами.
19. Считываемый компьютером носитель по п.18, в котором временная десинхронизация содержит команды для применения решения методом аффинной деформации для повторной дискретизации, причем вектор параметров используется для изменения кадров в видео.
20. Считываемый компьютером носитель по п.18, в котором пространственная десинхронизация содержит команды для глобального применения операций поворота, масштабирования и сдвига и локального применения операций случайного изгиба.
Описание изобретения к патенту
Быстрое распространение цифрового мультимедиа наряду с постоянно увеличивающейся пропускной способностью интернет-связи делает управление цифровым авторским правом все более и более сложной задачей. Поскольку любой конечный пользователь, принимающий копию информационного содержимого (контента) мультимедиа, может распространить эту копию другим пользователям, должен быть установлен механизм для отслеживания незаконного распространителя, чтобы защитить цифровое авторское право. Помечание (fingerprinting) мультимедиа является способом встраивания уникальных идентификаторов в контент мультимедиа каждого пользователя. Поскольку примененная метка уникально привязана к пользователю, которому была выдана копия, извлечение этой метки в пиратской копии однозначно определяет пользователя, привязанного к метке.
Поскольку данные мультимедиа можно немного изменить, не вызывая искажения восприятия, метка может быть введена в пределах данных без ухудшения восприятия конечным пользователем. Имеется множество предшествующих работ по введению меток в изображение и звуковой сигнал. Однако исследования по введению меток в видео были весьма ограничены. Обычно, если изменяется сигнал-носитель для помечания, также должна быть адаптирована схема помечания. Например, в цветном изображении сцен природы пространство для помечания обычно намного больше, чем в двухуровневом (черно-белом) изображении. Естественно, мы можем ожидать от видео больших возможностей для встраивания. Однако большой объем данных в видео привносит как благоприятные, так и неблагоприятные аспекты. Благоприятный аспект состоит в том, что возможность для встраивания у видео намного выше, чем у неподвижных изображений, и поэтому надежность помечания увеличивается. Неблагоприятный аспект состоит в том, что пространственная и временная избыточность видеосигналов может быть использована злоумышленниками. Поэтому проектирование и разработка схем помечания видео являются более сложными, чем помечания неподвижных изображений и аудио.
Несмотря на усилие проектировщиков меток защитить цифровое авторское право, злоумышленники также имеют сильный стимул удалить метку. Например, популярные системы маркетинга отправляют популярные кинофильмы в кинотеатры перед тем периодом времени, в течение которого они продаются "на видео", например, на DVD-носителе. Если пират может продать кинофильм на DVD во время его проката в кинотеатрах, может быть получена огромная прибыль. При атаке на схему помечания цель злоумышленников состоит в том, чтобы ввести в заблуждение датчик меток, с тем, чтобы он не смог обнаружить или правильно идентифицировать метку. Для злоумышленников временная сложность и качество восприятия также являются важными соображениями, поскольку ценность мультимедиа частично состоит в его своевременности и качестве восприятия. Соответственно, группа злоумышленников, каждый из которых владеет помеченной копией видео, может сговориться сформировать коллективную атаку. Такая атака пытается ослабить или удалить метку, введенную в каждую копию. Когда количество помеченных копий в коллективной атаке является достаточно большим, например 30-40, полезность метки снижается настолько, что для датчика меток может стать невозможным обнаружить наличие метки в копии, подвергшейся коллективной атаке.
СУЩНОСТЬ ИЗОБРЕТЕНИЯ
Описана десинхронизация, стойкая к коллективным атакам злоумышленников, для использования при помечании цифрового видео, в которой видео, которое должно быть защищено, десинхронизируют и тем самым создают одну или более помеченных копий видео. В одной реализации видео, которое должно быть защищено, десинхронизируется во времени и десинхронизируется в пространстве. Создается помеченная копия видео, измененная посредством временной и пространственной десинхронизации.
ПЕРЕЧЕНЬ ЧЕРТЕЖЕЙ
Подробное описание дано со ссылкой на сопроводительные чертежи. На чертежах крайняя левая цифра (цифры) номера для ссылок идентифицирует фигуру, в которой номер для ссылок впервые появляется. Использование одних и тех же номеров для ссылок на разных фигурах указывает сходные или идентичные элементы.
Фиг.1 показывает иллюстративную шкалу времени, позволяющую сравнивать однородно дискретизированные индексы времени и случайным образом дискретизированные индексы времени.
Фиг.2 показывает иллюстративные аспекты временной десинхронизации, включающие в себя стратегии аффинной деформации, при которой кадр F 1 деформируется в кадр F2.
Фиг.3 показывает иллюстративные аспекты временной десинхронизации, включающие в себя стратегии аффинной деформации, при которой деформируются оба кадра F1 и F2.
Фиг.4 показывает иллюстративные аспекты временной десинхронизации, включающие в себя стратегии оптического потока.
Фиг.5 показывает иллюстративные аспекты временной десинхронизации, включающие в себя стратегии переключения векторов движения.
Фиг.6 показывает иллюстративные аспекты временной десинхронизации, включающие в себя стратегии временной интерполяции с компенсацией движения.
Фиг.7 показывает иллюстративные аспекты псевдослучайных индексов времени для повторной временной дискретизации.
Фиг.8 показывает иллюстративные аспекты временной десинхронизации, включающие в себя стратегии случайной повторной временной дискретизации.
Фиг.9 показывает иллюстративные аспекты временной десинхронизации, включающие в себя стратегии с пропуском интерполяции.
Фиг.10 показывает иллюстративные аспекты пространственной десинхронизации, включающие в себя стратегии поворота, масштабирования и сдвига (RST).
Фиг.11 показывает иллюстративные аспекты пространственной десинхронизации.
Фиг.12 показывает иллюстративные аспекты пространственной десинхронизации, включающие в себя стратегии изгиба.
Фиг.13 показывает иллюстративные аспекты пространственной десинхронизации, включающие в себя стратегии фильтрации яркости.
Фиг.14 показывает иллюстративные аспекты пространственной десинхронизации, включающие в себя стратегии дискретизации параметров.
Фиг.15 показывает иллюстративные аспекты пространственной десинхронизации, включающие в себя стратегии сглаживания во времени.
Фиг.16 показывает иллюстративные аспекты пространственной десинхронизации, включающие в себя стратегии распределения параметров.
Фиг.17 показывает иллюстративную вычислительную среду, подходящую для реализации устойчивой к коллективным атакам десинхронизации для помечания цифрового видео.
ПОДРОБНОЕ ОПИСАНИЕ
Последующее описание направлено на системы и способы, которые борются с коллективными атаками, при которых два или более получателей помеченных копий контента мультимедиа (например, цифрового универсального диска DVD с аудио- и видеоконтентом, таким как кинофильм) пытаются скомбинировать свои копии, чтобы создать высококачественную версию без меток. В частности, разработаны системы и способы, приводящие к формированию артефактов восприятия, если помеченные копии повторно комбинируются.
Фиг.1 показывает иллюстративную методику 100 десинхронизации, используемую для помечания контента мультимедиа, чтобы противостоять коллективным атакам. В варианте воплощения, показанном на фиг.1, устойчивая к коллективным атакам схема десинхронизации включает в себя видеодесинхронизацию как во временной, так и в пространственной области. Каждая пользовательская копия видео немного изменена таким образом, что изменения не будут заметны для каждой индивидуальной копии, но будут достаточно существенны, чтобы произвести артефакты восприятия, когда несколько копий комбинируются (например, такими способами, как усреднение). Так как физические характеристики временной оси и пространственной оси значительно отличаются, временная и пространственная десинхронизация обычно разделяются на два этапа. На первом этапе сначала применяется ограниченная псевдослучайная дискретизация во временной области. Принимая во внимание, что набор видеокадров однородно дискретизирован по оси времени, используется интерполяция кадров на основе движения для формирования новых видеокадров в произвольных индексах времени. На втором этапе каждый видеокадр дополнительно десинхронизируется посредством глобальной геометрической операции, включающей в себя поворот, масштабирование и сдвиг, за которыми следует локальный случайный изгиб с использованием случайно выбранной сетки пространственной дискретизации. Проблемы качества восприятия решаются посредством сглаживания параметров десинхронизации по пространственной и временной осям. Кроме того, проблема безопасности десинхронизации анализируется в контексте вычислительной сложности.
В частности, фиг.1 показывает пример 100 варианта воплощения, в котором псевдослучайная временная дискретизация видео и методики пространственной десинхронизации объединены для получения помеченных копий видео, для которых может быть отслежен первоначальный получатель, и которые приводят к дефектной копии, поврежденной посредством видимых артефактов, при комбинировании со сходными помеченными копиями. На этапе 102 видео, которое должно быть защищено, подвергается временной десинхронизации. На этапе 104 видео подвергается пространственной десинхронизации. На этапе 106 создается помеченная копия видео, измененного посредством временной и пространственной десинхронизации.
Псевдослучайная временная дискретизация видео
Эта глава подробно останавливается на временной десинхронизации, теме, внесенной на рассмотрение этапом 102 на фиг.1. Временная десинхронизация может использовать псевдослучайную временную дискретизацию, включающую в себя интерполяцию видеокадров. Основная проблема, связанная с интерполяцией видеокадров, состоит в том, что для заданной пары близких во времени видеокадров (например, кадра F1 в момент времени t1 и кадра F 2 в момент времени t2, причем (t2 >t1) и T=t2-t1 является периодом кадров исходного видео) мы хотим сформировать промежуточный кадр в момент времени (t1+ ·Т), где 0 1. Во многих случаях прямое усреднение соответствующих пикселов кадра не будет давать хороший результат, поскольку объекты в видеокадрах имеют тенденцию перемещаться, и такое движение должно быть принято во внимание при проведении интерполяции. В соответствии с этим, имеется потребность в более сложных методиках.
Временная десинхронизация может использовать псевдослучайную временную дискретизацию. Псевдослучайная временная дискретизация видео может использовать стратегию аффинной деформации для обеспечения основы для интерполяции видеокадров. Например, если заданы два видеокадра F1 и F2, полезно деформировать кадр F1 в кадр F2. Координаты в кадре F 1 можно обозначить как (x1, y1) и в кадре F2 - как (х2, y2). Однородные координаты можно использовать для описания двухмерной аффинной деформации кадра F1 в кадр F2 в соответствии с уравнением:
Матрица аффинного преобразования обозначена в указанном выше уравнении как W. Параметры w1-w 6 учитывают операции поворота, масштабирования и сдвига. Все эти параметры сначала оцениваются на изображениях кадров F1 и F2 с меньшей дискретизацией, затем масштабируются и уточняются для изображений большего размера, пока окончательно не будет достигнут первоначальный размер кадров.
Поиск параметров включает в себя нахождение решения задачи минимизации. Обозначим операцию деформирования кадра как warpw(·) и показатель расстояния, который служит мерой расстояния между двумя кадрами, как dist(·,·). Поскольку операция деформирования уникально определена параметрами деформирования, попытаемся найти такой вектор параметров w*=[w 1*w2*w3*w4*w5 *w6*]T, что
Когда показатель расстояния является суммой квадратов разностей, указанная выше формула становится задачей метода наименьших квадратов. Такая задача может быть решена с помощью классического алгоритма Лукаса - Канаде (Lucas - Kanade), который по существу использует метод Гаусса - Ньютона для нахождения минимумов.
Чтобы сократить вычислительную сложность из-за высокой размерности, заметим, что параметры сдвига w3 и w6 могут быть отделены от других параметров. Поэтому сначала могут быть определены параметры w3 и w6, после чего выполняется итерационная процедура для обновления вектора параметров, пока он не будет сходиться.
В соответствии с этим, решение аффинной деформации может быть применено посредством вывода уравнения, описывающего аффинную деформацию кадра F1 в кадр F2 в пределах видео, такого как уравнение (1). Получив уравнение, вектор параметров, описывающий деформацию, может быть найден с помощью решения задачи минимизации, полученной из уравнения, такого как уравнение (2).
Фиг.2 показывает вариант 200 воплощения временной десинхронизации, характеризуемый решением методом аффинной деформации, в котором кадр F1 деформируется в кадр F2. Решение методом аффинной деформации находят в пределах такого набора Ф функций деформации, что для любого заданного изображения I посредством применения функции деформации k(·) Ф к изображению I может быть сформировано деформированное изображение I , то есть I = k(I), для распространения пользователю k. Таким образом, каждый пользователь получит отличающуюся копию изображения I, и тем самым усложняется коллективная атака. На этапе 202 получают матрицу аффинного преобразования для деформации кадра F1 в кадр F2 в видео, причем матрица учитывает операции поворота, масштабирования и сдвига (RST). Уравнение (1) является типичным для матрицы аффинного преобразования. На этапе 204 находят решение задачи минимизации, относящейся к матрице. Уравнение (2) является типичным для задачи минимизации. Задача минимизации может решаться любым соответствующим способом. Например, на этапе 206 применяют решение методом наименьших квадратов, в котором уравнение основано на показателе расстояния dist, являющемся суммой квадратов разностей. На этапе 208 может быть сокращена вычислительная сложность задачи минимизации посредством отделения параметров сдвига от других параметров, решения в первую очередь для параметров сдвига и применения итерационной процедуры к вектору параметров до тех пор, пока она не сойдется. Таким образом, в приведенном выше примере сначала были определены параметры w 1 и w6, и тем самым была сокращена размерность задачи для облегчения нахождения решения для оставшихся параметров.
Приведенное выше рассмотрение фиг.2 относится к интерполяции видеокадра вообще и, в частности, к инструменту аффинной деформации для псевдослучайной временной дискретизации. При этих обстоятельствах мы видели, что для заданных двух видеокадров F1 и F2 выгодно деформировать кадр F1 в кадр F2. Альтернативный инструмент аффинной деформации, представленный на фиг.3 и адаптированный к аналогичному применению, может успешно деформировать оба кадра F1 и F2 .
Предположим, что заданы кадр F1 в момент времени t1 и кадр F2 в момент времени t2 и мы хотим деформировать оба кадра F1 и F2 в направлении к моменту времени (t1 + ·T), где 0< <1. Сначала мы оцениваем матрицу W деформации кадра F1 в кадр F2. Затем матрицы WF и WB прямого и обратного аффинных преобразований, которые деформирует кадр F1 и кадр F2 по направлению к моменту времени (t1+ ·T), могут быть вычислены в соответствии с уравнениями
и
Кадры прямой и обратной деформации, кадр Ffwd из кадра F1 и кадр Fbwd из кадра F2, получают посредством повторной дискретизации кадров F1 и F2 соответственно в деформированных координатах
Поскольку точка повторной дискретизации может находиться не в целочисленных координатах, для получения выходного значения могут быть использованы такие способы интерполяции, как билинейная интерполяция или кубическая интерполяция.
Фиг.3 показывает вариант 300 воплощения временной десинхронизации, характеризуемый вторым решением методом аффинной деформации, в котором оба кадра F1 и F2 деформируются в направлении к моменту времени (t1+ ·Т), где 0 1. Второе решение методом аффинной деформации также находят в пределах такого набора Ф функций деформации, что для любого заданного изображения I посредством применения функции деформации k(·) Ф к изображению I может быть сформировано деформированное изображение I , то есть I = k(I), для распространения пользователю k. Таким образом, каждый пользователь получит отличающуюся копию изображения I, и тем самым усложняется коллективная атака. На этапе 302 оценивают матрицу W деформации кадра F1 в кадр F2 . На этапе 304 могут быть вычислены прямая и обратная аффинные матрицы с использованием оцененной матрицы W. Приведенные выше уравнения (3) и (4) являются примерами прямой и обратной матриц. Прямая и обратная матрицы позволяют вычислить прямой и обратный деформированные кадры. В соответствии с этим, на этапе 306, прямой и обратный деформированные кадры получают посредством повторной дискретизации кадров F1 и F2 в деформированных координатах. В приведенном выше примере уравнения (5) и (6) показывают, как прямой и обратный кадры Ffwd и Fbwd могут быть получены посредством повторной дискретизации и использования прямой и обратной матриц. На этапе 308, если получены нецелочисленные координаты, может использоваться интерполяция для получения приемлемых выходных значений.
Варианты воплощения псевдослучайной временной дискретизации видео могут использовать стратегию оптического потока для обеспечения основы для интерполяции видеокадров. В соответствии с этим оптический поток может обеспечить псевдослучайную временную дискретизацию видео, которая используется для помечания видео, полученного из видео, которое должно быть защищено. Оптический поток относится к наблюдаемому двухмерному движению в видеоданных. Поскольку человеческий глаз воспринимает движение посредством наблюдения соответствующих точек в разных местоположениях в разное время, идентификация движения основана на предположении постоянной интенсивности, что значение яркости одной и той же точки объекта не изменяется после перемещения. Предположим, что в видео последовательности изменение яркости обозначено f(х, y, t). Предположим, что точка Р объекта в пространственном местоположении (х, y) в момент времени t перемещается в положение (x+dx, y+dy) в момент времени t+dt. При предположении постоянной интенсивности мы имеем уравнение
Предполагая непрерывность поля яркости вдоль пространственной и временной осей, мы можем применить разложение Тейлора к левой стороне уравнения (7), таким образом, уравнение теперь становится уравнением
Тогда мы приходим к уравнению оптического потока
или
где f - вектор пространственного градиента функции f(x, y, t).
Уравнение оптического потока предлагает нам подход к вычислению вектора движения, если мы можем оценить пространственный и временной градиент яркости. В варианте воплощения пространственные градиенты для местоположения (х, y) оцениваются в пределах окна размером 5×5 с центром в (х, y). В соответствии с этим, функция уравнения (10) может быть расширена для вычисления компонентов х и у вектора движения.
Фиг.4 показывает вариант 400 воплощения временной десинхронизации, характеризуемый применением решения оптического решения для повторной дискретизации. В частности, вектор пространственного градиента используется для изменения кадров в видео, тем самым видео деформируется по-разному для каждого пользователя, которому будут распределены копии видео. На этапе 402 предполагают постоянную освещенность f точки (х, y) до и после перемещения. Такое предположение совместимо с естественным прослеживанием, выполняемым человеческим глазом, при котором движение наиболее хорошо наблюдается, когда объект имеет в общем постоянный внешний вид. На этапе 404 выводят уравнение потока. Например, уравнения (9) и (10) являются типичными для уравнений оптического потока, которые помогают в вычислении вектора движения, при заданной оценке пространственного и временного градиента яркости. На этапе 406 вычисляют вектор движения, с помощью которого следует дискретизировать видео с использованием f и оцененного пространственного и временного градиента яркости.
Варианты воплощения псевдослучайной временной дискретизации видео могут использовать стратегию переключения вектора движения для обеспечения основы для интерполяции видеокадров. Переключение вектора движения помогает в выборе вектора движения для коррекции деформации, подразумеваемой матрицей W. Предположим, что заданы кадр F1 в момент времени t1 и кадр F2 в момент времени t2 (t2 >t1), и мы хотим сформировать новый кадр в момент времени (t1+ ·Т). Сначала мы формируем три пары деформированных кадров. Первой парой являются просто исходные кадры (F1 , F2). Второй парой являются исходные кадры, подвергнутые аффинной деформации в направлении к моменту времени (t1 + ·Т), (Ffwd/Fbwd). Третьей парой являются кадры, подвергнутые аффинной деформации плюс компенсации коррекции движения, (F fwd, F bwd). где поле движения унаследовано от предыдущего уровня с меньшей дискретизацией. Для каждой пары кадров применяется дифференциальная оценка движения с использованием подхода с оптическим потоком. Это приводит к трем полям векторов движения. Допустим, что это - поля векторов движения v1(x, y), v2 (x, y) и v3(x, y). Переключение векторов движения - это процесс определения предпочтительного вектора движения из трех кандидатов векторов движения в местоположении (х, y), который является коррекцией к аффинному деформированию, подразумеваемому матрицей W. Критерий выбора основан на следующей функции ошибки Ev(x, y), которая может рассматриваться как практическая форма уравнения (10) оптического потока
где
, ,
и S - малое окно с размерами 5×5 пикселей и с центром в точке (х, y). Вектор движения v(x, y) является постоянным по суммированию, и fx, fy и ft являются функциями от (х, y). Такая формулировка может быть решена посредством классического алгоритма Лукаса - Канаде, который является по существу способом Гаусса - Ньютона итерационного решения данной задачи численной оптимизации. Используя упомянутую выше функцию ошибки, являющийся кандидатом вектор движения, который достигает минимальной ошибки в местоположении (х, y), выбирают в качестве нового вектора движения. Для применения в интерполяции мы придаем гладкость вектору движения посредством применения гладкой фильтрации к полю векторов движения с использованием медианного или усредняющего фильтра. Это приводит к конечному полю v векторов движения.
Фиг.5 показывает вариант 500 воплощения временной десинхронизации, характеризуемый применением решения методом переключения векторов движения для повторной дискретизации. На этапе 502 формируют множество пар деформированных кадров. На этапе 504 вектор движения привязывают к каждой паре кадров, тем самым получают множество векторов движения. На этапе 506 функцию ошибки применяют к каждому из векторов движения. Функция ошибки может быть в виде уравнения (11). На этапе 508 функцию ошибки используют для выбора вектора движения для использования во временной десинхронизации.
Варианты воплощения псевдослучайной временной дискретизации видео могут использовать стратегию временной интерполяции с компенсацией движения для обеспечения основы для интерполяции видеокадров. В стратегии временной интерполяции с компенсацией движения исходные кадры могут быть деформированы в направлении к моменту времени. Например, на основе поля v движения исходные кадры F1 и F 2 деформируются по направлению к моменту времени (t 1+ ·T), чтобы сформировать два деформированных кадра G1 и G2. С этой целью векторы движения являются линейно масштабированными, и деформированный кадр является повторно дискретизированной версией исходного кадра. Например,
и кадр G2 может быть получен аналогичным образом. Как только мы получаем кадры G1 и G2, конечный кадр интерполяции F(x, y) получают как
В соответствии с этим, видео может быть подвергнуто временной десинхронизации посредством применения решения методом временной интерполяции с компенсацией движения к повторной дискретизации. Кадры G1 и G2 могут быть сформированы посредством деформирования F1 и F2 по направлению к такому моменту времени, как (t1+ ·Т). Кадры G1 и G2 затем могут быть повторно дискретизированы в соответствии с функцией от F 1 и F2, такой как уравнение (12). Наконец, интерполированный кадр F может быть получен как функция от G1 и G 2, например, посредством использования уравнения (13).
Фиг.6 показывает вариант 600 воплощения временной десинхронизации, характеризуемый применением решения методом временной интерполяции с компенсацией движения для повторной дискретизации, в котором исходные кадры F1 и F 2 и привязанный вектор v движения используются для получения такого интерполированного кадра F, что дискретизация F приводит к дискретизации с помечанием. На этапе 602 формируют кадры G 1 и G2 посредством деформации кадров F1 и F2 по направлению к моменту времени (t1 + ·Т). Например, уравнение (12) показывает, как кадр G1 может быть получен из кадра F1. На этапе 604 кадры G1 и G2 повторно дискретизируют из кадров F1 и F2. Например, повторная дискретизация может быть выполнена, в соответствии с уравнением (12). На этапе 606 интерполированный кадр может быть получен как функция от деформированных кадров G1 и G2 . Например, уравнение (13) представляет собой пример того, как интерполированный кадр F может быть получен из деформированных кадров G1 и G2.
Варианты воплощения псевдослучайной временной дискретизации видео могут использовать ограниченную стратегию случайной временной повторной дискретизации для обеспечения основы для интерполяции видеокадра. В одном варианте воплощения формируются псевдослучайные индексы времени по временной оси, дающие возможность повторной дискретизации видео во вновь сформированные моменты времени посредством интерполяции кадра. Чтобы достичь хорошего качества восприятия, мы вносим ограничение, что в повторно дискретизированном видео между двумя интервалами кадра в первоначальном видео, то есть между любым кадром i и i+2 в первоначальном видео, должен находиться, по меньшей мере, один кадр. На фиг.7 можно видеть, что случайно отсчитанный индекс времени расположен между каждым из равномерно отсчитанных индексов времени. Это ограничивает временную пульсацию в повторно дискретизированном видео и в то же время дает место для случайного выбора по времени. Чтобы достичь этой цели, мы сначала формируем независимые, одинаково распределенные случайные приращения времени, i, которые равномерно распределены в диапазоне [1- , 1+ ]. Затем мы инициализируем время t(0)=0 и вычисляем индекс времени t(i)=t(i-1)+ i для i=1, 2, , N. Здесь N полная длина повторно дискретизированного видео, которая является случайной величиной в соответствии с N ~ Uniform[M(1- ), М(1+ )], где М - общее количество кадров в первоначальном видео. Наконец, мы масштабируем значения от t(1) до t(N), чтобы удостовериться, что все индексы времени попадают в диапазон [0, М].
При такой постановке могут быть выбраны два параметра: , который управляет величиной временной пульсации, и , который управляет изменением длины. В примере, посредством которого может быть реализована временная десинхронизация, и могут быть выбраны как =0,75 и =0,0035. Другие значения могут дать удовлетворительные результаты в различных приложениях этих концепций.
Фиг.8 показывает вариант 800 воплощения временной десинхронизации, характеризуемый применением стратегии случайной временной повторной дискретизации с ограничением для повторной дискретизации, в котором равномерно отсчитанные индексы времени, привязанные к видео, заменяются случайно отсчитанными индексами времени, привязанными к повторной дискретизации. На этапе 802 формируют псевдослучайные индексы времени по временной оси. Затем видео повторно дискретизируют во вновь сформированные моменты времени, например, посредством использования интерполяции кадров. На этапе 804 формирование псевдослучайно отсчитанных индексов времени ограничивают, чтобы, по меньшей мере, один кадр в повторной дискретизации находился между двумя интервалами кадра в первоначальном видео. В примере на фиг.7 можно видеть, что между каждыми двумя первоначальными маркерами кадров (сверху шкалы времени) имеется один псевдослучайный маркер кадра (снизу шкалы времени). На этапе 806 формируют случайные приращения i времени и равномерно распределяют их в пределах диапазона [1- , 1+ ]. На этапе 808 индекс времени инициализируют и вычисляют по длине видео. Например, индекс времени может быть инициализирован в t(0)=0 и вычислен в соответствии с t(i)=t(i-1)+ i для i=1, 2, , N, где N - длина повторно дискретизированного видео и является случайной величиной в соответствии с N ~ Uniform[M(1- ), М(1+ )]. На этапе 810 значения от t(1) до t(N) масштабируют, чтобы все индексы времени находились в пределах [0, М], где М - общее количество кадров в видео. На этапе 812 могут быть выбраны переменные для управления аспектами видео. В частности, выбирают параметр для управления длиной изменения и для управления временной пульсацией. Например, параметр может быть установлен равным 0,75, и параметр может быть установлен равным 0,0035.
Варианты воплощения псевдослучайной временной дискретизации видео могут использовать стратегию интерполяции с пропусками для улучшения контроля качества. Когда кадры в совокупности образуют быстрое движение и/или сложные сцены, использование интерполяции кадров может не привести к удовлетворительному результату с точки зрения восприятия. Поэтому качеством интерполированного кадра можно управлять посредством пропуска кадров, которые представляют собой быстрое и сложное движение. Количественно дисперсия поля вектора движения может быть вычислена как var(vx) и var(v y), причем интерполяция пропускается всякий раз, когда сумма var(vx)+var(vy) больше порогового значения Vth. В одной реализации размер кадра может быть установлен равным 640×480 пикселей, и порог Vth может быть установлен равным 300. Вообще, использование меньшего размера кадра должно приводить к пропорциональному уменьшению порога на основе ширины или высоты кадра.
Фиг.9 показывает вариант 900 воплощения стратегии интерполяции с пропусками для улучшения контроля качества. На этапе 902 определяют, какие кадры в видео описывают быстрое движение и сложное видео. Эти кадры представляют потенциальную проблему качества, если применяется псевдослучайная временная дискретизация. На этапе 904 кадры, которые описывают быстрое движение и сложное видео, отмечают и пропускают повторную дискретизацию этих кадров.
Пространственная десинхронизация видео
Эта глава рассматривает пространственную десинхронизацию, тему, внесенную на рассмотрение блоком 104 на фиг.1. Пространственная десинхронизация может использоваться вместе с псевдослучайной временной дискретизацией видео для создания десинхронизации. Одна реализация пространственной десинхронизации включает в себя как глобальные операции, так и локальные операции. Глобальные операции включают в себя поворот, масштабирование и сдвиг (RST) кадра. Локальные операции включают в себя сглаженный переменный случайный изгиб и фильтрацию яркости. Чтобы достичь хорошего качества восприятия, параметры для этих операций формируются сглаженными в пространстве и по времени.
Операции поворота, масштабирования и сдвига (RST) являются одним видом пространственной десинхронизации. Поворот, масштабирование и сдвиг (смещение) могут быть представлены с использованием однородных координат. Пусть координаты перед операциями поворота, масштабирования и сдвига (RST) - это (x1, y1), и после поворота, масштабирования и сдвига (RST) - (x2, y2), поворот на угол приведет к следующему соотношению
Аналогично мы можем найти соотношение координат после сдвига на (tx, ty)
и соотношение после масштабирования
Полный эффект может быть представлен с использованием комбинации матриц преобразования поворота, сдвига и масштабирования.
В реализации уравнений 14-16 угол поворота, коэффициент sx и sy масштабирования и величина tx и ty сдвига выбираются с таким ограничением, чтобы достичь незаметности операций поворота, масштабирования и сдвига (RST). Соответствующий этому выбор включает в себя: [- , ]; sx,sy [1-S, 1+S] и ty [-Г, Г]. В этой реализации используется кубическая сплайновая интерполяция, и выбран период Т=32. В одной реализации диапазоны параметров поворота, масштабирования и сдвига (RST) установлены = /100, S=0,04 и Г равным 1% от размеров кадра.
Фиг.10 показывает вариант 1000 воплощения пространственной десинхронизации, характеризуемый применением стратегии, включающей в себя типично глобальные операции для поворота, масштабирования и сдвига (RST) кадра. На этапе 1002 поворачивают точки в видео, которое должно быть защищено. На этапе 1004 масштабируют точки в видео, которое должно быть защищено. На этапе 1006 сдвигают точки в видео, которое должно быть защищено. Следует отметить, что по желанию могут быть применены одна, две или все из операций поворота, масштабирования и сдвига (RST). Эти операции обеспечивают случайность и составляют часть метки, привносимой в видео.
Случайный изгиб представляет собой инструмент, используемый для пространственной повторной дискретизации изображения в случайных местоположениях подпикселов. Обычно в цифровых изображениях пикселы отсчитываются в однородной сетке, как показано на фиг.11. При случайном изгибе первоначальная сетка дискретизации заменяется псевдослучайной сеткой дискретизации, сформированной с использованием ключа. Количество точек дискретизации до и после изгиба остается неизменным. Чтобы сохранять качество восприятия, должны быть выполнены несколько ограничений. Во-первых, нужно сохранить порядок местоположений дискретизации, то есть, если два местоположения дискретизации, (xi, yk) и (xj, yk ) находятся в одной и той же "строке" и i<j, то xi<xj. To же самое правило применяется к упорядочиванию столбцов. Во-вторых, следует удостовериться, что большинство областей приблизительно равномерно дискретизированы. Математически это означает, что для любой выпуклой области S с площадью больше А должна существовать, по меньшей мере, одна точка Р дискретизации внутри области S. Мы выбираем пространственно искаженную сетку дискретизации в качестве изгибающей сетки. Для каждого первоначального местоположения (х, y) дискретизации мы формируем вектор (А, Ay) искажения, и новые местоположения (х , y )дискретизации
и
Векторы ( x(i, j), y(i, j) искажения для всех местоположений дискретизации образуют поле. Чтобы гарантировать, что поле векторов искажения имеет сглаженные изменения в пространстве, мы предлагаем получать независимые одинаково распределенные векторы искажения периодически и интерполировать векторное поле в незаполненных местоположениях. Это достигается с помощью следующих двух этапов:
Сформировать векторы ( x(kT, rT), y(kT, rT) искажения для k=0, 1, 2, , r=0, 1, 2, и некоторого периода Т.
Интерполировать значения вектора искажения на двухмерном поле с использованием билинеарной или бикубической интерполяции. Сначала применяется интерполяция строк, и затем применяется интерполяция столбцов.
Фиг.12 показывает вариант 1200 воплощения пространственной десинхронизации, характеризуемый операциями случайного изгиба. На этапе 1202 формируют псевдослучайную сетку дискретизации, обычно с использованием ключа. На этапе 1204 сохраняют порядок местоположений дискретизации как по строкам, так и по столбцам. На этапе 12 06 выбирают все области, имеющие площадь больше порогового значения. На этапе 1208 периодически формируют векторы искажения для выбранных местоположений. На этапе 1210 векторы искажения сглаживают, обычно посредством такой методики, как интерполяция.
Фильтрация яркости представляет собой инструмент, используемый для случайного повышения или понижения резкости различных областей в видео. Фильтрация яркости имеет два эффекта. Во-первых, после временной интерполяции, операций пространственного поворота, масштабирования и сдвига (RST) и изгиба сформированные изображения имеют тенденцию быть размытыми. Таким образом, мы можем использовать фильтр повышения резкости краев для улучшения качества восприятия конечного результата. Во-вторых, параметры фильтров яркости можно сделать случайными, обеспечивая больше случайности в десинхронизированном видео. В варианте воплощения, показывающем систему десинхронизации, рассмотрим симметричный фильтр яркости размера 3 на 3 в виде
Здесь параметр А управляет полной энергией фильтра, и параметр В учитывает эффект увеличения резкости. Для хорошего качества восприятия параметр А должен быть близок к 1, и параметр В должен быть больше 0, чтобы достичь эффекта увеличения резкости краев. В иллюстративной реализации параметр А находится в диапазоне [1-0,04, 1+0,04], и параметр В находится в диапазоне [0, 0,7].
Фиг.13 показывает вариант 1300 воплощения пространственной десинхронизации, характеризуемый фильтрацией яркости. На этапе 1302 создают симметричный фильтр яркости. Фильтр может иметь вид уравнения (17C) или аналогичный. На этапе 1304 выбирают параметры для улучшения качества восприятия и увеличения случайности в помеченной копии видео. В варианте воплощения, в котором используется такой фильтр, как представлен в уравнении (17С), выбирают параметры А и В для настройки фильтра яркости по желанию.
Инструменты сглаживания и оптимизации параметров конфигурируются для управления значениями параметров и получения копий видео с разной десинхронизацией. Один такой инструмент, дискретизация параметра , помогает обеспечивать существенно различные значения для параметров, привязанных к разным копиям видео. Как рассмотрено выше, параметры поворота, масштабирования и сдвига (RST) имеют ограничения для сохранения качества восприятия. Кроме того, чтобы получить достаточное различие между двумя по-разному десинхронизированными копиями видео, параметры также должны быть дискретизированы (то есть сделаны дискретными) с достаточно большим размером шага. Чтобы определять размер шага, подходящий при дискретизации, может быть проведен следующий эксперимент. В одном примере две копии кадра с размером 640×480 усредняются, причем первая копия является первоначальной копией, а вторая копия является копией после поворота на градусов. Затем два кадра усредняют и наблюдают для определения того, имеются ли какие-нибудь артефакты восприятия в усредненном кадре, например, размытие. Вообще, в качестве размера шага дискретизации используют наименьшее значение , которое вызывает артефакты восприятия. Используя подобные подходы, определяют размер шага параметров масштабирования и сдвига. Например, выбирают восемь уровней квантования для параметра поворота, восемь для параметров сдвига и четыре для параметров масштабирования. Эти результаты сводят в таблицу I.
ТАБЛИЦА I | |||
ДИСКРЕТИЗАЦИЯ ПАРАМЕТРОВ ДЛЯ ОПЕРАЦИЙ ПОВОРОТА, МАСШТАБИРОВАНИЯ И СДВИГА (RST) | |||
Поворот | Сдвиг | Масштабирование | |
размер шага | 0,4 градуса | 2 пиксела | 0,01 |
Минимум | -1,4 градуса | -7 пикселов | 0,965 |
Максимум | 1,4 градуса | 7 пикселов | 0,995 |
Уровней | 8 | 8 | 4 |
Фиг.14 показывает вариант 1400 воплощения пространственной десинхронизации, характеризуемый сглаживанием и оптимизацией параметров. Эта операция обеспечивает дискретный размер шага, с которым могут выполняться операции пространственной десинхронизации. На этапе 1402 над кадром выполняют операцию поворота. На этапе 1404 кадр и повернутый кадр усредняют вместе. Способ, с помощью которого выполняется это усреднение, является достаточно гибким. На этапе 1406 определяют малые значения, с которыми может выполняться операция поворота, причем значения приводят к артефактам восприятия в усредненном кадре. На этапе 1408 малые значения используют в качестве дискретных размеров шага при создании помеченной копии. На этапе 1410 этапы 1402-1408 повторяют для операций масштабирования и сдвига, тем самым получая дискретные размеры шагов для этих операций.
Инструменты временного сглаживания используются для сглаживания видео изображения десинхронизированных кадров. Как трехмерный сигнал видео предоставляет как возможность, так и проблему для пространственной десинхронизации. Поскольку система зрения человека может на короткое время сохранять изображение после его просмотра, стандартная частота видеокадров, приблизительно равная 30 кадрам в секунду, может сгладить незначительные искажения в отдельных кадрах. В результате некоторые искажения, которые вызвали бы артефакты восприятия при просмотре неподвижного изображения, не будут вызывать артефакты восприятия при просмотре кинофильма. С другой стороны, глаза человека чувствительны к временным и пространственным изменениям в видео последовательности.
Например, когда кадр повернут на 0,5 градуса и просматривается как неподвижное изображение, обычно поворот не будет заметен. Однако, если за кадром следует другой кадр, повернутый на -0,5 градусов, такой поворот будет ясно заметен, поскольку будет иметь место эффект "подергивания".
Чтобы достичь гладкости по времени в нашей схеме, мы формируем поля параметров поворота, масштабирования и сдвига (RST), изгиба и фильтрации яркости через каждые L кадров и используем линейную интерполяцию для получения поля параметров в промежуточных кадрах. Линейная интерполяция выбрана для экономии времени обновления параметров и требуемой памяти. Например, предположим, что мы формируем параметр r(k) поворота для кадра с порядковым номером k и параметр r(k+L) для кадра с порядковым номером (k+L). Параметр r(i) для k<i<k+L равен
r(i)=(i-k)(r(k+L)-r(k))/L
В рассмотренной выше реализации параметр L=128, что соответствует приблизительно 4 секундам, если частота кадров составляет 30 кадров в секунду.
Фиг.15 показывает вариант 1500 воплощения пространственной десинхронизации, характеризуемый временным сглаживанием. На этапе 1502 формируют параметры поворота, масштабирования и сдвига (RST), изгиба и/или фильтрации яркости в видео через каждые N кадров. На этапе 1504 определяют поля параметров в промежуточных кадрах между группами из N кадров посредством интерполяции. В результате увеличивается гладкость по времени, тем самым удаляется часть эффектов подергивания, внесенных операциями поворота, масштабирования и сдвига (RST), изгиба и фильтрации яркости.
Инструменты распределения параметров помогают при разделении кадров десинхронизированных версий видео. Предположим, что мы имеем кадр F и две десинхронизированные версии этого кадра F1 и F2. Для сдерживания коллективной атаки мы хотели бы, чтобы расстояние между кадрами F1 и F2 было как можно больше. Одна возможная мера расстояния представляет собой разность в пикселях, то есть d(F1(x, y), F2(x, y))=|F1(x, y)-F2(x, y)|. Предположим, что кадры F1 и F2 являются версиями кадра F с применением одного лишь поворота, где кадр F1 повернут на угол 1, а кадр F2 - на угол 2. Предположим, что пиксел в местоположении (х, y) в кадре F1 является пикселом из местоположения (x1, y1) в кадре F, и что пиксел (х, у) в кадре F2 является пикселом из местоположения (х 2, y2) в кадре F, то есть
F 1(x, y)=F(x1, y1) и F2 (x, y)=F(x2, y2)
В соответствии с уравнением (14) имеем
,
,
и
.
Предположим, что углы 1 и 2 поворота очень малы, что является верным в случае десинхронизации, поскольку мы хотим оставить контент примерно тем же самым. Согласно этому предположению мы имеем
Расстояние в пикселах между двумя кадрами составляет
Предположим, что значение яркости кадра F изменяется приблизительно линейно в малой окрестности любого местоположения (х, y), и используем норму L2 для измерения расстояния в пространстве, тогда указанное выше уравнение становится таким
Аналогичные результаты могут быть получены для операций сдвига, масштабирования и изгиба. При таком выводе ясно, что, если мы хотим максимизировать расстояние между какими-либо двумя версиями десинхронизированных кадров, мы должны максимизировать расстояние между двумя параметрами поворота. Поскольку два параметра поворота являются независимыми, одинаково распределенными случайными переменными, принимающими значения из дискретного набора {- , - + , - +2 , , }, возникает задача найти распределение р для параметра, которое максимизирует ожидаемое расстояние между 1 и 2. Мы используем норму L2 для измерения расстояния и формулируем задачу следующим образом
Приведенная выше формулировка приводит к распределению Pr( =- )=Pr( = )=1/2.
Хотя такое распределение и максимизирует ожидаемое расстояние между любыми двумя повернутыми копиями кадра, оно не может противостоять атаке методом грубой силы, поскольку величина случайности является слишком малой. Поэтому к формулировке (22) может быть добавлено ограничение случайности следующим образом:
где Н(·) обозначает энтропию распределения и h - порог для энтропии. Так как параметр поворота был квантован на восемь уровней, максимальная возможная энтропия составляет 3 бита. Выберем порог энтропии h=2,8 бита и численно решим уравнение (23), чтобы получить распределение в первых двух строках в таблице II. Мы даем только одностороннюю функцию вероятностной меры (pmf), так как pmf является симметричной. Следует отметить, что распределение является решением уравнения (23) для pmf всех восьми уровней. Поэтому оно также может быть использовано как распределение для параметра сдвига. Для параметра масштабирования, поскольку он квантован на четыре уровня, выберем порог энтропии h=1,9 бита, и соответствующая функция pmf показана в последних двух рядах в таблице II.
ТАБЛИЦА II | ||||
РАСПРЕДЕЛЕНИЕ ПАРАМЕТРОВ ДЛЯ ОПЕРАЦИЙ ПОВОРОТА, МАСШТАБИРОВАНИЯ И СДВИГА (RST) | ||||
8 значений | - | - + | - +2 | - +3 |
(односторонняя) pmf | 0,2375 | 0,1219 | 0,0781 | 0,0625 |
4 значения | - | - + | - +2 | - +3 |
Pmf | 0,3420 | 0,1580 | 0,1580 | 0,3420 |
Фиг.16 показывает вариант 1600 воплощения пространственной десинхронизации, характеризуемый инструментами распределения параметров. Такие инструменты полезны при увеличении расстояния между двумя кадрами у двух помеченных копий видео. На этапе 1602 кадры F1 и F2 разделяют, причем кадры F1 и F2 относятся к помеченным копиям 1 и 2 видео. Разделение выполняют посредством дистанцирования параметров поворота, масштабирования, сдвига и случайного изгиба, относящихся к кадрам F1 и F 2. На этапе 1604 вносят ограничение случайности для параметров, используемых при создании кадров F1 и F2 , причем ограничение случайности является функцией энтропии распределения параметров, превышающих пороговое значение.
Иллюстративная вычислительная среда
Фиг.17 показывает иллюстративную вычислительную среду, подходящую для реализации устойчивой к коллективным атакам десинхронизации для цифрового помечания видео. Вычислительная среда 1700 включает в себя вычислительную систему общего назначения в виде компьютера 1702. Компоненты компьютера 1702 могут включать в себя, но без ограничения, один или более процессоров 1704, системную память 1706 и системную шину 1708, которая соединяет различные компоненты системы, в том числе процессор 1704 в системную память 1706. Системная шина 1708 представляет собой одну или более шинных структур любых из множества типов, включающих в себя шину памяти или контроллер памяти, периферийную шину, шину стандарта PCI (межсоединение периферийных компонентов), ускоренный графический порт и процессорную или локальную шину, использующую любую из разнообразных шинных архитектур.
Компьютер 1702 обычно включает в себя множество машиночитаемых носителей. Такие носители могут быть любыми доступными носителями, которые доступны для компьютера 1702, и включают в себя как энергозависимые, так и энергонезависимые носители, сменные и несменные носители. Системная память 1706 включает в себя машиночитаемые носители в виде энергозависимой памяти, такой как оперативное запоминающее устройство (RAM; ОЗУ) 1710, и/или энергонезависимой памяти, такой как постоянное запоминающее устройство (ROM; ПЗУ) 1712. Базовая система ввода-вывода (BIOS) 1714, содержащая базовые программы, которые помогают передавать информацию между элементами в компьютере 1702, например, во время начала работы, хранится в постоянном запоминающем устройстве (ПЗУ) 1712. Оперативное запоминающее устройство (ОЗУ) 1710 обычно содержит данные и/или программные модули, которые являются моментально доступными процессору 1704 и/или в данный момент обрабатываемыми процессором 1704.
Компьютер 1702 может также включать в себя другие сменные/несменные, энергозависимые/энергонезависимые компьютерные носители данных. В качестве примера фиг.17 иллюстрирует накопитель 1716 на жестких дисках для чтения и записи на несменный энергонезависимый магнитный носитель (не показан), магнитный дисковод 1718 для чтения и записи на сменный энергонезависимый магнитный диск 1720 (например, "гибкий диск") и оптический дисковод 1722 для чтения и записи на сменный энергонезависимый оптический диск 1724, такой как компакт-диск, предназначенный только для чтения (CD-ROM), цифровой универсальный диск, предназначенный только для чтения (DVD-ROM), или другие оптические носители. Накопитель 1716 на жестких дисках, магнитный дисковод 1718 и оптический дисковод 1722 соединены с системной шиной 1708 посредством одного или более интерфейсов 1725 носителей данных. В качестве альтернативы накопитель 1716 на жестких дисках, магнитный дисковод 1718 и оптический дисковод 1722 могут быть соединены с системной шиной 1708 посредством интерфейса SCSI (не показан).
Накопители и дисководы и их соответствующие машиночитаемые носители обеспечивают энергонезависимое хранилище машиночитаемых команд, структур данных, программных модулей и других данных для компьютера 1702. Хотя пример иллюстрирует жесткий диск 1716, сменный магнитный диск 1720 и сменный оптический диск 1724, следует понимать, что другие типы машиночитаемых носителей, которые могут хранить доступные для компьютера данные, такие как магнитные кассеты или другие магнитные запоминающие устройства, платы флэш-памяти, компакт-диск, предназначенный только для чтения (CD-ROM), цифровой универсальный диск (DVD) или другая оптическая память, оперативные запоминающие устройства (RAM; ОЗУ), постоянные запоминающие устройства (ROM; ПЗУ), электрически стираемое программируемое постоянное запоминающее устройство (EEPROM; ЭСППЗУ) и т.п., также могут использоваться для реализации иллюстративной вычислительной системы и среды.
Любое количество программных модулей может быть сохранено на жестком диске 1716, магнитном диске 1720, оптическом диске 1724, постоянном запоминающем устройстве (ROM; ПЗУ) 1712 и/или оперативном запоминающем устройстве (RAM; ОЗУ) 1710, в том числе в качестве примера операционная система 1726, одна или более прикладных программ 1728, другие программные модули 1730 и данные 1732 программ. Каждая такая операционная система 1726, одна или более прикладных программ 1728, другие программные модули 1730 и данные 1732 программ (или некоторая комбинация их) могут включить в себя вариант воплощения схемы кэширования для информации о доступе пользователя к сети.
Компьютер 1702 может включать в себя множество читаемых компьютером/процессором носителей, обозначаемых как коммуникационные среды. Коммуникационные среды обычно воплощают машиночитаемые команды, структуры данных, программные модули или другие данные в модулированном сигнале данных, таком как несущая волна или другой транспортный механизм, и включают в себя любые среды доставки информации. Термин "модулированный сигнал данных" обозначает сигнал, у которого одна или более его характеристик установлены или изменены таким образом, чтобы закодировать информацию в сигнале. В качестве примера и без ограничения коммуникационные среды включают в себя проводные среды, такие как проводная сеть или прямое проводное соединение, и беспроводные среды, такие как акустические, радио, инфракрасные и другие беспроводные среды. Комбинации любого из упомянутого выше также входят в рамки машиночитаемых носителей.
Пользователь может вводить команды и информацию в компьютерную систему 1702 через устройства ввода данных, такие как клавиатура 1734 и координатное устройство 1736 (например, "мышь"). Другие устройства 1736 ввода данных (отдельно непоказанные) могут включать в себя микрофон, джойстик, игровую клавиатуру, спутниковую антенну, последовательный порт, сканер и т.п. Эти и другие устройства ввода данных соединены с процессором 1704 через интерфейсы 1740 ввода-вывода, которые присоединены к системной шине 1708, но могут быть связаны с помощью других интерфейсов и шинных структур, таких как параллельный порт, игровой порт или универсальная последовательная шина (USB).
Монитор 1742 или устройство отображения другого типа также может быть соединено с системной шиной 1708 через интерфейс, такой как видеоадаптер 1744. В дополнение к монитору 1742 другие периферийные устройства вывода могут включать в себя такие компоненты, как динамики (не показаны) и принтер 1746, которые могут быть соединены с компьютером 1702 через интерфейсы 1740 ввода-вывода.
Компьютер 1702 может работать в сетевом окружении с использованием логических соединений с одним или более удаленными компьютерами, такими как удаленное вычислительное устройство 1748. В качестве примера удаленное вычислительное устройство 1748 может являться персональным компьютером, портативным компьютером, сервером, маршрутизатором, сетевым компьютером, устройством того же уровня или другим общим узлом сети и т.п. Удаленное вычислительное устройство 1748 проиллюстрировано как портативный компьютер, который может включать в себя многие или все элементы и признаки, описанные здесь относительно компьютерной системы 1702.
Логические соединения между компьютером 1702 и удаленным компьютером 1748 изображены как локальная сеть (LAN) 1750 и общая глобальная сеть (WAN) 1752. Такие сетевые среды являются распространенными в офисах, компьютерных сетях в масштабах предприятия, интранетах и Интернете. При реализации в среде локальной сети компьютер 1702 соединен с локальной сетью 1750 через сетевой интерфейс или адаптер 1754. При реализации в среде глобальной сети компьютер 1702 обычно включает в себя модем 1756 или другое средство для установления связи по глобальной сети 1752. Модем 1756, который может являться внутренним или внешним по отношению к компьютеру 1702, может быть соединен с системной шиной 1708 через интерфейсы 1740 ввода-вывода или другие соответствующие механизмы. Следует понимать, что проиллюстрированные сетевые соединения являются иллюстративными и что могут быть использованы другие средства установления линии (линий) связи между компьютерами 1702 и 1748.
В сетевом окружении, таком как проиллюстрировано с помощью вычислительной среды 1700, программные модули, изображенные относящимися к компьютеру 1702, или их части могут храниться в удаленном запоминающем устройстве. В качестве примера, удаленные прикладные программы 1758 находятся в устройстве памяти удаленного компьютера 1748. В целях иллюстрации прикладные программы и другие исполняемые программные компоненты, такие как операционная система, проиллюстрированы здесь как отдельные блоки, хотя осознается, что такие программы и компоненты находятся в разное время в разных компонентах памяти компьютерной системы 1702 и исполняются процессором (процессорами) данных компьютера.
Заключение
Были описаны иллюстративные системы и способы осуществления аспектов устойчивой к коллективным атакам десинхронизации для цифрового помечания видео, частично со ссылкой на блок-схемы последовательности операций на фиг.1-6, 8-10 и 12-16. Элементы описанных способов могут быть выполнены посредством любых соответствующих средств, в том числе, например, аппаратных логических блоков на специализированной интегральной схеме (ASIC), или посредством исполнения читаемых процессором команд, определенных на читаемом процессором носителе. "Читаемый процессором носитель", как используется здесь, может являться любым средством, которое может содержать, хранить, сообщать, распространять или транспортировать команды для использования или исполнения процессором. Читаемый процессором носитель может являться без ограничения электронной, магнитной, оптической, электромагнитной, инфракрасной или полупроводниковой системой, устройством, прибором или средой распространения. Более конкретные примеры читаемого процессором носителя среди других включают в себя электрическое соединение, имеющее один или более проводов, портативную компьютерную дискету, оперативное запоминающее устройство (RAM; ОЗУ), постоянное запоминающее устройство (ROM; ПЗУ), стираемое программируемое постоянное запоминающее устройство (EPROM; СППЗУ или флэш-память), оптическое волокно, перезаписываемый компакт-диск (CD-RW) и портативный компакт-диск, предназначенный только для чтения (CD-ROM).
Хотя аспекты этого раскрытия содержат формулировки, специфически описывающие структурные и/или методологические признаки предпочтительных вариантов воплощения, следует понимать, что приложенная формула изобретения не ограничена этими специфическими описанными признаками или действиями. Специфические признаки и действия раскрыты только как иллюстративные реализации и являются типичными примерами для более общих понятий.
Класс H04N7/08 системы для одновременной или последовательной передачи более чем одного телевизионного сигнала, например дополнительных информационных сигналов, которые полностью или частично занимают одну и ту же полосу частот
Класс H04N5/08 отделение синхронизирующих сигналов от видеосигналов
способ формирования строчных синхроимпульсов повышенной точности и устройство для его осуществления - патент 2040119 (20.07.1995) |
Класс H04L7/00 Устройства для синхронизации приемника с передатчиком