Автор:

Компьютерное оборудование для обработки цифровых видеопотоков

«Программы становятся медленнее стремительнее, чем компьютеры становятся быстрее».
Никлаус Вирт


Новые технологии неизбежно приходят в нашу жизнь, и если пару веков назад научно-технический прогресс буквально продвигался со скоростью улитки и для внедрения малейших изменений требовалось несколько поколений жизни людей, то сейчас ситуация обратная и в течение жизни одного человека происходит смена нескольких технологических поколений. Это приводит нас к мысли, что необходимо постоянно учиться и осваивать новые технологии и методы, для того чтобы иметь конкурентоспособное и экономически эффективное предложение для своих клиентов.
В целом IP-видеонаблюдение можно рассматривать как один из специализированных сегментов IT-отрасли, в силу того что весь мир становится цифровым и IT-технологии проникают во все отрасли и сферы нашей жизни. Попробуем ввести поэлементную классификацию и разбить обзор на смежные сферы с точки зрения применяемых для построения систем IP-видеонаблюдения элементов. Итак, из чего состоит или чем отличается любая система IP-видеонаблюдения:
1. IP-видеокамеры.
2. Видеоаналитические алгоритмы и детекторы.
3. Сети питания, связи и передачи данных.
4. Компьютерное оборудование для обработки цифровых видеопотоков.
5. Архитектура построения систем.
6. Подсистема хранения данных.
7. Интегрированные подсистемы (СКУД, ОПС и т. д.).
8. Системы визуализации и отображения.
9. Удаленный доступ, мобильные технологии и прочие тренды.
Мы рассмотрели уже несколько пунктов из этого списка, сегодня дошла очередь до компьютерного оборудования для обработки цифровых видеопотоков.
Попробуем рассмотреть компьютерное оборудование и технологии через IP-видеонаблюдение, уверен, что, заинтересовавшись, вы сможете найти много информации в интернете, я же дам вам обзор и общее понимание, где мы сейчас и что грядет с точки зрения видеонаблюдения. Мы рассмотрим несколько тем:
– закон Мура;
– потребление питания;
– вычисления;
– виртуализация;
– безопасность;
– направление разработок.


Рисунок 1. Закон Мура

Глобальным законодателем мод на рынке являются корпорация INTEL, AMD и Microsoft, так или иначе именно они определяют направления развития всей компьютерной отрасли, которая базируется на их чипах и операционных системах, построенных по архитектуре фон Неймана. Эти компании успешно реализуют уже более 40 лет так называемый закон Мура, который гласит, что «количество транзисторов, размещаемых на кристалле интегральной схемы, удваивается каждые два года», это эмпирическое наблюдение, впоследствии названное законом, сформулировано Гордоном Муром, одним из восьми инженеров, стоявших у истоков создания корпорации INTEL. Двигает IT-рынок во все большее проникновение цифровых технологий буквально во все сферы жизни, что, в свою очередь, требует все большую производительность, – такой замкнутый круг. Фактически увеличение частоты процессоров вместе с увеличением количества транзисторов на кристалле позволяет увеличивать скорость вычислений и производительность ЭВМ экспоненциально. В журнал «В мире науки» было приведено такое сравнение: «Если бы авиапромышленность в последние 25 лет развивалась столь же стремительно, как промышленность средств вычислительной техники, то сейчас самолет Boeing 767 стоил бы 500 долларов и совершал облет земного шара за 20 минут, затрачивая при этом пять галлонов (~18,9 л) топлива. Приведенные цифры весьма точно отражают снижение стоимости, рост быстродействия и повышение экономичности ЭВМ».
В 2007 г. Мур заявил, что скоро закон перестанет соблюдаться, так как размер транзисторов приближается к размеру атомарной структуры вещества (современные процессоры INTELCore строятся на ядре Ivybridge, которое базируется на технологическом процессе 22 нм), и дальнейшего уменьшения размеров транзисторов добиться крайне сложно. Есть еще несколько факторов, а именно проблемы с теплоотводом от кристалла. Ведется поиск путей для обхода этого ограничения в направлении параллельных вычислений, например, это распараллеливание процессов, что ведет к распространению мультиядерной структуры, и ведутся разработки фотонных и квантовых компьютеров.


Рисунок 2. Снижение потребления электроэнергии – задача каждого

Проблема расходов на электроэнергию и снижение потребления электричества компьютерами встала практически сразу с их появлением. Вкупе с большими размерами (целое здание), колоссальным весом (до 30 тонн) эти монстры потребляли по нескольку сотен киловатт электроэнергии. Как вы помните закон сохранения энергии, что, если электричество потребляется и производит работу, в результате она преобразуется во что-то. В компьютере эта электрическая энергия преобразуется в выделяемое тепло. Первые ламповые компьютеры с этой точки зрения были просто стационарными утюгами, так как отлично преобразовывали электрическую энергию в тепловую, при росте которой компьютер просто перегорает и требует зачастую долгого и дорогостоящего ремонта. Постепенно со сменой элементной базы с вакуумных ламп на полупроводниковые транзисторы, уменьшился и размер и токопотребление ЭВМ, также заметно упала их цена, что обусловило более массовое распространение. Параллельно росла и рабочая температура процессоров – от первых моделей, рассчитанных на температуру в 30 градусов, до сегодняшних 105 градусов по Цельсию. Для усиления охлаждения специалисты, использующие свои компьютеры на пределе, применяют водяные системы охлаждения вместо штатных воздушных, это позволяет эксплуатировать их в более жестких режимах. Другое направление развития связано с отключением некоторых элементов, не использующихся в данный момент, и снижением тактовой частоты процессора. Например, при простое ваш ноутбук перейдет в экономный режим, снизив рабочую частоту процессора, затем отключит экран, потом жесткий диск и при отсутствии загрузки и работающих приложений уйдет в «спящий» режим.


Рисунок 3. Первый в мире процессор с 64-битной архитектурой

Возрастающие требования к производительности, использование все больших объемов памяти и все более сложных вычислений подтолкнули разработчиков задуматься над решением этой проблемы. И решение было найдено компанией AMD, которая расширила набор команд в 2 раза – до 64 бит. Тем самым увеличился и объем адресуемой оперативной памяти. В 2003 году AMD выпустила первый в мире 64-битный процессор. Однако на тот момент это был больше маркетинговый ход. Только через полтора года, в 2005, компания Microsoft выпустила Windows XP Professionalx64 Edition. Это классический пример тесной связи между производителями операционных систем и процессоров. Главное отличие для пользователей заключается в том, что помимо того, что необходимо использовать специальную 64-разрядную операционную систему и все приложения, которые при этом могут использовать больше оперативной памяти, например Windows7 64 бит поддерживает до 192 Гб оперативной памяти, на 32-разрядной архитектуре это число ограничено 4 Гб в связи с чем многие приложения, такие как работа с базами данных и обработкой видео, работающие с большими объемами данных «голодали».
Дополнительно развивались и технологии, ускоряющие вычисления, такие как Hyper-Threading, TurboBoost, Speed. Step и др. Например, Hyper-Threading позволяет задействовать процессор вычислениями со второго потока (очереди) в то время, когда происходила загрузка информации в память первого потока, при этом, конечно, развивалась и двух-, а позже и 3-канальная память. Такой подход позволял в зависимости от приложения повышать производительность на 5-30%, выравнивая загрузку процессора.
Однако существуют приложения, потребляющие больше ресурсов, чем может дать один сервер даже 64-битный, например, масштабная система видеонаблюдения на крупном объекте, и тогда почему бы не использовать несколько серверов, объединенных с помощью сетевых технологий в единый центр обработки данных и работающий под управлением специальной операционной системы как единый сервер? С другой стороны, на категорийных объектах зачастую стоимость обрабатываемой информации во много раз выше, чем стоимость аппаратно-программного комплекса, на котором она обрабатывается. В этом случае, в системе технологического видеонаблюдения, например на АЭС, состоящей из большого количества мегапиксельных IPвидеокамер, необходимо не только обрабатывать информацию в реальном масштабе времени, но и обеспечивать постоянный и непрерывный контроль за технологическими процессами. В таком случае нужно использовать надежное решение с избыточностью, чтобы выход из строя физического сервера не приводил к нарушению работоспособности всей системы и потере данных. Самое логичное решение – это полное дублирование, для примера можно вспомнить аналогию построения дискового массива Raid1. Однако, продолжая аналогию с дисковыми массивами, возникает желание использовать более экономичную систему, чем полное дублирование, например, как в Raid 5. И тут на повестку дня выходят технологии виртуализации, которые позволяют гибко использовать «железо» и разворачивать на нем любые конфигурации программных приложений.


Рисунок 4. Два основных типа виртуализации.

Итак, виртуализация – это изоляция вычислительных процессов и ресурсов друг от друга, которая позволяет добиться определенных преимуществ перед оригинальной конфигурацией.
Существует несколько типов виртуализации: на уровне операционной системы (ОС), динамическая трансляция, паравиртуализация, встроенная виртуализация и т.д. Все эти варианты можно разделить на две большие группы: аппаратную и программную виртуализацию.
Преимущества программной виртуализации:
- одновременное использование один и тех же ресурсов (файлов, принтеров);
- быстрое переключение между ОС (менее 1 с);
- двухсторонняя виртуализация (приложение одной системы запускается в другой и обратно).
Преимущества аппаратной виртуализации:
- увеличение быстродействия, так как управление происходит через небольшой слой гипервизора;
- улучшенная безопасность, так как каждая виртуальная машина работает, по сути, независимо друг от друга;
- упрощение разработки программных систем виртуализации.
Технологии виртуализации, как правило, применяются в двух основных случаях: когда необходимо на одном физическом сервере запустить несколько независимых виртуальных машин (хост системы провайдеров) или когда необходимо запустить одно приложение на нескольких физических серверах. Для систем видеонаблюдения интересен именно второй вариант, так как он позволяет развернуть виртуальную машину на любом количестве серверов. Частным примером может являться система Pivot 3. Современное ИТ сообщество оценило плюсы виртуализации и на сегодня ни один ЦОД не строится без виртуальных машин.
Фактически любое облако является примером работы с виртуальной машиной, когда клиенту выделяется определённая вычислительная мощность и объем хранения, при этом пользователь не знает на каком именно сервере крутятся его данные и на одном ли сервере, и даже в какой стране этот сервер находится. В России самым известным облачным сервисом для видеонаблюдения на мой взгляд является IVideon.


Сами виртуальные машины работают, как правило, на продукте одной из двух лидирующих в этом секторе компаний: американской VMware или российской Parallels, исповедующих подход установки на «голый» сервер гипервизора в качестве независимой ОС, который, в свою очередь, управляет ОС установленными поверх него. Противоположный подход продвигает Microsoft, которая рассматривает виртуализацию как компонент своей ОС Windows и с помощью своего продукта Hyper-V рассматривает виртуализацию на базе хост-системы Windows.
Применение виртуализации позволяет повысить безопасность приложений и данных, в них обрабатываемых. Однако с точки зрения предоставления доступа разным пользователям несомненное призвание завоевала технология Active Directory, разработанная Microsoft, которая позволяет создавать групповые политики для пользователей и тем самым легко и просто администрировать доступ к серверам и данным.

Перспективные разаработки
В связи с тем, что размер транзисторов приблизился к атомарной структуре вещества, и дальшейшего их уменьшения ждать не приходится, возникает вопрос: как же быть? Где следующая точка развития и роста? Основных направления два:
- распараллеливание вычислений;
- переход на другую физическую природу.
Первый подход затронут в начале статьи, поговорим о втором. Ведутся перспективные разработки в области светового (квантового) компьютера и в INTEL и в новых компаниях. Например, канадская компания D-Wave заявила, что разработанный ими квантовый компьютер способен производить вычисления в несколько тысяч раз быстрее, чем современный процессор Intel на классической технологии. Ну что же, поживем-увидим, надеюсь, что и читатели, и я застанем домашний персональный квантовый компьютер.




Внимание! Копирование материалов, размещенных на данном сайте допускается только со ссылкой на ресурс http://www.tzmagazine.ru