Smpte Синхронизация

Всем привет!    Сегодня закончился проект Ледовое шоу Татьяны Навки на фестивале “Круг света 2015”. Совместно с командой gst.moscow проделана большая работа. Так же всё шоу было синхронизировано по двум протоколам SMPTE и MSC. Все видео и световые системы были идеальны отстроены, а запуск шоу производился нажатием лишь одной кнопки Go в начале. Для синхронизации использовалось программное обеспечение QLab, звуковые и Midi караты MOTU.    Весь свет изначально писался по таймкоду в студи, потом уже на площадке для каждого номера создавался свой индивидуальный Offset по времени. Команды MSC были прописаны непосредственно на площадке, когда были созданы все промежуточные световые сцены между номерами и запрограммирован видео пульт. Свет писался на GrandMA2 а видео на HOG3.  

 

 

post-110-0-82396900-1443915506_thumb.jpe

Всем снова привет!

 

   Меня часто спрашивают, как начинать писать шоу вместе с синхронизацией, как готовиться. На самом деле способов много. Зачастую, я использую так называемый, “параллельный” способ. Т.е. написал пять Cue в CueList, и сразу ставлю на них время срабатывания и тут же проверяю, если что-то расходиться корректирую последние фреймы. Но иногда бывает по другому. Как на пример на выставке Prolight & Sound 2015 на стенде Euroshow. Особенность была в том, что шоу писали два художника, я и мой коллега Алексей Журавлёв. Это было очень интересно, когда два художника соединяют свои потенциалы на реализацию одной цели, начинается просто творческих взрыв! Тех. директора просто не понимали что происходит за пультовой! И во время такого творческого процесса совсем не до расстановки времени и фреймов. Расстановка временных точек производилась уже после создания всех Cue.

 

  Для тех кто работает с синхронизацией, очень советую для определения временных точек, программу Adobe Audition, в одной из не многих, там есть очень удобный вид отображения аудио трека, это Frequnt View. Этот вид позволяет в шумном отрезке трека найти именно тот инструмент, к которому вам нужно привязаться, за счёт того что все инструменты работают в разных частотных диапазонах. Так же, во время воспроизведения нажимая клавишу F8, на Timeline выставляются маркеры времени, которые потом можно более точно спозиционировать на треке, а время в всех маркеров увидеть в таблице, с права. И далее это время точно прописать в световом пульте. Но есть одно но, как бы вы точно не определяли время, расхождение всё равно будет. Для LTC это задержка составляет от 1 до 4 кадров, MTC примерно от 3 до 8 кадров. Рассчитывается такая задержка на глаз, по срабатыванию Cue, а потом отнимается от фактического времени время в Audition, и получается значение задержки, которое нужно отнимать от всех остальных переключений.    

 

 

      

post-110-0-74320500-1444914619_thumb.jpg

post-110-0-19918200-1444914675_thumb.jpg

Всех приветствую! Роман - тебе отдельный респект за проделанную работу и достигнутые успехи в деле синхронизации и не только)) А  я свои опыты с Venue давно забросил, поскольку не устроила прога, слишком дубовая. Потом текучка ( вал мероприятий) было не до того… На днях вернулся к теме синхронизации, заглянул на форум, а тут такие подвижки! Вопросы по сути конечно будут, но позже. Пока поставил себе на комп М-РС с openDMX, TimeLord и Midi Loop Be… Изучаю)

Успехов! :slight_smile:

И так.  Всем снова привет !  Хочу рассказать ещё про одну особенность связанную с синхронизацией. А точнее с протоколом MTC. Как всем уже известно этот формат таймкода генерируется только программно. Я часто для своих работ использую мультиредакторы для генерации временного кода вместе с аудиотрреком. Это быстро, удобно и есть возможность отправлять, такой тайм код на внутреннию петлю MIDI. Всегда работая с короткими аудиотреками, не более семи минут, проблем ни когда не возникало. Но,  недавно запуская проект ледового шоу на Красной Площади, появилась очень интересная проблема. Для всего спектакля был общий мастер трек, длинною чуть больше часа. И вот , что произходило, на каждые десять минут появлялась задержка в одну секунду и эта задержка наростала пропорционально времени. Хотя если начинать воспроизведение с середины, то соотвественно задержка была меньше. Протестировав MTC на разных машинах и с разными программами(Audition и SoundForge). Везде была разная задержка. Стоял вопрос, откуда эта задержка набегает???(так же это не зависело от MIDI контроллеров). Тогда я решил генерировать таймкод на mif4. Хорошо,  что этот умный девайс может показывать не только время но и очень важную информацию,  как ошибки и скорость воспроизведения. Именно! Скорость воспроизведения! По спецификации LTC и MTC тайм код не может быть быстрее или медленнее реального хода секунд. Но как показала практика , может. И даже больше, принимающие устройства имеют некий люфт скорости которую они могут воспринимать. Сделано это для сглаживания ошибок, т.к. идеально тайм когда не бывает, устройства имеют некий уровень допуска ошибок, в частности скорость воспроизведения. Но только, очень небольшой диапазон скорости, может нормально определяться, лишь ±0.14%. Посути не большой порог. Как оказалось на большом треке такая погрешность может набегать в секунды задержки. Так что же произходило с генерацией тайм кода в мультиредакторах. Ни одна аудио программа не генерировала идеальный тайм код, кто-то генерировал быстрее, кто то медленнее. И по большей части была зависимость не от программы, а от компьютеров(везде стояла ОС Windows) Дело в том, что большая часть процессов с MIDI обрабатывается  через операционную систему. В том числе и генерация тайм когда. Хотя переключение на внутренний генератор аудио программ тоже не помог. Как была решина проблема задержки ? При помощи программы TimeLord. Это программа генерирует тайм код к погрешностью в 0.01%. И она возникала очень редко, и максимальное расхождение под конец трека было 10 кадров. Как я уже говорил, MTC не простой протокол синхронизации, нужно уметь с ним работать. Если есть выбор, используете LTC, он лишён всех недостатков, в силу своей простоты.

 

image.jpeg

 C 12 по 15 мая в Crocus City Hall прошёл чемпионат мира Epicenter по дисциплине DOTA2. Команда gst.moscow в составе Степана Новикова, Алексея Журавлева, Вакулюк Романа и Антона Полякова, была приглашена для создания нескольких световых шоу на открытие турнира и представления команд. Мы так же использовали постоянную синхронизацию по таймкоду, но это шоу кардинально отличалось от всех предыдущих. 

   Первая особенность заключалась в том, что предварительно все шоу было прописано в студии, при этом мы использовали как обычно три секунды пустого таймкода в начале каждого трека, для того что бы световые пульты успели определить таймкод и запустить cue. Потому что, как известно, всем принимающим устройствам нужно некоторое время для индификации таймкода, но когда пришло время сводиться на площадке, для режиссёра оказалось критична такая задержка. По задумке все шоу шли стык в стык с другими эпизодами турнира. В проекте были использованны световые пульты GrandMA2, чьи настройки позволяют снизить время определения таймкода до 25 кадров. Но всё равно этого оказалось не достаточно, задержка почти в одну секунду (в шоу использовался таймкод 30fps). И тогда было принято решение использовать сразу два формата синхронизации внутри каждого шоу, а именно LTC и MSC. Для синхронизации мы использовали QLab. К каждому аудиотреку, была залинкована дополнительная cue, которая при старте звуковой дорожки моментально отправляла MSC команду на выполнение первой cue в cuelist пульта И через  Daley в первой cue пульта был прописан макрос на активацию соответствующего TC слота. Для того что бы при активации таймкод слота, команда не была отработана повторно. 

   Вторая особенность была в том, что все эпичные действия в игре были синхронизированы со светом и видео. То есть, на сцене находятся две команды, а  на центральном экране идет онлайн трансляция игры, и при этом на всю сцену наложен эффектный видеомэпинг, индивидуальный для каждой карты, тем самым погружая зрителей в игру. Дополнительно для  карт и композиций мэпинга были написаны световые картины, которые расширили границы видеопроекции. 

Самая главная особенность заключается в том, что была написана специальная программа, которая следила за действиями и событиями в игре.  При эпичном моменте, к примеру “FIRST BLOOD” или “DOUBLE KILL”, программа с игрового сервера отправляла команду на программу VVVV, которая управляла всеми системами и по OSC далее на медиасервер. Он менял видеоконтент. Звуковой сервер запускал аудиоэффект,  QLab конвертировал команду в MSC и отправлял эту команду на световой пульт, а так же команду на светодиодный контроллер который запускал эффект на браслетах зрителей. В итоге, такой общий синхрон позволил добиться невероятного эффекта “Присутствия”. В последствии все события шоу, интро, аутро были заведены на управление в VVVV.

Благодаря разным способам синхронизации был достигнут высокий уровень эффектности шоу, которое было в духе DOTA2!

 

 

 

gq0a7564.jpg

gq0a7593.jpg

gq0a7556.jpg

gq0a7542.jpg

gq0a7559.jpg

IMG_3325.jpg

126a4318.jpg

Всем добрый день! Настал тот день когда я систематизировал все свои знания в области синхронизации и переложил всё это на бумагу! Совместно с журналов ШоуМастер, мой обучающий курс будет опубликован в серии статей в одноименном журнале. Первый выпуск уже издан, где вы можете уже прочитать первую статью про SMPTE. 

http://www.show-master.ru/categories/soderzhanie_zhurnala_shou_master_3_2016_86.html

Роман, здравствуйте! Очень рад был найти вашу ветку на форуме. Сейчас как раз воюю с таймкодом. Придерживаюсь такой же как у вас философии, по поводу отточенности шоу посредством автоматизации. Вижу, что вы весьма продвинулись в этом вопросе. С удовольствием изучил все сообщения на форуме и прочитал статьи на Шоу-мастере - это конечно клад!)) Огромное человеческое спасибо вам за проделанный труд!  Я программирую свои шоу на Аво, а именно Титан 1. Работаю на параллели на Маке. Аво разрабатывают свой софт исключительно под винду. Удалось наладить синхронизацию света и звука посредством винампа, но этого оказалось мало. Сейчас стоит задача передачи таймкода с мака на винду, причем SMPTE либо LTC, поскольку миди вход на Титан 1 закрыт. В качестве управляющего софта рассматриваю QLab, он подходит идеально!  Физический пульт пока себе позволить не могу, поскольку реализую все в рамках собственных финансовых возможностей)) Что посоветуете сделать, чтобы наладить подобное взаимодействие мака и виндового компа? Полагаю, что параллель для таких задач не подходит.

Спасибо большое! Рад что вам полезны мои труды! 

По поводу вашей ситуации, я советовал бы вам использовать технологию RtpMIDI. В MacOS этот подуль уже встроен, для Windows можете скачать бесплатный софт. И у вас между двумя компьютерами будет виртуальный MIDI мост, без надобности физического оборудования. QLab для экспериментов идеально подходит ! 

Да, но вот вопрос в том, что титан 1 миди не принимает, только SMPTE. Чтобы по миди рулить, нужен титан мобайл, а у меня его нет)) 

Можно и по SPMTE, через звуковые карты.

Добрый день уважаемые коллеги! Сейчас, как многим известно, мои работы с синхронизацией, по-прежнему продолжаются. Этот топик довольно старый, да и теперь состоит он, в основном из моих сообщений. Скажите, интересно ли вам по-прежнему получать новую информацию, новые знания мои наработки в этом направлении? Если вам это нужно, напишите пожалуйста ниже, кому это интересно, тогда я буду понимать, стоит ли дальше продолжать этот топик. 

Конечно стоит! Тема синхронизации очень интересная. Можете делиться работами, видео с площадок. Крутое продуманное шоу без синхронизации реализовать весьма сложно! Если есть опыт синхронизации с камсис, то очень жду!))

Безусловно нужная тема! Интересно и полезно!

тема нужная

Следующие главы пока не выпустили?

Здравствуйте , подскажите где запускается генерация в Audition 1.5 ? Всю прогу пересмотрел …За ранее СПАСИБО 

Давненько не пользовался ей. Там в глобальных настройках есть вкладка с синхронизацией, где можно выбрать входящий и исходящий источник MTC.

Cпасибо . Всё нашёл 

А чем сейчас пользуетесь?