Статьи - SL-контент

Художественное фото в Second Life

| | Comments

Человеку, решившемуся попробовать фотографировать в Second Life, представляется масса возможностей для экспериментов: выбор любого места на планете для съёмки, любого времени года, погоды или персонажа. Нужно лишь найти или создать нужное место.

Но видит автор фотографии всё же мозгом и впечатление, которое его работа произведёт на смотрящего, может отличаться от авторского взгляда: к примеру, фотографируя постапокалиптический пейзаж, один человек додумывает освещение, пыль в воздухе, стекло защитной маски перед глазами, а другой увидит лишь зазубренную картинку из «игры». Нет ничего удивительного в такой разнице, в реальной жизни мы тоже снимаем то, что видим сами и, главное, ощущаем сами, но не всегда получаем аналогичную реакцию от тех, кому показываем фото. Причины может быть две: банальное несовершенство самого инструмента, всё-таки объектив пока ещё не глаз, и отсутствие мастерства у фотографа «схватить» момент, особенно в динамике, правильно настроить камеру и т. п.

Рискну утверждать, что Second Life даёт возможность изучить изобразительные средства, с помощью которых можно донести до публики то самое — ощущения фотографа. Зимний пейзаж не растает, не наступит неожиданно вечер (или наступит, если надо), снег не скатают на снеговики дети и не уберут дворники, и, если по замыслу не хватает дерева на переднем плане, его можно «посадить» и снимать, снимать, снимать.

Дело останется за «малым» — заставить зрителя поверить…, для этого нужно дать ему картинку, к которой привык его глаз. С точки зрения композиции, если снимается нечто, существующее в РЛ, можно сделать наверное только одно — не наврать с масштабом предметов. С точки зрения конечной картинки, предположу, что стремиться сделать её идеальной по качеству смысла нет — зритель не получит новой информации (как, например, если на реальной фотографии вы бы вытянули из тени дополнительные детали), а значит мы можем только «испортить» картинку, добавив в неё те или иные несовершенства, приближающие старающийся стать идеальным Second Life к неидеальной реальности.

В этом направлении наши дороги во многом совпадают с путями, которыми идут создатели 3D рендеров, целиком делающихся в Max, Maya, Blender и т. п., так как технически картинка из SL тот-же рендер. Нужный нам процесс называется постобработка (можно искать в Google, если что), или “post”. Постобработка статичных изображений (бывает и постобработка видео) выполняется в GIMP или Photoshop и в общем-то ничего плохого в ней нет, если цель — дать зрителю нужную эмоцию. Наезды на «фотошопщиков» и горделиво красующиеся на страшных рендерах надписи «no post» конечному «потребителю» наших картинок лучше не делают. Но всё должно быть в меру, конечно, 7 раз отмерь…, благо Ctrl-Z и мощность современных компьютеров делают возможности отмеривания практически неограниченными, впрочем, не стоит этим злоупотреблять — неделя работы над одним изображением не сделает из него шедевра, замылит глаз и утомит автора.

Для дальнейшей работы воспользуемся рекомендациями бывалых. Широко известный в Blender кругах гуру Andrew Price (почти как Torley Linden) написал статью “The #1 Reason Your Render Looks Fake” (перевод статьи на linuxgraphics: Причина № 1, по которой ваш рендер выглядит фальшиво) в которой приводится список того, что обычно отсутствует на рендерах:

  • виньетирование (затемнение изображения по краям при использовании бленды и/или при слабой освещённости)

(взято тут)

  • различные вариации бликов
  • солнечные лучи

(взято тут)

  • блеск отражения
  • выцветание
  • размывание вне резко изображаемого пространства (ГРИП)

  • размывание при движении (motion blur)
  • геометрические искажения
  • пыль, царапины, пот и отпечатки пальцев на объективе
  • артефакты, появляющиеся при проявке плёнки
  • искажение цветов

С большинством этих, в общем-то, недостатков, производители объективов и фотографы всячески борются, но, добавив некоторые из них к нашей фотографии, сделанной в Second Life, мы можем её оживить, сделать реальнее.

Это всё, как у меня водится, теория. :) И в общем-то вся постобработка, без привязки к Second Life, достаточно хорошо описана в Интернет. Из практической части опишу функцию, которая встроена в клиент, но которой не часто пользуются русские «фотографы», возможно, конечно, на это у них есть причины.

При снятии снэпшота (Snapshot) в клиенте у нас доступно больше одной опции в панели предпросмотра.

Кроме самой картинки

мы можем получить «карту глубины» (Depth), на которой различными градациями серого отображается план (ближний, дальний, более дальний) на котором находится объект.

В случаях, если мы снимаем портрет или предмет и объект на переднем фоне важен, а фоном можно (или нужно) пренебречь, то его (фон) можно размыть.

Вот здесь, к примеру, можно было бы немного размыть фон

(взято тут)

В реальной съёмке, в зависимости от модели фотоаппарата, у вас это получается «автоматически», когда фокус наводится по объекту на переднем плане, задний обычно получается нечётким.

(взято тут)

Это и называется ГРИП (упоминалось в списке выше), оно же DoF (Depth of Field) и в GIMP, к примеру, делается так: открываем обе сделанных картинки и перетаскиваем так, чтобы оказались на разных слоях (так будет удобнее и работать и сохранять)

Если на картинках нет текстур с альфа-каналом, то можно сразу применять фильтр к цветной картинке: Фильтры → Размывание → Размывание вне зоны ГРИП. Выбрать «Использовать карту расстояний» и нашу карту глубины — «ч/б» изображение (см. скриншот). Параметров там мало и есть предпросмотр, так что если результат не устроил, можно подобрать по вкусу.

Но если в объекте есть прозрачные текстуры, то они могут на карте глубины не отобразиться и части объекта с этими текстурами размыты будут как находящиеся очень далеко. К примеру, на картинках храма на месте арок мы видим дырки. Легко поправить. Включаем видимость слоя с картой глубины и выставляем ему прозрачность в 50%. Видим приблизительно следующее:

Т.к. мы видим, какие части объекта на каком плане находятся, то можем пипеткой взять нужный нам серый цвет с картинки (сориентироваться по расстоянию) и закрасить «дырки» на карте глубины кисточкой или карандашом.

После чего уже применить фильтр размывания.

Если нам нужно «вытащить» какие-то объекты из зоны размывания, нам нужно сделать их более тёмными. Для слоя с картой глубины делаем: Цвет → Уровни, и у ползунка «Уровни на выходе» сдвигаем правый маркер влево.

Теоретически, маски для размытия можно нарисовать целиком вручную, на свой вкус выбирая, какие объекты будут чёткими, а какие — нет.

К примеру, как в этом уроке Vint Falken.

По поводу неба. Если его не хочется размывать, то нужно сделать не 2, а 3 снимка для обработки. На одном из них отключить рендеринг неба, тогда вместо него мы получим черноту.

Её надо будет выделить (хорошо справляется инструмент «Выделение смежных областей»), вырезать и вставить в слой с картой глубины.

К сожалению, создание карты глубины можно использовать только для неподвижных изображений. Подвижное, понятное дело, успеет подвигаться :) пока мы будет переключаться с одного типа картинки на другой. Недовольные таким положением вещей имеются (но как-то мало) и в JIRA заведён соответствующий тикет, можно проголосовать.

Comments