![]() |
Theosoph
Программная синхронизация делает тоже самое, но большой ценой, а тут аппаратная реализация в самом мониторе - т.е. реализована наконец старая идея, где синхронизацию выполняет монитор и это происходит без потери производительности |
Цитата:
Добавлено через 6 минут Цитата:
Добавлено через 40 минут http://www.ixbt.com/news/hard/index.shtml?17/27/99 Если традиционный подход работает со обычными 3D-картами и мониторами, для Nvidia G-Sync необходимо обязательное наличие двух особых составляющих: 3D-карты Nvidia определенной модели (с GPU Kepler) и монитора со специальным модулем внутри. Выпуском мониторов, совместимых с Nvidia G-Sync, готова заняться компания Asus, о чем она сообщила специальным пресс-релизом. Первым получит модуль Nvidia G-Sync монитор Asus VG248QE. Выход обновленной модели ожидается в первой половине 2014 года, а стоить она будет $399.:wow: Добавлено через 48 минут Давненько то не удивлялся так,не понятно вот- столько времени(лет)всем было насрать что монитор живёт своей жизнью и плохо синхронизируется с картой??? |
sashokm72
Кому-то было и пофиг, но многие также не понимали - почему нельзя сделать синхронизацию средствами монитора, это же отличное решение и снижение нагрузки на карту! Точно также меня ещё давно интересует вопрос - почему также нельзя сделать аппаратное сглаживание средствами монитора? Вкл/выкл через меню и выбор режимов для обеспечения совместимости. |
Цитата:
1. Это усложнит конструкцию и стоимость монитора 2. Это неочевидное преимущество. В техническом плане. В маркетинговом вообще плачевное, ибо не каждый страдает от едва заметной проблемы рассинхронизации кадров. Я, например, вообще играю с отключенным V-Sync и не замечаю разницы вообще ))) 3. Программный V-Sync сколько там процентов производительности современной видеокарты отнимает ? ;) В общем, имхо эта задумка Nvidia малоперспективная, так сказать... При покупке монитора ограничивать себя определенными моделями и не факт, что самыми лучшими, с возможным вынужденным отказом от более интересной за те же деньги модели, но без G-Sync... oO Я молчу про использование LED ТВ в качестве монитора... |
Theosoph
Вот и получается, что маркетинг тут тормозит прогресс, а задумка вообще хорошая. По поводу игр и проблем рассинхронизации - я тоже не часто встречаю эту проблему, но иногда она есть. Синхронизация ресурсами самой видеокарты много на себя не съедает, но т.к. адаптивная синхронизация пока работает не очень корректно, то проблема двукратного падения фпс остаётся. Надеюсь в дальнейшем увидеть мониторы с функцией сглаживания старым добрым методом FSAA 4х4 (либо дешёвое решение в виде постфильтра FXAA+sharpen), это улучшит картинку и аппаратно реализовываться тоже может без особых сложностей. |
Цитата:
|
Цитата:
Ну и упоминание о том, что это решение будет работать исключительно с Кеплером, больше напоминает отчаянную попытку Нвидиа найти козырь-противовес АМД. Вот если бы они действительно вместо синхронизации сделали аппаратное сглаживание картинки средствами монитора, которое намного заметнее на глаз, чем Sync, тогда разработка действительно была бы интересной. Кроме того, она снизила бы нагрузку на видеокарты, то бишь помимо более сочной картинки еще и большее число FPS. А так, вкладываться в G-Sync, отсутствие которого явно не мозолит глаз... |
Цитата:
Конечно сглаживание монитором было бы в разы востребованней, даже если сохранить привязку к конкретным картам |
Штандартенфюрер СС и Theosoph, привет!
А можно несколько подробней - в чем смысл сглаживания силами монитора? Монитор же не имеет понятия о 3D сцене, для него это просто набор пикселей. В таком случае это будет давно знакомый всем FXAA или SMAA, просто производимые за счет мощностей монитора. Вроде проводились замеры, даже с большой выборкой оба этих метода не сильно напрягали видеокарты (насколько помню с pdf Nvidia порядка 2мс на gtx470). |
opezdl
Привет,Опездол,тема и так зафлудилась,не помогай. |
opezdl
Так монитору и не обязательно иметь понятие о протекаемых через него данных - аппаратно же можно реализовать FSAA, там тупо увеличение исходного разрешения в 2 или 4 раза, а затем масштабирование до исходного разрешения - самый лучший метод сглаживания, абсолютно совместимый со всеми приложениями метод, самая простая реализация, но и самое большое использование ресурсов видеокарты, потому вынести это в отдельный модуль монитора будет хорошим решением |
Цитата:
Добавлено через 5 минут Плюс, такие дисплеи уже есть: те, которые с большим значением ppi. |
Я вот только чего не могу понять: если у мен 26 к/с выдаёт компьютер, то и у монитора частота будет 26 Гц?
Вообще, конечно, затея не очень хорошая, потому как это опять какие-то закрытые стандарты, что, в итоге, ни к чему хорошему не ведёт. P.S. Кристалл на этой плате очень даже немаленький (что указывает и на его стоимость) - возникает вопрос о росте энергопотребления. |
Цитата:
|
Цитата:
Скорее всего, речь идёт о аналоге Virtual-VSync, предоставляемом чипом Lucid-Virtu в сочетании с двумя видеоадаптерами (такими, как мощная дискретная видеокарта и слабое интегрированное видеоядро). |
Исходя из вышесказанного, мне начинает казаться, что не все так хорошо в стане зеленых... Из последних их техно-демонстраций (в области игрищь само-собой) только G-sync, новое сглаживание (видимо, не такое и новое, просто помимо самой картинки оно еще и z-buffer анализирует, как я понял) да HBAO+, которое в общем-то и не нужно - мощностей карт скоро хватит для отказа от амбиент освещения.
А вот, что за зверь - Mantle, для меня загадка... Аналог DirectX ? |
Цитата:
|
|
Вложений: 1
|
Все эти недавние события не несут ничего хорошего: налицо тенденция к переходу на какие-то собственные стандарты каждой компании.
|
Текущее время: 08:28. Часовой пояс GMT +3. |
Powered by vBulletin® Version 3.8.4
Copyright ©2000 - 2023, Jelsoft Enterprises Ltd. Перевод: zCarot