NVidia DLSS
Вообще все идет по довольно понятному сценарию - Nvidia затягивает нас в анналы своей экосистемы все глубже.
Изначально идея реально неплохая - рендерим в низком разрешении, апскейлим - получаем профит. Меньше грузится ГПУ, меньше требований к железкам, больше доступности. Для нас гут, для разработчиков нихуевый костыль - меньше оптимизации, больше возможностей. С DLSS 3 ситуация масштабируется. ГПУ обленился, рисует еще меньше, ИИ доделал и заебись. Это уже не апскейл, а тупо подмена реального рендера. Текущий тренд на большее уменьшение честных кадров, больше генераций, все больше зависимости от ИИ. По факту - ГПУ уже не устройство для рендеринга, а основа для ИИ. Понятно, что транзисторы не масштабируются как раньше, энергопотребление в космосе, а цены и требование к железу растет. Пэм - DLSS. Охуенный костыль, если бы не один минус - это жесткая привязка к экоситсеме. Это работает лучше всего на картах Nvidia. Новые плюшки только на новых поколениях (внезапно), и нам начинают мягко слюнявить ухо: хочешь красиво играть, пиздуй за новой RTX 50-60-70-80- и далее по экспоненте. Разработчикам становится вообще похуй. Раньше была ебля с оптимизацией, сейчас - клацай DLSS и не пизди. Мы идем к модели, когда на выходе получаем не отрисованную игру, а восстановленную.
Плохо это или хорошо - да хуй знает. С автором поста согласен. За больший накрученный FPS мы заплатим хуевой оптимизацией, артефактами, инпутлагом и еще большей привязкой к Nvidia, где куртки по 1500$, а рубашки по 1000$.