Интересно, почему четыре года назад для GTX 650, которая в пике потребляет 64 Вт рекомендованный блок питания был 400 Вт, а для GTX 1050/GTX 1050 Ti с их 75 Вт, 300 Вт. Чисто маркетинг?
Нет.
1 - пиковое потребление видеокарт указанное для видеокарт - очень абстрактное понятие.
Непонятно, что именно берётся за эталон в ххх Ватт. Производители могут оснащать видеокарту разным объёмом видеопамяти, может использоваться видеопамять разных производителей с разным рабочим напряжением/частотой.
Видеоядро может быть разогнано для определённых моделей видеокарт, повышено напряжение на ядре. Плюс незначительный вклад вносят вентиляторы.
Плюс для АМД и нВидии разные параметры максимального тепловыделения по мнению производителей. Может быть отличие ещё и в этом.
Вопрос ещё и в том, как измерять. Если измерять мгновенные колебания потребления видеокартой с временем измерения в 1мс, то видеокарты покажут в два раза (и более) более высокое потребление, чем указано производителем.
2 - Видеокарты 99% мощности потребляют по шине +12V. Старые блоки питания не могли выдать всю свою мощность мощность по шине 12В,