Форум 3Dn Tech

Форум 3Dn Tech (https://forum.3dnews.tech/index.php)
-   Видеокарты (https://forum.3dnews.tech/forumdisplay.php?f=14)
-   -   NVIDIA & AMD: Новости (https://forum.3dnews.tech/showthread.php?t=128674)

Theosoph 09.10.2013 00:25

Цитата:

Сообщение от MS2 (Сообщение 2290891)
Угу. И создан Apple.

Цитата:

Когда я вижу результаты OpenCL, у меня создается впечатление, что этот стандарт чисто АМД-шный
Мысли читать необязательно. Для начала хватит просто более внимательного чтения текстов ;)

MS2 09.10.2013 00:32

Theosoph, согласен. Но данное моё изречение относилось скорее к
Цитата:

Сообщение от Theosoph (Сообщение 2290886)
уж велик провал Джифорсей, которые в CUDA, похожем API, показывают пристойные резы

На мой взгляд такое сравнение не вполне корректно, потому что CUDA работает лишь на одной платформе, в отличие от OpenCL, который способен работать с широчайшим спектром устройств.
Моё мнение укрепилось ещё из-за
Цитата:

Сообщение от Theosoph (Сообщение 2290886)
Разве OpenCL масштабируется на несколько GPU ???

Добавлено через 4 минуты

Немного об аппаратной стороне AMD TrueAudio

Theosoph 09.10.2013 00:43

Ну сравнить более-менее точно можно... Для этого нужна прога, которая одновременно держит и CUDA и OpenCL. Такие проги есть, но вот беда - из мне известных переключение API происходит автоматически. Т.е., если видит Джифорс, использует CUDA автоматически, вместо OpenCL.

По факту получаем следующее : CUDA на GeFOrce, OpenCL на АМД. Как правило, несмотря на универсальность второго.
Т.к. кроме АМД и Нвидия вменяемых ГПУ больше никто не производит, то определенный вывод получается...

Цитата:

Сообщение от MS2 (Сообщение 2290900)
Разве OpenCL масштабируется на несколько GPU ???

Просто узкое место между потоковыми процессорами двух ГПУ, необходимость их синхронизации и т.п. делает такую задачу весьма нетривиальной.

MS2 09.10.2013 01:07

Цитата:

Сообщение от Theosoph (Сообщение 2290903)
Ну сравнить более-менее точно можно...

Так сравнить можно только то, как взаимодействуют процессоры NVIDIA с OpenCL - CUDA ведь нельзя ни на чём другом сравнить. Так что мы сравниваем лишь степень оптимизации той или иной архитектуры (и ПО) NVIDIA для OpenCL, а не производительность стандартов как таковых.
Цитата:

Сообщение от Theosoph (Сообщение 2290903)
Просто узкое место между потоковыми процессорами двух ГПУ, необходимость их синхронизации и т.п. делает такую задачу весьма нетривиальной.

Как можем видеть, человечество разрешило даже столь нетривиальную задачу.

Theosoph 09.10.2013 01:33

Цитата:

Сообщение от MS2 (Сообщение 2290905)
Так сравнить можно только то, как взаимодействуют процессоры NVIDIA с OpenCL

Правильно. Но взаимодействуют они весьма уево, поэтому и создается впечатление, что это стандарт для АМД, т.к. Nvidia тупо забила на него и не оптимизирует драйвера под OpenCL, предпочитая CUDA.
Т.к. третьей стороны нет ,которая может качнуть чашу весов в сторону OpenCL (как в свое время качнули Ati и Nvidia в сторону DX/OpenGL, выбив при этом Glide 3dfx),то так и будет : OpenCL/AMD и CUDA/Nvidia.
При том, что видеокарты последней могут работать в OpenCL, это неэффективно и предпочтение все равно будут отдавать (и отдают) CUDA, при юзании GeForce.

MS2 09.10.2013 01:55

Думаю, что проблема заключается в политике NVIDIA - CUDA за годы смогла заработать авторитет и соответствующую базу пользователей. Ныне же NVIDIA, не собираясь терять эти позиции, и, невзирая на наличие открытого стандарта, продолжает активно развивать и популяризировать CUDA.
AMD же, получив провал (будем называть вещи своими именами) со Stream (позже это стало называться APP, если мне не изменяет память), решила не изобретать велосипед и прибегла к использованию открытого стандарта, что, безусловно, похвально.
А совсем недавно дела обстояли так:
http://compubench.com/compare.jsp?co...fig_1=11975403
Т.е. практически был паритет.

BSE 09.10.2013 02:21

Цитата:

Сообщение от MS2 (Сообщение 2290905)
Так что мы сравниваем лишь степень оптимизации той или иной архитектуры (и ПО) NVIDIA для OpenCL, а не производительность стандартов как таковых.

Что CUDA, что OpenCL — прослойка между программистом и вычислительными мощностями. Их можно сравнивать по удобству и разнообразию инструментария, предоставленного программисту, плюс по поддержке аппаратных и программных платформ. Конечному же пользователю важно не технологическое превосходство одного над другим, а улучшение работы в целевых для него программах.

Вследствие открытости, подкрепляемой поддержкой крупных IT-компаний, OpenCL имеет больший потенциал, который в данный момент раскрывается. CUDA же держится на гандикапе, накопленном за годы фактической монополии в GPGPU.
Цитата:

Сообщение от Theosoph (Сообщение 2290908)
третьей стороны нет

У OpenCL нет абстрактных третьих сторон — его поддержку могут внедрить (и успешно внедряют) любые компании-производители вычислительных устройств. AMD же на слуху из-за близости её к пользовательскому рынку.

MS2 09.10.2013 02:42

Цитата:

Сообщение от BSE (Сообщение 2290911)
Их можно сравнивать по удобству и разнообразию инструментария, предоставленного программисту, плюс по поддержке аппаратных и программных платформ.

Совершенно верно. Но в том случае я подразумевал именно сопоставление производительности, о котором писал Theosoph.
Цитата:

Сообщение от BSE (Сообщение 2290911)
AMD же на слуху из-за близости её к пользовательскому рынку.

Также можно назвать компании, занимающиеся мобильными процессорами: ARM, Imagination Technologies, Qualcomm.

Theosoph 09.10.2013 03:15

Я просто пытаюсь понять, слабость GeForce в OpenCL - это недоработка программистов Nvidia или просто архитектура CGN у Radeon и вправду столь продвинутая ? Тут уже писали, что по всей видимости второе, но никаких внятных потверждений тому не нашел.
Всякие энкодеры на CUDA работают достаточно шустро (в абсолютном понимании)...так железо виновно или программеры ?
Есть признаки и того и того, но они косвенные. В одном случае политика, во втором намек на универсальность CGN (в статье писали,что они могут исполнять "общий с CPU код")

Кстати, не возникало ли у вас впечатления, что CGN - это переходной период к реализации CPU на графической плате или полной "эмуляции" CPU графической платой ?
По крайней мере для АМД это позволило бы прекратить тщетные попытки догнать Интел и сосредоточиться на GPU. В воображении рисуется картина : подобно тому, как в свое время в интеловских решения контроллер памяти перекочевал в CPU, так и у АМД центральный процессор перекочевал на графическую плату.
Как ? Либо в виде слабого ядра (2-3-4) общего назначения (назовем его контроллер CPU), которое прозрачно для ОС эмулирует ядра видеокарты (точнее группы ядер), как ядра CPU. Это все хозяйство прячется за этим контроллером CPU, поэтому какой-либо поддержки со стороны ОС не нужно (подобно тому. как старфорсный контроллер сжимает даннные на лету).
как вам такая идея ? :)

MS2 09.10.2013 03:36

Theosoph, вряд ли это можно назвать недоработкой программистов - какой NVIDIA смысл намеренно сдерживать производительность своих же процессоров, какой бы код они не исполняли. Другое дело, что, возможно, если бы не было необходимости обеспечивать совместимость с CUDA, то, возможно, было бы реальным сделать более совершенную для OpenCL архитектуру. Но это всего лишь мои дилетантские размышления.
Что касается продвинутости GCN, то да, похоже, что это действительно заслуга аппаратной части. Вот сравнение VLIW4 и GCN на практике (а на диаграммах AMD, посвящённых GCN, можно увидеть, что, фактически, они лишь поменяли составляющие архитектуру "кирпичики" местами):
http://compubench.com/compare.jsp?co...fig_1=11975403
Для сравнения выбрал Tahiti LE - у них с Cayman XT одинаковое кол-во "ядер", а частоты отличаются сравнительно незначительно (925 и 880 МГц соответственно).
На практике GCN показывает себя (по заявлениям самой же AMD) существенно лучше чем VLIW благодаря более полному использованию ресурсов вычислительных блоков (у VLIW часть их при определённых условиях простаивает).
Что касается архитектур NVIDIA, то тут ничего определённого сказать не могу, потому что вопросом не интересовался.
Касательно общего кода - тут речь, скорее всего, шла в контексте APU, да и концепции гетерогенных вычислений в целом - недаром же в поколении Kaveri будет общее адресное пространство памяти для ЦП и ГП.

По поводу второй части сообщения: если ЦП будет эмулироваться графической платой, то куда последняя будет устанавливаться? Если говорить о кочевничесвте, то ситуация наблюдается противоположная: графический процессор перекочевал под крышку ЦП. При этом чувствует себя там очень неплохо, как можем видеть.
Да и какой смысл эмулировать ЦП при помощи ГП? Это лишь потери производительности и, следовательно, энергетической эффективности.
И не создавались бы тогда столь сложные и продвинутые архитектуры ЦП. Даже Parallella с Epiphany, к примеру, имеет на борту ARM-процессор. Как раз, фактически, в виде контроллера (ведь такие платы можно объединять в массивы).
Так что роль ГП всё же является ролью сопроцессора. И наверняка будет таковой оставаться.

P.S. Контроллер памяти первой интегрировала в ЦП AMD, а не Intel. По крайней мере если говорить об этих двух компаниях и их массовых настольных продуктах.

Theosoph 09.10.2013 04:15

Цитата:

Сообщение от MS2 (Сообщение 2290917)
Если говорить о кочевничесвте, то ситуация наблюдается противоположная: графический процессор перекочевал под крышку ЦП. При этом чувствует себя там очень неплохо, как можем видеть.

Да как сказать... Производительность подобных решений плачевная, даже на фоне дискретных карт начального уровня. Не универсальное это решение - в игры не поиграешь (разве что на минимальных настройках, но кайф то какой ?)

Цитата:

Сообщение от MS2 (Сообщение 2290917)
Да и какой смысл эмулировать ЦП при помощи ГП? Это лишь потери производительности и, следовательно, энергетической эффективности.

Смысл в отказе от CPU, как отдельного устройства - это сделает PC дешевле и привлекательнее.
Потери производительности для чего ? С точки зрения видеокарты это будет просто еще один и более потоков данных (аля PhysX одновременно с графикой). Но в виду того, что видеокарта в разы производительнее CPU, для нее это будет незначительная нагрузка (в обычных задачах).
Что касается энкодеров и т.п. ресурсоемких задач, то тут эмуляция, а если быть точнее имитация CPU ядрами видеокарты выдаст на выходе очень мощный "CPU".
Имитация эта с точки зрения CPU будет выглядеть как N логических процессоров (подобно лог. процессорам Интел в конфигурациях 4 ядра/ 8 логических процессоров). Например, 32 и более ядерный процессор в диспетчере задач.

Интел пыталась реализовать подобную идею в Larraby,но там было немного иначе : на видеокарте x86 ядра, вместо CGN. Но CGN-шные же намного быстрее и обладают признаками ядер общего назначения...

MS2 09.10.2013 05:19

Я бы назвал производительность этих решений достаточной. И если сравнивать с дискретными графическими картами начального уровня, то некоторые из них имеют производительность ниже (в частности Radeon HD 6450, к примеру).
Я понимаю, что игры это, наверное, основное направление, которое возбуждает интерес к компьютерам для большинства членов форума, но всё же не одни они являются двигателем индустрии (хотя их заслуга немалая). Если рассматривать APU в качестве инструмента для вычислений общего назначения, то для не играющего пользователя, не выполняющего какие-либо критичные задачи на своём ПК (т.е. т.н. "домашнее пользование"), APU является достаточно привлекательным решением: производительности 2-4 ядер на сегодняшний день вполне достаточно, а графический блок обеспечит ускорение в расположенных к этому задачах наподобие обработки графики и видео. Так что далеко не все "универсальные" решения являются одновременно игровыми. Не все играют (а точнее немногие), да и игры на APU это отдельная тема.
В итоге пользователь получает относительно тихую и экономичную систему.

Перейдём ко второй части.
Потери производительности от эмуляции - ближайший и нагляднейший пример - эмуляторы консолей/приставок для ПК. О том, как они зачастую работают, думаю говорить не стоит.
Графический процессор "в разы производительнее" центрального в определённых типах задач, которые имеют мало зависимостей и хорошо поддаются распараллеливанию. Так что помимо потерь при эмуляции ЦП, ГП в принципе будет неэффективно выполнять такие задачи ввиду своей природы.

Цитата:

Сообщение от Theosoph (Сообщение 2290918)
CGN-шные же намного быстрее и обладают признаками ядер общего назначения...

Ядра CUDA тоже обладают "признаками ядер общего назначения". Более того - они таковыми и являются (если подразумевается возможность работы с OpenCL). Может быть и на них, и на GCN даже вполне возможно провернуть нечто, описываемое тобой. Но опять же - стоит подумать о целесообразности этого: намного проще включить какой-нибудь блок с ядрами ARM или MIPS (или каким-либо другими) в кристалл ГП или установить отдельный чип на плате (как в случае с Parallella), чем тратить вычислительные ресурсы ГП и создавать сложный программный комплекс для эмуляции ЦП на нём.

Theosoph 09.10.2013 05:34

Эмуляция бывает разная. Архитектура приставок резко отличается от PC - потому там эмулирование очень ресурсоемкое.
Любые приложения Win32 на 64 битной системе тоже работают в режиме эмуляции, но это нечто другое..."легкая" эмуляция или ретрансляция (wrapper). Расходы минимум.
В обзоре, который я уже цитировал, сказано, что ядра CGN умеют выполнять общий с CPU код. То есть они x86 совместимы или подобны им ?

Цитата:

Сообщение от MS2 (Сообщение 2290921)
стоит подумать о целесообразности этого: намного проще включить какой-нибудь блок с ядрами ARM или MIPS (или каким-либо другими) в кристалл ГП

Тоже идея, правда вопрос с энергопотреблением не снимается. Хочется надеятся,что АМД работает в этом направлении и избавит нас в будущем от апгрейдов центрального процессора, который будет совмещен с апгрейдом видеокарты и фактически единым с ней устройством (физически или логически).

Правда один момент все портит...Оперативная память. Если CPU будет общаться с ней через PCIE, это будет тормоз... Тогда только полная интеграция. Матплата+GPU+CPU,а апгрейд сразу всех 3 компонентов.
Раньше я был бы против такого, хотя бы потому,что страдает гибкость. А сейчас...Зато апгрейд проще и при грамотном подходе система будет сбалансированной, как игровые приставки - производитель исключит установку слабого относительно видеокарты CPU и наоборот.

MS2 09.10.2013 05:44

Цитата:

Сообщение от Theosoph (Сообщение 2290923)
Архитектура приставок резко отличается от PC

А архитектура GCN не резко отличается от x86?
Цитата:

Сообщение от Theosoph (Сообщение 2290923)
В обзоре, который я уже цитировал, сказано, что ядра CGN умеют выполнять общий с CPU код. То есть они x86 совместимы или подобны им ?

Да нет же. Никто никому не подобен и не совместим. Поэтому вычисления так и называются: гетерогенные:
AMD и архитектура гетерогенных систем (HSA)
Цитата:

Сообщение от Theosoph (Сообщение 2290923)
Тоже идея, правда вопрос с энергопотреблением не снимается.

С учётом того, что даже самые производительные SoC ARM имеют мощность около 1 Вт... Этим можно вообще пренебречь.
Цитата:

Сообщение от Theosoph (Сообщение 2290923)
апгрейдов центрального процессора, который будет совмещен с апгрейдом видеокарты и фактически единым с ней устройством (физически или логически).

APU. Это уже сейчас работает. Просто ты хочешь, чтобы они были более производительными. Существенно более.
Цитата:

Сообщение от Theosoph (Сообщение 2290923)
Правда один момент все портит...Оперативная память. Если CPU будет общаться с ней через PCIE, это будет тормоз... Тогда только полная интеграция. Матплата+GPU+CPU,а апгрейд сразу всех 3 компонентов.

http://magictheory.ru/wp-content/uploads/2013/06/dj.jpg
Зачем переносить ЦП на видеокарту, которая будет устанавливаться в материнскую плату, на которой будет память, которую он будет использовать???
Цитата:

Сообщение от Theosoph (Сообщение 2290923)
Раньше я был бы против такого, хотя бы потому,что страдает гибкость. А сейчас...Зато апгрейд проще и при грамотном подходе система будет сбалансированной, как игровые приставки - производитель исключит установку слабого относительно видеокарты CPU и наоборот.

APU. APU! Уже даже в игровых приставках APU. И именно AMD.

Добавлено через 49 секунд

P.S.

Цитата:

Сообщение от Theosoph (Сообщение 2290908)
Т.к. третьей стороны нет ,которая может качнуть чашу весов в сторону OpenCL

Третья сторона - программисты. Ведь проще однажды написать программу, которая будет работать на любой аппаратной платформе. Так что...
Цитата:

Сообщение от BSE (Сообщение 2290911)
Вследствие открытости, подкрепляемой поддержкой крупных IT-компаний, OpenCL имеет больший потенциал, который в данный момент раскрывается. CUDA же держится на гандикапе, накопленном за годы фактической монополии в GPGPU.


Butcher 09.10.2013 10:47

ого, как у вас тут весело

Zevse 09.10.2013 12:42

Новые сводки о цене и характеристиках Radeon R9 290X
http://www.overclockers.ru/hardnews/...n_R9_290X.html
Цитата:

По крайней мере, утекшая информация позволяет убедиться в наличии 2816 потоковых процессоров и 4 Гб памяти типа GDDR5, поддержке TrueAudio
Цитата:

Radeon R9 290X будет стоить здесь 649 евро, а Radeon R9 290 – всего 519 евро.
Фантазия продавцов меня удивляет, это хорошо, что они хотят "втулить" что-то по дороже, и создают при этом ажиотаж.. но писать об этом каждый день это лол.

Мое имхо по поводу цены:
R9 290 ~ 450 дол
R9 290Х ~ 550-600 дол

Добавлено через 8 минут

Относительно производительности:
R9 290 = гтх780;
R9 290Х = Титан;
Возможно Радеоны будут даже быстрее Жифорсов на 5-10 %.

Кто как считает ?

MS2 09.10.2013 13:06

Цитата:

Сообщение от Zevse (Сообщение 2291048)
Кто как считает ?

Представитель AMD не так давно официально заявлял, что карты не призваны конкурировать с GTX Titan. Хотя это может быть на самом деле и не так.
Информация о количестве потоковых процессоров была известна и раньше. Главная интрига - частота. Если она будет действительно 1 ГГц, то исходя из кол-ва потоковых процессоров, може сделать предположение, что 290Х будет примерно на 30% производительнее по сравнению с 280Х/HD 7970 GHz Edition. А это уже конкуренция для Titan.
Посмотрел сейчас сравнение - не такой уж между HD 7970 и GTX Titan разрыв в некоторых приложениях. А кое-где у первого уже сейчас есть преимущество. В целом можно предположить, что будет паритет между 290Х и GTX Titan.

Кит 09.10.2013 18:41

Цитата:

Сообщение от Zevse (Сообщение 2291048)
Мое имхо по поводу цены:
R9 290 ~ 450 дол
R9 290Х ~ 550-600 дол

что не верится.

Я думаю 290 - 600$
290Х - 750$

450-500$ будет стоить 770Ti, который будет конкурировать с каким нибудь обрезком от 290
770 опустят до конкурентных 350$
780 снизят на 80-100$, в рублях должна стоить 18-20

Butcher 10.10.2013 12:08

да где уже обзоры 290Х****
я видяху хочу сменить, а тут... блин...

BSE 10.10.2013 12:50

Butcher
Да вроде как с 15-го. Может и чуть раньше просочатся.


Текущее время: 04:44. Часовой пояс GMT +3.

Powered by vBulletin® Version 3.8.4
Copyright ©2000 - 2023, Jelsoft Enterprises Ltd. Перевод: zCarot