![]() |
Цитата:
Цитата:
|
Theosoph, согласен. Но данное моё изречение относилось скорее к
Цитата:
Моё мнение укрепилось ещё из-за Цитата:
Немного об аппаратной стороне AMD TrueAudio |
Ну сравнить более-менее точно можно... Для этого нужна прога, которая одновременно держит и CUDA и OpenCL. Такие проги есть, но вот беда - из мне известных переключение API происходит автоматически. Т.е., если видит Джифорс, использует CUDA автоматически, вместо OpenCL.
По факту получаем следующее : CUDA на GeFOrce, OpenCL на АМД. Как правило, несмотря на универсальность второго. Т.к. кроме АМД и Нвидия вменяемых ГПУ больше никто не производит, то определенный вывод получается... Цитата:
|
Цитата:
Цитата:
|
Цитата:
Т.к. третьей стороны нет ,которая может качнуть чашу весов в сторону OpenCL (как в свое время качнули Ati и Nvidia в сторону DX/OpenGL, выбив при этом Glide 3dfx),то так и будет : OpenCL/AMD и CUDA/Nvidia. При том, что видеокарты последней могут работать в OpenCL, это неэффективно и предпочтение все равно будут отдавать (и отдают) CUDA, при юзании GeForce. |
Думаю, что проблема заключается в политике NVIDIA - CUDA за годы смогла заработать авторитет и соответствующую базу пользователей. Ныне же NVIDIA, не собираясь терять эти позиции, и, невзирая на наличие открытого стандарта, продолжает активно развивать и популяризировать CUDA.
AMD же, получив провал (будем называть вещи своими именами) со Stream (позже это стало называться APP, если мне не изменяет память), решила не изобретать велосипед и прибегла к использованию открытого стандарта, что, безусловно, похвально. А совсем недавно дела обстояли так: http://compubench.com/compare.jsp?co...fig_1=11975403 Т.е. практически был паритет. |
Цитата:
Вследствие открытости, подкрепляемой поддержкой крупных IT-компаний, OpenCL имеет больший потенциал, который в данный момент раскрывается. CUDA же держится на гандикапе, накопленном за годы фактической монополии в GPGPU. Цитата:
|
Цитата:
Цитата:
|
Я просто пытаюсь понять, слабость GeForce в OpenCL - это недоработка программистов Nvidia или просто архитектура CGN у Radeon и вправду столь продвинутая ? Тут уже писали, что по всей видимости второе, но никаких внятных потверждений тому не нашел.
Всякие энкодеры на CUDA работают достаточно шустро (в абсолютном понимании)...так железо виновно или программеры ? Есть признаки и того и того, но они косвенные. В одном случае политика, во втором намек на универсальность CGN (в статье писали,что они могут исполнять "общий с CPU код") Кстати, не возникало ли у вас впечатления, что CGN - это переходной период к реализации CPU на графической плате или полной "эмуляции" CPU графической платой ? По крайней мере для АМД это позволило бы прекратить тщетные попытки догнать Интел и сосредоточиться на GPU. В воображении рисуется картина : подобно тому, как в свое время в интеловских решения контроллер памяти перекочевал в CPU, так и у АМД центральный процессор перекочевал на графическую плату. Как ? Либо в виде слабого ядра (2-3-4) общего назначения (назовем его контроллер CPU), которое прозрачно для ОС эмулирует ядра видеокарты (точнее группы ядер), как ядра CPU. Это все хозяйство прячется за этим контроллером CPU, поэтому какой-либо поддержки со стороны ОС не нужно (подобно тому. как старфорсный контроллер сжимает даннные на лету). как вам такая идея ? :) |
Theosoph, вряд ли это можно назвать недоработкой программистов - какой NVIDIA смысл намеренно сдерживать производительность своих же процессоров, какой бы код они не исполняли. Другое дело, что, возможно, если бы не было необходимости обеспечивать совместимость с CUDA, то, возможно, было бы реальным сделать более совершенную для OpenCL архитектуру. Но это всего лишь мои дилетантские размышления.
Что касается продвинутости GCN, то да, похоже, что это действительно заслуга аппаратной части. Вот сравнение VLIW4 и GCN на практике (а на диаграммах AMD, посвящённых GCN, можно увидеть, что, фактически, они лишь поменяли составляющие архитектуру "кирпичики" местами): http://compubench.com/compare.jsp?co...fig_1=11975403 Для сравнения выбрал Tahiti LE - у них с Cayman XT одинаковое кол-во "ядер", а частоты отличаются сравнительно незначительно (925 и 880 МГц соответственно). На практике GCN показывает себя (по заявлениям самой же AMD) существенно лучше чем VLIW благодаря более полному использованию ресурсов вычислительных блоков (у VLIW часть их при определённых условиях простаивает). Что касается архитектур NVIDIA, то тут ничего определённого сказать не могу, потому что вопросом не интересовался. Касательно общего кода - тут речь, скорее всего, шла в контексте APU, да и концепции гетерогенных вычислений в целом - недаром же в поколении Kaveri будет общее адресное пространство памяти для ЦП и ГП. По поводу второй части сообщения: если ЦП будет эмулироваться графической платой, то куда последняя будет устанавливаться? Если говорить о кочевничесвте, то ситуация наблюдается противоположная: графический процессор перекочевал под крышку ЦП. При этом чувствует себя там очень неплохо, как можем видеть. Да и какой смысл эмулировать ЦП при помощи ГП? Это лишь потери производительности и, следовательно, энергетической эффективности. И не создавались бы тогда столь сложные и продвинутые архитектуры ЦП. Даже Parallella с Epiphany, к примеру, имеет на борту ARM-процессор. Как раз, фактически, в виде контроллера (ведь такие платы можно объединять в массивы). Так что роль ГП всё же является ролью сопроцессора. И наверняка будет таковой оставаться. P.S. Контроллер памяти первой интегрировала в ЦП AMD, а не Intel. По крайней мере если говорить об этих двух компаниях и их массовых настольных продуктах. |
Цитата:
Цитата:
Потери производительности для чего ? С точки зрения видеокарты это будет просто еще один и более потоков данных (аля PhysX одновременно с графикой). Но в виду того, что видеокарта в разы производительнее CPU, для нее это будет незначительная нагрузка (в обычных задачах). Что касается энкодеров и т.п. ресурсоемких задач, то тут эмуляция, а если быть точнее имитация CPU ядрами видеокарты выдаст на выходе очень мощный "CPU". Имитация эта с точки зрения CPU будет выглядеть как N логических процессоров (подобно лог. процессорам Интел в конфигурациях 4 ядра/ 8 логических процессоров). Например, 32 и более ядерный процессор в диспетчере задач. Интел пыталась реализовать подобную идею в Larraby,но там было немного иначе : на видеокарте x86 ядра, вместо CGN. Но CGN-шные же намного быстрее и обладают признаками ядер общего назначения... |
Я бы назвал производительность этих решений достаточной. И если сравнивать с дискретными графическими картами начального уровня, то некоторые из них имеют производительность ниже (в частности Radeon HD 6450, к примеру).
Я понимаю, что игры это, наверное, основное направление, которое возбуждает интерес к компьютерам для большинства членов форума, но всё же не одни они являются двигателем индустрии (хотя их заслуга немалая). Если рассматривать APU в качестве инструмента для вычислений общего назначения, то для не играющего пользователя, не выполняющего какие-либо критичные задачи на своём ПК (т.е. т.н. "домашнее пользование"), APU является достаточно привлекательным решением: производительности 2-4 ядер на сегодняшний день вполне достаточно, а графический блок обеспечит ускорение в расположенных к этому задачах наподобие обработки графики и видео. Так что далеко не все "универсальные" решения являются одновременно игровыми. Не все играют (а точнее немногие), да и игры на APU это отдельная тема. В итоге пользователь получает относительно тихую и экономичную систему. Перейдём ко второй части. Потери производительности от эмуляции - ближайший и нагляднейший пример - эмуляторы консолей/приставок для ПК. О том, как они зачастую работают, думаю говорить не стоит. Графический процессор "в разы производительнее" центрального в определённых типах задач, которые имеют мало зависимостей и хорошо поддаются распараллеливанию. Так что помимо потерь при эмуляции ЦП, ГП в принципе будет неэффективно выполнять такие задачи ввиду своей природы. Цитата:
|
Эмуляция бывает разная. Архитектура приставок резко отличается от PC - потому там эмулирование очень ресурсоемкое.
Любые приложения Win32 на 64 битной системе тоже работают в режиме эмуляции, но это нечто другое..."легкая" эмуляция или ретрансляция (wrapper). Расходы минимум. В обзоре, который я уже цитировал, сказано, что ядра CGN умеют выполнять общий с CPU код. То есть они x86 совместимы или подобны им ? Цитата:
Правда один момент все портит...Оперативная память. Если CPU будет общаться с ней через PCIE, это будет тормоз... Тогда только полная интеграция. Матплата+GPU+CPU,а апгрейд сразу всех 3 компонентов. Раньше я был бы против такого, хотя бы потому,что страдает гибкость. А сейчас...Зато апгрейд проще и при грамотном подходе система будет сбалансированной, как игровые приставки - производитель исключит установку слабого относительно видеокарты CPU и наоборот. |
Цитата:
Цитата:
AMD и архитектура гетерогенных систем (HSA) Цитата:
Цитата:
Цитата:
Зачем переносить ЦП на видеокарту, которая будет устанавливаться в материнскую плату, на которой будет память, которую он будет использовать??? Цитата:
Добавлено через 49 секунд P.S. Цитата:
Цитата:
|
ого, как у вас тут весело
|
Новые сводки о цене и характеристиках Radeon R9 290X
http://www.overclockers.ru/hardnews/...n_R9_290X.html Цитата:
Цитата:
Мое имхо по поводу цены: R9 290 ~ 450 дол R9 290Х ~ 550-600 дол Добавлено через 8 минут Относительно производительности: R9 290 = гтх780; R9 290Х = Титан; Возможно Радеоны будут даже быстрее Жифорсов на 5-10 %. Кто как считает ? |
Цитата:
Информация о количестве потоковых процессоров была известна и раньше. Главная интрига - частота. Если она будет действительно 1 ГГц, то исходя из кол-ва потоковых процессоров, може сделать предположение, что 290Х будет примерно на 30% производительнее по сравнению с 280Х/HD 7970 GHz Edition. А это уже конкуренция для Titan. Посмотрел сейчас сравнение - не такой уж между HD 7970 и GTX Titan разрыв в некоторых приложениях. А кое-где у первого уже сейчас есть преимущество. В целом можно предположить, что будет паритет между 290Х и GTX Titan. |
Цитата:
Я думаю 290 - 600$ 290Х - 750$ 450-500$ будет стоить 770Ti, который будет конкурировать с каким нибудь обрезком от 290 770 опустят до конкурентных 350$ 780 снизят на 80-100$, в рублях должна стоить 18-20 |
да где уже обзоры 290Х****
я видяху хочу сменить, а тут... блин... |
Butcher
Да вроде как с 15-го. Может и чуть раньше просочатся. |
Текущее время: 04:44. Часовой пояс GMT +3. |
Powered by vBulletin® Version 3.8.4
Copyright ©2000 - 2023, Jelsoft Enterprises Ltd. Перевод: zCarot