singlepost

Помощь и FAQ по видюхам << Назад  

Помощь вы получите либо от Hardware-эксперта,либо от участников клуба.




Лучший поиск по проблемам с компьютером:


351 ответов в теме “Помощь и FAQ по видюхам”

  1. 1
    Илья Кондратьев ответил:

    помогу по GeForce )) от GeForce 2 до 295

  2. 2
    Николай Сосновиков ответил:

    Александр #St.PriSoneR# Шейфер, какой именно ФАК ты хочешь составить?
    По истории видеокарт и их спецификациям?
    Мне кажется, это весьма объёмная работа, и очень неблагодарное занятие, потому что можно что-то упустить, недовольные всегда найдутся )

  3. 3
    Николай Сосновиков ответил:

    Я могу примерно рассказать о видеокартах с точки зрения программиста, о том что такое версии шейдеров, что дают разные графические АПИ (OpenGL, Direct3D), и что это собственно такое вообще. О том что такое OpenGL, как он работает и почему так важно обновлять видеодрайвер.
    О том как работает пайплайн и почему, собственно, все работают с видеокартой через GAPI, а не программируют на прямую.
    Люди же часто вообще плавают во всех этих понятиях.

  4. 4
    Юра Соколов ответил:

    Николай SNVampyre Сосновиков
    Мне бы было интересно почитать) Хотя отчасти с этим знаком)

  5. 5
    Николай Сосновиков ответил:

    Юра Sid Vicious Соколов, про что конкретно? )

  6. 6
    Юра Соколов ответил:

    что дают разные графические АПИ (OpenGL, Direct3D),О том что такое OpenGL, как он работает

  7. 7
    Юра Соколов ответил:

    про остальное я полагаю знаю достаточно) хотя век живи век учись)

  8. 8
    Николай Сосновиков ответил:

    Юра Sid Vicious Соколов, графический АПИ – это интерфейс для общения с видеокартой. И OpenGL и Direct3D в этом плане выполняют одинаковые функции.
    Лучше рассказать начиная с OpenGL, думаю так будет понятнее…
    До OpenGL (впрочем и после) было множество графических библиотек, но OpenGL была первой, которая стала открытой и бесплатной. В 1992 Silicon Graphics решила выпустить такую библиотеку в принципе из корыстных соображений, поскольку в это время она занимала лидирующие позиции среди рабочих станций (во время проектирования для вьюпорт-рендера как раз использовался и сейчас до сих пор очень распространён OpenGL).

    Главное преимущество, которое даёт использование GAPI по сравнению с прямым программированием чипа – это возможность создания GPU с самой разнообразной архитектурой, потому что реализация OpenGL-драйвера полностью ложилась на производителя этого самого GPU (хотя была и процессорная эмуляция). Программы общаются с одним и тем же интерфейсом, и при этом могут работать на настоящем зоопарке архитектур. И если мы посмотрим на историю развития GPU, то даже у одной и той же компании чипы разных поколений могли различаться радикально. За примерами далеко ходить не надо, взять хотя бы недавние примеры при переходе от G71 к G80 или от R580 к R600, архитектуры этих чипов радикально отличаются друг от друга, поэтому писать программы с учётом архитектурных особеннотей этих чипов, никто не стал бы. Вот и пишут дрова дровописатели под свои чипы, чтобы реализовать поддержку Direct3D и OpenGL, а все приложения общаются не с видеочипом (они по сути даже не знают на чём сами работают), а с GAPI.

    Если речь идёт о Direct3D, то мощь программистов Microsoft позволяет упростить написание дров, но при этом, правда, получается большая прослойка между драйвером и приложением. Если говорить об OpenGL, то реализация ложится на дровописателей полностью и обычно в самых старых дровах не то что функционал не полный, а даже тот что есть – глюк на глюке сидит и глюком заправляет. Но зато нет никакой прослойки между приложением и драйвером, нагрузка на процессор меньше. Кстати, из-за того, что поддержка OpenGL на старых дровах очень ужасная, никто не делает игры с использованием OpenGL, ведь юзеры обычно не обновляют дрова вообще. Особенно ужасная поддержка OpenGL у интел, хотя это уже другая тема. С Direct3D у всех всё нормально на любом драйвере.

    Собственно, сами по себе API хоть и очень абстрактны, но позволяют управлять графическим конвейером весьма полноценно и позволяют использовать все самые главные фичи GPU. Работа как OpenGL так и Direct3D сводится к одним и тем же функциям – это работа с массивами вершин, текстурами и шейдерами, то есть работа со всеми теми типами данных, с какими работает GPU. Очень часто в играх делается мультирендер, это возможно как раз благодаря тому, что API похожи.

    Кстати, сравнивать OpenGL и Direct3D в каком-то смысле даже нелепо, потому что если Direct3D един для всех, то OpenGL у каждой компании по сути свой. Да, конечно они сообща добавляют новый функционал (при чём делают это с 2-4 летним опозданием), но всё равно раелизация очень разнообразна даже на разных версиях драйверов одной и той же компании :) ))
    Например, у Intel сейчас поддержка стандарта 2001 года и еле-еле вводит OpenGL 2.0, у ATI уже довольно давно OpenGL 2.1 (причём для всех карт начиная с Radeon 9500), но более поздний функционал вводит очень медленно и я думаю, OpenGL 3.1 у них будет где-то через год, а у NVidia OpenGL 3.1 реализован уже год как. И производительность драйвера радикально отличается, например драйвер NVIdia почти в 3 раза производительнее чем таковой у ATI… При этом у ATI значительно более прогрессивный оптимизатор шейдеров. Вот и думайте сами как ID-Software в этом зоопарке сделала хай-энд двжок, который везде хорошо работает :)

    Самое сильное различие между OpenGL и Direct3D для программистов заключается, пожалуй, в том, что в Direct3D каждая новая версия – это локальная катастрофа для конторы, потому что требует полностью переписывать весь код по работе с гафикой. В OpenGL же ф

  9. 9
    Николай Сосновиков ответил:

    Самое сильное различие между OpenGL и Direct3D для программистов заключается, пожалуй, в том, что в Direct3D каждая новая версия – это локальная катастрофа для конторы, потому что требует полностью переписывать весь код по работе с графикой. В OpenGL же функционал добавлялся постепенно, путём расширений, однако это привело к тому, что API стал очень громоздким и его реализация стала совсем тяжёлой для драйверописателей. В OpenGL 3.0 наконец-то ввели модель отбрасывания старого функционала, так что OpenGL 3.0 теперь как брат-близнец Direct3D 10 (правда в несколько кастрированном варианте, потому что важные фичи в ядро не вошли, например инстансинг и геометрические шейдеры, но войдут в OpenGL 3.1). Так что в ближайшем будущем графика уровня Direct3D 10 может стать кроссплатформенной (на NVidia уже сейчас).

    Развитие GAPI идёт в след за развитием GPU, ведь в разработке API участвуют все ведущие корпорации производящие видеочипы. В основном, это направление нацелено на оптимизацию работы уже существующих алгоритмов, и избавление от CPU-зависимости. CPU архитектуры x86 уже практически не развиваются, в свою очередь GPU своих темпов развития не потеряли. Поэтому с каждой новой версией GAPI мы также видим уменьшение количества тяжёлых для CPU вызовов GAPI, ну и видим всё большее расширение возможностей поперекладыванию рассчётов на GPU. Ну тут примеры я приводить не буду, думаю очевидно, что когда возможности GPU расширяются, мы можем больше на него переложить.
    Например совсем недавно скелетную анимацию и силуэты shadow volume можно было рассчитывать только на CPU…

    Что-то написал, надеюсь, что-нибудь понятно…
    Если что-то не понятно, спрашивайте…
    Блин, тут оказывается предел для сообщений есть :)

  10. 10
    Юра Соколов ответил:

    Николай SNVampyre Сосновиков
    Спасибо за столь обстоятельный рассказ. В принципе все понятно кроме пары моментов. Хотелось бы уточнить. Как я понял OpenGl потенциально экономичнее использует ресурсы чемDirect3d но под него сложнее писать дрова. То есть он как бы более низкоуровневый чем Direct3d? Не знаю как выразиться… То есть на нам сложнее писать ведь изначально нет всех функций которые заложили мелкомягкие в Direct3d?
    И еще одно. Я просто не слышал что современные GPU умеют рассчитывать скелетную анимацию. Если не сложно расскажите поподробнее. Заранее спасибо)

  11. 11
    Николай Сосновиков ответил:

    Юра Sid Vicious Соколов, просто Microsoft берёт на себя бОльшую часть написания драйвера.
    При этом драйвер получается тяжелее, потому что он более универсальный, из-за этого на CPU нагрузка получается выше.
    Сейчас самая большая проблема в графике – это тяжесть вызовов функций Direct3D, а если учесть что Direct3D может работать только в один поток, то проблема становится непреодолимой… В OpenGL вызовы легче примерно в 1.5-4 раза.
    На OpenGL проще писать, благодаря тому что можно мелкими затратами охватить весь парк железа. Тем более не обязательно писать шейдеры под каждую модель, драйвер сам компилирует их под то что ему нужно. Проблемы только с поддержкой, причём они даже не временные… например ATI часто любит внедрить какой-то функционал, а в более поздних драйверах отключать его…
    То есть писать не сложно, но поддерживать практически невозможно.

    GPU умеют рассчитывать скелетную анимацию, причём очень давно :)
    Просто на GPU были проблемы с хранением результата вычислений, можно было лишь пересчитывать скелетную анимацию каждый раз.
    В OpenGL 2.1 есть полезное введение, которое позволяет использовать текстуру в качестве данных для вершин (так называемый pixel_buffer_object), соответственно можно отрендерить в текстуру, а потом рисовать эти данные… Работает везде начиная с Radeon 9500 и GeForce 6.
    А в Direct3D 9 был некоторый хак от ATI "R2VB" (render to vertex buffer), но на NVidia не работало.
    В D3D 10 есть уже полный набор для вычислений не то что скелетной анимации, а чего угодно сложнее… добавились геометрические шейдеры, результат которых можно сохранять в буфер (transform feedback). Сама по себе шейдерная модель SM 4.0 позволяет выполнять бесконечное множество инструкций, программы могут быть очень длинными, данных можно в шейдер напихать очень много, на любую модель хватит… можно читать текстуру из любого шейдера… мешает только нераспространённость Vista.

  12. 12
    Юра Соколов ответил:

    Николай SNVampyre Сосновиков
    Николай я просто поражен вашими знаниями в этой области! А также умением доходчиво донести ее до других. Огромное спасибо!

  13. 13
    Николай Сосновиков ответил:

    Да не за что, всегда пожалуйста :)

  14. 14
    Евгений Быстров ответил:

    Люди подскажите пожалуйста какая должна быть система чтобы вот эта (http://www.info39.ru/goods.php?id=85811) видюшка пошла без проблем
    моя система (http://vkontakte.ru/board.php?act=t&tid=13978095).Меня смущает моя матиринка она не навороченная а простая,и я боюсь,что материнка не потянет эту видюху.И ещё подскажите какой фирмы покупать БП!!!
    Если,что вот подробное описание моей материнки (http://www.mplt.ru/?p=434)

  15. 15
    Сайген Умаров ответил:

    Здраствуйте уважаемый Евгений rus-39 Быстров, задав такой вопрос вы бы хотели наверное получить как можно оптимальный вариант из возможных. Как известно чётко сформулированный вопрос это половина ответа, вопрос отличный дажеподробное описание материнки есть, вот только скажите примерную сумму бюджета планируемого для приобретения железа, так как это на прямую влияет на производительность системы, тем более сейчас большой выбор различного железа. Вы выбрали Geforce GTX 285, для раскрытия потенциала такой мощной видеокарты, необходима и соответствующая система, которая и стоить будет нормальныхденег.
    Само собой чем дороже железки тем круче, но есть еще и экономическая целесобразность приобретения.
    Ну в общем по скольку бюджет мы пока незнаем, просто прикинем;

    Процессор>>s1366 Intel Core i7 920 <2.66GHz/4.8GTsec/8Mb – 10707 рублей

    Память>>6 X1024MB DDR3 PC10666 Patriot PSD31G13332 -7920 рублей

    Мат.плата>>s1366 Intel DX58SO -10731 рублей

    Видеокарта>>PCI-E 1024MB XFX GeForce GTX285 TV, DVI – 15631 рублей

    Блок питания>>Блок питания 550W Thermaltake W0143RE – 3517 рублей

    Примерно так, ориентация на цены Ростова на Дону, у нас такие цены, а вообще чё то подорожало после праздников всё железо.
    Процессор самый пока свежий нового поколения мощный четырёхъядерник, уже тесты есть.
    Материнка с соответствующим соккетом под проц, хотя лучше всё таки взять от MSI чуть по дороже, но реально по круче.
    Блока питания должно хватить, но также необходимо ориентироваться на цены и ассортимент Вашего региона, лучше конечно взятьблок питания ватт на 800, с запасом. Но он естественно дороже, главное чтобы ватты были реальные а не дутые. На пример написанно 500 Watts а на самом деле 350. Вот фирмы блоков питания которые одобренны к применению; Powerman, FSP, Термалтейк. Но тут конечно зависит еще от модели блока. К стати хороший блок и стоить должен хорошо, относительно дешёвые блоки питания не рекомендуется приобретать, так как фуфло.
    Так что огласите бюджет, и выберем то что надо.

  16. 16
    Николай Сосновиков ответил:

    Чтобы такая видеокарта пошла без проблем, необходимо только поставить блок питания на 600Вт, всё.

  17. 17
    Сайген Умаров ответил:

    Ну в принципе да:):):)

  18. 18
    Евгений Быстров ответил:

    Сайген Умаров.Я понимаю,что моя система не идеальна,но на покупку более сильного системника нет средств.Так,что придётся работать на том,что есть.Если эта видюха про которую я спрашивал будет на моей системе работать не на полную мощность,то посоветуйте тогда пожалуйста какую видюху стоит купить,что бы она пошла идеально.Бюджет на видеокарту 17000 тыщ.естественно рублей)))

  19. 19
    Николай Сосновиков ответил:

    >Если эта видюха про которую я спрашивал будет на моей системе работать не на полную мощность,то посоветуйте тогда пожалуйста какую видюху стоит купить,что бы она пошла идеально.
    Любая.

  20. 20
    Евгений Быстров ответил:

    Спасибо большое,за ответ,я просто чайник в этих делах)))

  21. 21
    Сайген Умаров ответил:

    Нет ну почему же, у Васвполне бодрая система, я предложил если новый собирать. Естественно можно просто видюху докупить и как посоветовалНиколай SNVampyre Сосновиков просто блок питания взять мощный, тут 100% он прав. Ведь такой зверь от Geforce много кушает энергии, да и проц у Вас не селерон, а Q6600. Но вот как у вас в системе написанно "Монитор-ASUS 1920 на1200(24дюйма)", для него всё таки нужна хорошая видюха если играть на стандартном разрешении иNVidia GeForse 8600GT 1024 Mb стественно уже не тянет, хоть там 10 гигабайт будет:)
    А видеокарта что Вы выбрали будет работать нормально и с Вашей системой, куда она денется, лишь бы сама не бракованная была.

  22. 22
    Сайген Умаров ответил:

    Если уже выбор видюхи определён то берите не бойтесь, главное на блок питания денег что б хватило. А разница в играх по сравнению с GeForse 8600GT 1024 Mb, будет явной. Возьмите хотя бы просто проверить у знакомых если есть видюха по мощенее.

  23. 23
    Николай Сосновиков ответил:

    Разница будет восьмикратной )

  24. 24
    Сайген Умаров ответил:

    ))))))

  25. 25
    Санёк Шейфер ответил:

    её макс энэргопотребление 183 Вт

  26. 26
    Алексей Разгильдеев ответил:

    Помогите пожалуйста определиться или посоветуйте что-нибудь. Хочу к середине весны сменить видюху, но не знаю что выбрать, Radeon 4870 x2 или GeForce 285.А может вообще подождать GeForce 295, но это опять таки будет очень дорого. Наверно еще придется сменить БП. Бюджет 16-17к рублей.
    Сейчас должны подешеветь Radeon 4870 x2, но говорят они глючные.
    Система http://vkontakte.ru/board.php?act=t&tid=13978095

  27. 27
    Сайген Умаров ответил:

    А есть ли вообще смысл пока менять HD 4870, не уже ли не хватает?

  28. 28
    Николай Сосновиков ответил:

    Александр #St.PriSoneR# Шейфер, и плюс потребление остальной системы 300Вт как минимум.

    Алексей Rusted-Razor Разгильдеев, менять радеон 4870 на одну из этих – бессмысленное занятие.

  29. 29
    Сайген Умаров ответил:

    Если бы была Geforce MX440, то поменять в принципе можно а тут HD4870 :)

  30. 30
    Алексей Разгильдеев ответил:

    Т.е. смысла вообще нет ее менять, даже к лету? Прирост производительности будет минимальным? А то ГТА4 тормозит…
    Вообще, когда покупал 4870 мне советовали добавить 2к рублей и взять GTX 260. Я так понимаю, правильно советовали?

    Еще хотел спросить на счет своей материнки. Там 2 порта под видюхи и на коробке гордо красуется Cross Fire. Вот только второй порт всего 4х. Мне кажется что такой кросс вообще не эффективен и сделан только "чтобы было". Я прав?

  31. 31
    Николай Сосновиков ответил:

    >Я так понимаю, правильно советовали?
    Нет, неправильно, карты примерно равны по производительности, хотя в шейдерной дури 4870 намного мощнее.

    >Мне кажется что такой кросс вообще не эффективен и сделан только "чтобы было". Я прав?
    Нет, неправ.

    Какие настройки-то выставляешь в игре? :)

  32. 32
    Юра Соколов ответил:

    > хотя в шейдерной дури 4870 намного мощнее.
    Во многих тестах 4870 впереди в некоторых довольно существенно.

    ГТА4 на максе ни на одной системе супер быстро не летает даже на хай энд. У меня на средних настройках если мерить фрапсом ФПС 20-35 в среднем, в помещении до 50 доходит. Это просто следствие недооптимизированности порта)

  33. 33
    Алексей Разгильдеев ответил:

    Мда, я весь не прав :)
    Настройки В гта4 до упора. На настройках выше средних почему то тормозит, а на максимальных пошустрее бегает. Наверно глюки.

    У GTX260 оперативы только вот побольше, что собственно сказалось бы в лучшую сторону при моем разрешении экрана.

    А про кросс, почему не прав? Там ведь пропускная способность в 4 раза меньше будет у второй видеокарты. работать будет на х4 всего. В моей системе две 4870 точно не будут равны одной 4870х2 воткнутой в порт х16.

  34. 34
    Николай Сосновиков ответил:

    Алексей Rusted-Razor Разгильдеев, пропускная способность шины PCI-E почти никак не сказывается на производительности в играх.
    В разрешении 1680х1050 512 мегабайт видеопамяти достаточно для любой игры.
    Если бы у вас было 2560х1600 и мультисемплинг х8, тогда можно было бы ещё что-то говорить про нехватку видеопамяти.
    А тормозит она из-за того что настройки поставлены значительно более убийственные для железа, чем на приставках, на которых кстати выше 20fps GTA 4 и не идёт…

  35. 35
    Алексей Разгильдеев ответил:

    Ладно разубедили ))
    Спасибо за информацию!!
    Но всетаки памяти можно было побольше, чтоб сглаживание работало не на 5 кадров.
    А будет смысл вторую 4870 поставить?

  36. 36
    Сайген Умаров ответил:

    Есть денюжка бери, потом обязательно расскажи как работает, а то может и себе поставлю вторую HD4870. Только по возможности бери точно такую же:)

  37. 37
    Алексей Разгильдеев ответил:

    Погуглив про PCI-E x16 + PCI-E x4, был расстроен… полностью потенциал видюхи не раскроют, а кушать питания будут в 2 раза больше. Логичнее было бы взять Одну 4870 х2 или подобную по мощности карточку. Дело только за количеством рублебабок… а их пока не много и при сегодняшних ценахкак раз на пол 4870х2 :)

  38. 38
    Юра Соколов ответил:

    Алексей Rusted-Razor Разгильдеев
    Кушать питания будут столько сколько надо видюхе) Сама по себе шина питания не кушает. Кстати новый GTX295 вроде существенно помощнее 4870х2) Да и вообще лучше подождать когда кризис пройдет а то у нас к примеру после кризиса цены феноменально на комплектуху возросли.

  39. 39
    Андрей Спичаков ответил:

    Народ, понимаю что слегка оффтоп, но всё же…))
    Помогите, пожалуйста разобраться в конфигурации.
    Проц C2D E8400 – 3Ghz
    Мать: Меня терзают смутные сомнения)) чипсет P45 или P4З, какой лучше производитель, конкретная модель…
    Память: 2×2Gb DDR2 800 – предпочтительный производитель?
    Видео:вариант 1. GF9800GT 512Mb – стоит ли брать Manli, Zotac, Palit и т.п.?
    Вар. 2: Radeon HD4850 512-1024Mb – то же есть вопрос с производителем.
    Винт: 500Gb – чей лучше взять?
    Корпус: ??? бп какой лучше, стоит ли брать что-типа Huntkey?
    Компьютер, как вы уже догадались, в основном для игр.
    Бюджет на системник – максимум 800$
    Спасибо.

  40. 40
    Юра Соколов ответил:

    Андрей RocknRolla Спичаков
    память бери OCZ там вроде тайминги неплохие и дешевая. У моего друга такая. Видео лучше 9800GT Palit. Хард советую WD. Они вроде самые холодные по моим наблюдениям. Бп бери FSP ватт на 500, они хорошие и недорогие. Корпус это личные предпочтения. Насчет мамки вот не уверен, но я бы скорее всего взял Gigabyte вероятно на p43

  41. 41
    Андрей Спичаков ответил:

    Спасибо за инфу

  42. 42
    Юра Соколов ответил:

    не за что)

  43. 43
    Ильдар Гатауллин ответил:

    Хотел бы подобрать себе видюху…вот характеристики компа: Pentium 4 3.0Ghz, материнка epox 4pda3( AGP 8x, 1.5v, DDR DIMM), оперативка 512mb…

  44. 44
    Ильдар Гатауллин ответил:

    цена примерно до 4000р

  45. 45
    Санёк Шейфер ответил:

    на АГП видюшек очень мало и те дороже своих аналогов под ПСИ на 800-1000р!У тебя есть скудный выбор между радеончиками…..3550 или 3650 можно взять…..Но я бы посоветовал денег зря не тратить,а поднакопить и обновить систему)

  46. 46
    Юра Соколов ответил:

    я бы тоже порекомендовал поднакопить. а насчет выбора АГПшной видяхи Александр правильно сказал. 3650 все таки по соотношению цена производительность очень неплохая. ну или можно взять что нить типа 2600ХТ они примерно одинаковые по скорости.

  47. 47
    Николай Сосновиков ответил:

    Есть ещё и 3850 на любимом одним товарищем rv670 ))))

  48. 48
    Санёк Шейфер ответил:

    у меня в городе он за 5500 р,поетому я его отсеял…)

  49. 49
    Юра Соколов ответил:

    так то да только вот вряд ли ее потенциал на такой системе раскроется…

  50. 50
    Ильдар Гатауллин ответил:

    фишка в том что у меня есть знакомый который со склада мне продаст по заводской цене, а вообще я конечно хотел бы видюху от Geforce, а за совет спасибо, возьму на вооружение)))

  51. 51
    Ильдар Гатауллин ответил:

    Просто появился Warhammer Dawn of War 2, поэтому я начал об этом размышлять))

  52. 52
    Сайген Умаров ответил:

    Geforce можно 7800GS но она сейчас вряд ли кого нибудь устроит:)

  53. 53
    Dennis Watanabe ответил:

    Про RV670 вспомнили )))
    кстати, на днях я видел в деле FireStream 9170 и догнал наконец-то для чего она!
    В общем ее дурь на взлом пароля учетной записи висты бросили . . . Там вроде пасс был такого типа : 8@Fa<, так она с этим справилась за 27 часов, а 4х ядерный Core 2 Extreme QX9770 к моему появлению уже 3й день ломал . . .
    Короче – процам кранты, ВИДЮХИ РУЛЯТ!

  54. 54
    Dennis Watanabe ответил:

    А, кстати, а как купить GTX 295 производства самой Nvidia, а не посредников?

  55. 55
    Юра Соколов ответил:

    Dennis Watanabe
    Ну про потоковые вычисления выполняемые видеокартами это ты Америку не открыл)Вспомни тот же CUDA. Да и физику видеокарты быстрее просчитывают.

  56. 56
    Павел Агафодоров ответил:

    Хотел бы купить себе видюху, вот на такой комп: amd athlon 64×2 4200+, asusm2n32 sli deluxe (2 pci x16), оперативки 1гиг

  57. 57
    Dennis Watanabe ответил:

    Бери GTX 295

  58. 58
    Юра Соколов ответил:

    Dennis Watanabe
    Ну что вы тут ерунду городите! Для такого проца самый максимум 8800GT и то если проц разогнать хорошенько.
    Павел Агафодоров
    У меня точно такой же проц только несколько разогнанный. Он даже потенциал моей 9600GT не всегда раскрывает. Я бы вам рекомендовал или 9600GT или 8800GT или Radeon 3850/3870. Мощнее них смысла нет покупать на такую систему потому что ограничивающим фактором будет мощность процессора и прибавки в скорости вы не увидите.

  59. 59
    Санёк Шейфер ответил:

    Денис ваще не в тему городит…..

  60. 60
    Юра Соколов ответил:

    Это точно… рекомендовать для такой системы видяху стоящую в 3 раза дороже чем весь остальной комп…

  61. 61
    Сайген Умаров ответил:

    Пусть тогда профессиональную возьмёт Quadro FX 5600 :)

  62. 62
    Санёк Шейфер ответил:

    )))))))))))))Сайген жжжжжёт)))))))))))))))))))

  63. 63
    Сайген Умаров ответил:

    Сань это из серии продай всё нах.й и купи её))))))

  64. 64
    Dennis Watanabe ответил:

    А нафиг брать под то что есть сегодня, если будет еще и завтра?!
    Шире нужно рассуждать . . .

  65. 65
    Dennis Watanabe ответил:

    Сайген, ))) брать Quadro FX, котороя в 4 раза дороже GTX 295, котороя в свою очередь дороже его компа еще в 4 раза . . .
    )))) видюха дороже всего компа в 8 раз будет . . .

  66. 66
    Сайген Умаров ответил:

    Зато это очень круто будет)))))))

  67. 67
    Юра Соколов ответил:

    Да посмеялся от души XDD сарказм сарказмом но я вот хай эндовые видяхи себе никогда не брал и брать не буду) потому что они свою стоимость не оправдывают)
    Dennis Watanabe
    и вопрос был про видеокарту для конкретного компа а GTX 295 брать для него это полный бред.
    Шире можно рассуждать если у тебя денег куры не клюют

  68. 68
    Dennis Watanabe ответил:

    Сайген, будет как у моего кента : 4й пень, 512 RAM и 8600 GTS

  69. 69
    Dennis Watanabe ответил:

    Hi-end, это конечно, неплохо – там всегда самые-самые. Самые сильные, крутые и т д. Но вот они дорогие очень, за это их и не любят . . .
    >>>
    Но и брать из середины смысла мало . ,hi-endвсегда будет диктовать условия всем осталрным

  70. 70
    Юра Соколов ответил:

    Dennis Watanabe
    См. выше
    Шире можно рассуждать если у тебя денег куры не клюют.
    Для меня миддл энд видяхи самый оптимум ну или что то среднее между миддл и хай. То что хай энд дорогие это понятно только вот они непропорционально дорогие вот что плохо

  71. 71
    Сайген Умаров ответил:

    У меня допустим HD 4870, и я оч рад. Хотя и предыдущая Х1650PRO 512Mb тоже была не плохой))))))))))
    Тем более брать себе домой видеокарту уровня Quadro FX 5600, это идиотизм. Если она в играх проеб.т даже моей немощной карте))))

  72. 72
    Dennis Watanabe ответил:

    Ну не знаю . . . Я вообще не волнуюсь на счет своих видюх, зная, что они еще не скоро состарятся . . .

  73. 73
    Dennis Watanabe ответил:

    Сайген, купи себе 2 HD 4870 X2 для CrossFire X

  74. 74
    Dennis Watanabe ответил:

    Будешь кайфовать . . .

  75. 75
    Юра Соколов ответил:

    Сайген Умаров
    У 4870 хорошее соотношение цена производительность не спорю))))
    Dennis Watanabe
    В чем же кайф? Производительность 4870х2 и 4870 отличаются в реальных приложениях максимум процентов на 30-40 а в цене разница большая. Большое преимущество будет только в разрешениях 1920х1200 и выше

  76. 76
    Сайген Умаров ответил:

    Я буду аху.вать за свет платить, тем более нах вторая нужна у меня вроде и так всё тянет без особых проблем)

  77. 77
    Dennis Watanabe ответил:

    Тот-же вопрос :
    1.Нах мне профессиональная карта
    2.Тем более нах в режиме SLI
    На счет света : да, мой киловатовый БП офигеть как энергию хавает, да еще и с 2мя Квадрами . . .

  78. 78
    Юра Соколов ответил:

    Dennis Watanabe
    Кстати выложи пожалуйста скрины конфигурации твоей системы. А то правда не верится что у тебя комп за 250000 рублей) А также результаты тестов. А то без скринов все твои так называемые понты недействительны)

  79. 79
    Dennis Watanabe ответил:

    1.Как снимать скрины?
    2.3DMARK'06
    1280*1024
    без SLI : 21225
    с SLI : 38713

  80. 80
    Юра Соколов ответил:

    скрины снимать можно обычным Print Screen)))) Потом вставляешь в пейнт или фотошоп и сохраняешь в JPG. Да и результаты тестов тоже скрины снимай

  81. 81
    Павел Марченко ответил:

    Вот хочу разогнать свою видюху- GForce 7300 GT. Кто сможет рассказать как это сделать доходчивым языком ?

  82. 82
    Юра Соколов ответил:

    устанавливаешь Riva Tuner там есть функция разгона. Вот перемещаешь ползунки частоты ядра и памяти. Там ничего сложного нет, главное не переборщить)

  83. 83
    Санёк Шейфер ответил:

    Для начала нужно скачать любую нормальную утилиту для разгона видюхи))Лично я советую Riva Tuner 2.24
    http://www.nvworld.ru/docs/rt.html

  84. 84
    Николай Сосновиков ответил:

    В мощной видеокарте всегда есть смысл :)
    Смотря какой монитор, правда :)

  85. 85
    Андрей Спичаков ответил:

    Господа, ваше мнение о Palit GeForce 9800GT 1024mb.
    Кстати, сильно она отстаёт от HD4850?

  86. 86
    Юра Соколов ответил:

    Хорошая карта. Тихая и холодная. От 4850 отстает довольно незначительно. Разгоняется хорошо. Вот результаты разгона взятые с сайта
    По ядру 770Mhz.
    По памяти 2280Mhz.

  87. 87
    Андрей Спичаков ответил:

    Спасибо за информацию, буду пробовать.
    Не повезло мне с матерью – Gigabyte DS3L на p45…))

  88. 88
    Юра Соколов ответил:

    а что с ней не так? я когда в Санрайзе работал они хорошо расходились

  89. 89
    Dennis Watanabe ответил:

    У меня 2 вопроса :
    1.Чем отличаются Direct X и Open GL?
    2.Можло-ли проводить потоковые вычисления на G84
    *зараее спасибо

  90. 90
    Юра Соколов ответил:

    Dennis Watanabe
    1) На эту тему Николай Сосновиков дал развернутый ответ в начале этого обсуждения
    2) Можно
    3) Зачем тебе G84? у тебя же FX 5600 Quadro))))

  91. 91
    Dennis Watanabe ответил:

    ))) накрылось дело, в той фирме все доделали, теперь не видать мне их . . . (((

  92. 92
    Dennis Watanabe ответил:

    Спс, буду читать

  93. 93
    Dennis Watanabe ответил:

    Николай, у меня вот такая мысль :
    если я пишу свою игру без использования GAPI, а программирую GPU на прямую, то значит я могу намертво привязать игру к определенному GPU ?

  94. 94
    Николай Сосновиков ответил:

    Dennis Watanabe, ну типа того )))
    Только это наверно не "могу", а "вынужден".
    Можно и с использованием GAPI привязать прогу к определённой видеокарте.

  95. 95
    Dennis Watanabe ответил:

    ))) во тема! NFS 16 only for Nvidia GeForce GTX500 )))

  96. 96
    Николай Сосновиков ответил:

    Подумай примерно, сколько людей купит игру с такими требованиями.

  97. 97
    Dennis Watanabe ответил:

    Думаю не очень много)))
    это как я (вместе со всей ax25 inc.) Generals Reloaded Fire 2 (наш мод) привязали к StarForce'у
    пиратскую гамесу защитили этой мутью )))

  98. 98
    Dennis Watanabe ответил:

    Что такое пиксельные/вертексные шейдеры?

  99. 99
    Сайген Умаров ответил:

    Изначально, с седых времён 3dfx Voodoo (ныне компания обанкротилась), то есть с появлением видеоакселераторов на рынке, они умели только накладывать текстуры на треугольники. И всё. Не было ни фильтрации, ни мультитекстурирования, даже освещение текстур приходилось рассчитывать с помощью центрального процессора. А мощности центрального процессора всегда не хватает, поэтому сначала фильтрацию, а затем и освещение переложили на многострадальные видеопроцессоры. Однако такое освещение, какое умели делать первые карты, оснащённые такой возможностью, было предельно простым. Поскольку треугольник – фигура плоская, то и освещён он одинаково. А то, что источники света чаще всего точечные, тихо замалчивалось. Первой пролила свет на тайну освещения фирма 3dfx, тогдашний лидер индустрии. Её метод, названный Dot Product, реализован и в современных картах, однако считается устаревшим. Гораздо более продвинутую модель освещения представила фирма Matrox.
    Метод, получивший длинное название Environment Mapping Bump Mapping, или сокращённо EMBM, состоит из двух частей – Environment Mapping (EM, карты окружения) и Bump Mapping (BM, карты выпуклостей) соответственно. EM заключается в том, что на тексель, кроме стандартной текстуры, накладывается ещё одна, взятая откуда-то с другого треугольника. Таким методом формируются отражения. BM же представляет собой хитрый метод повышения детализации картинки. К стандартной текстуре прибавляется т.н. текстура глубины. В соответствии с тем, как освещён треугольник, выпуклости преобразуются в более светлые, а впадины в более тёмные участки. При этом (внимание!) треугольник остаётся плоским, а нам кажется, что он весь испещрен впадинками и холмиками. С помощью EMBM очень хорошо рисовать волнующуюся воду. Недостаток у метода, к сожалению есть, а именно – видеокарты NVIDIA не поддерживают BM, а EM выполняется с помощью T&L, о котором позже.
    Проблема заключается в том, что для полноценной реализации метода необходимо накладывать три текстуры на такт (основа, отражения и освещения). У Radeon`ов есть три полноценных текстурных блока, и у Radeon 8500, а также у Matrox G400 третий , хотя и немного неполноценный, тоже есть, в то же время у карт NVIDIA традиционно два блока текстурирования – три текстуры вызовут значительное падение производительности. Неполноценность третьего текстурного блока у Radeon и Matrox заключается в том, что он может работать только с данными об освещении, идущими из блока EMBM, а не из памяти. На Radeon 8500 этот блок может также накапливать значения текстур, выдавая одну текстуру за 3 такта, хитрым образом экономя время при тройном текстурировании. На видеокартах GeForce3 появилась возможность эмуляции BM с помощью шейдеров, о которых также ниже.

  100. 100
    Сайген Умаров ответил:

    T&L, Transforming & Lighting, трансформация и освещение – впервые появился в GeForce256. Это отдельный блок, занимающийся, как ни странно, трансформацией и освещением.
    Начнём с освещения – блок T&L получает от программы вместе с данными о треугольниках, данные об источниках света. И далее сам, без ансамбля, рассчитывает освещение каждого треугольника, учитывая игру света и тени. Т.е. тени он тоже сам рассчитывает! После такого процессор может вздохнуть спокойно. Однако, основным недостатком T&L до сих пор было то, что он был менее производителен, чем конвейер растеризации. Более того, при расчете каждого источника света, сцену приходилось перестраивать заново, в результате чего программы даже немного притормаживали. В GeForce2 T&L был усилен. На сегодняшний день блок T&L, в силу его неоспоримых достоинств, является стандартом и присутствует в любой современной видеокарте.

    Под трансформацией понимается изменение (морфинг) вершин треугольников. Т.е. многострадальный блок T&L, получив координаты треугольников и координаты, куда эти треугольники засунуть, выполнял означенную операцию сам. Программисты после этого вконец обленились. Естественно, ведь большую часть работы выполняет видеокарта! Кстати, именно после введения в обиход блока T&L, чипы на картах стали гордо именоваться GPU.

    Но неугомонная фирма NVIDIA не дремала. После выхода в свет спецификации на T&L, она придумала пойти ещё дальше, в дебри профессиональных ускорителей – там она отыскала замечательную штуку, которую тут же реализовала в подвернувшемся чипе нового поколения (GeForce2). Штука называется шейдером. Надо сказать, что реализация оказалась неудачной по вине производителя одной очень популярной операционной системы. Эта самая ОС наотрез отказалась работать с шейдерами в GeForce2. С появившимися в Radeon, правда, тоже. После уточнения спецификаций и жарких споров, поддержка оных (шейдеров, а не споров) была всё-таки включена в систему. Зато теперь шейдеры от ATi и от NVIDIA совпадают. Так что можете забыть о том, что они есть в GeForce2 и первых Radeon – шейдеры впервые появились только в GeForce3 и Radeon 8500.

    Так что это за штука такая, шейдеры, что стала яблоком раздора и проблемой совместимости? Это мощнейшее средство для повышения реалистичности изображения – оно состоит в том, что программист может самостоятельно определить (на языке, похожем на ассемблер), как освещать треугольник. Дело в том, что нарисовать, например, волосы, проблемы не составляет, поскольку такое число треугольников ни у кого уже не вызывает шока, однако осветить правильно каждый волосок (треугольник) – вот это уже большая задача. Именно появление шейдеров позволило программистам NVIDIA нарисовать в своей демке огромное волосатое чудище, а программистам ATi – не менее волосатого медведя.

    Шейдеры бывают двух видов – вершинные и пиксельные. Отличаются они тем, что вершинные определяют освещенность точки на треугольнике, в зависимости от положения её относительно вершин. Пиксельные же позволяют управлять освещением каждого пикселя по отдельности. Вершинные шейдеры могут эмулироваться программно. Пиксельные же нет, зато они сами могут эмулировать бэмп-мэппинг или что-то ещё. С появлением шейдеров GPU чаще стали называть VPU.

  101. 101
    Андрей Спичаков ответил:

    Юра Sid Vicious Соколов, насчёт DS3L – да она младшая в линейке, урезанная по самое "не могу".

  102. 102
    Юра Соколов ответил:

    ну так она и подешевле) вероятно поэтому и брали хорошо)

  103. 103
    Николай Сосновиков ответил:

    Сайген Умаров, умоляю, не надо постить такую херню. И лучше просто дать ссылку на сайт, откуда это берётся.
    Всё на самом деле намного проще и немного по-другому.
    Корни лежат в OpenGL, в который были встроены такие вещи, как освещение (по вершинам), работа с матрицами модели и проекции.
    Программистам ничего не нужно было делать, пока не было блока TnL, GAPI всё мог делать за них.
    Другое дело что в играх TnL нигде не применялся, но зато он применялся в пакетах 3д-моделирования. И если вы запустите 3dsmax, то во viewport увидите то, на что способен TnL, то есть освещение по вершинам + проекция.
    Если блока аппаратного TnL не было, то GAPI выполняет его на процессоре.
    А потом появились шейдеры – это программы низкого уровня, в которых программист может решать что будет происходить с вершинами.
    Версия шейдера указывает на возможности, которые предоставляются программисту при этом: число переменных, количество интерполируемых по треугольнику переменных, число задействованных регистров, возможные встроенные функции, количество текстурных семплеров, максимальное количество инструкций и так далее.
    На всех картах с вершинными шейдерами блока TnL нет и его функционал выполняется на шейдерах, при этом если программист не указывает никаких шейдеров, то используется FFP (fixed function pipeline), то есть получается функционал того самого TnL.
    Но в играх вершинные шейдеры обычно погоду не делают, в основном все пляски с пиксельной программой (пиксельным шейдером).
    До того как появилась возможность писать пиксельные шейдеры, также был FFP, а именно текстурирование (линейная, билинейная, анизотропная фильтрация – всё это было), мультитекстурирование, некие ещё прибамбасы типа envmap_dot и прочей бредятины.
    Вот если посмотреть на игры 90-х годов (да и многие современные, например игры на Source Engine), то динамического освещения (и уж тем более теней) там не было. Всё освещение делалось с помощью lightmap – предрассчитанных текстур с записанной в них информацией об освещении.
    И возможность реализовать это появилась ещё на той самой 3dfx. Уж само собой, что все последующие карты также позволяли делать мультитекстурирование.
    А потом уже, когда появились пиксельные шейдеры, стало возможным сделать динамическое освещение (то есть рассчитывать освещение прямо на ходу для каждого пикселя) и первой такой игрой стал Doom3. По сути со времён Doom3 мы топчемся на месте, изменился лишь подход по созданию теней: вместо shadow volume более популярным стали shadowmap (потому что они меньше грузят процессор и в целом проще), а также набрал обороты deffered shading (в таких движках как Unreal Engine и STALKER).
    Никаких откровений за последние годы не появилось, хотя при этом технологии усложнились кардинально.

  104. 104
    Сайген Умаров ответил:

    Ну раз мы такие умные Николай SNVampyre Сосновиковтогда поясни мальчику который интересуется шейдерами по подробнее, и по твоему то что я написал чёс?????????

  105. 105
    Dennis Watanabe ответил:

    НИХ себе! А ссылку на материал дать не легче?! ))))

  106. 106
    Юра Соколов ответил:

    Господа давайте не будем общаться на повышенных тонах)

  107. 107
    Dennis Watanabe ответил:

    АГА! Давайте жить ДРУЖНО! )))

  108. 108
    Николай Сосновиков ответил:

    Сайген Умаров, ну я вроде пояснил.
    Что не понятно из того что я написал?
    В том что ты выложил куча фактических ошибок и просто казусных ляп.

  109. 109
    Dennis Watanabe ответил:

    Спасибо за объяснение

  110. 110
    Николай Сосновиков ответил:

    Вот кстати, в Direct3D 10 и в OpenGL 3.0 всё делается исключетельно на шейдерах.
    FFP оттуда убрали совсем.
    И правильно что убрали, так как его всё равно никто уже давно не использует.
    Шейдеры заменяют основные части графического конвейера:
    1) в начале идут вершинные шейдеры – они заменяют TnL, то есть позволяют работать с вершинами (обычно это преобразование координат, в том числе скелетная анимация)
    2) далее вступает в силу аппаратный блок сборки треугольников, который собирает треугольники из вершин, определяет пиксели под заливку, интерполирует по этим пикселям данные переданные из вершинного шейдера во фрагментный. Сборка треугольников по сути не изменилась ещё со времён первых Radeon и GeForce, может обрабатывать по треугольнику за такт, то есть если частота чипа 750 MHz, то максимально можно выводить по 750 милионов треугольников в секунду, что иногда становится ограничивающим фактором, поэтому в будущем сборкой треугольников также займутся шейдерные процессоры.
    3) После того как определены пиксели под закраску, пиксели обрабатываются фрагментным (пиксельным) шейдером. В нём может происходить очень много всего, хотя часто он сводится к ничего не деланию (если рисуем в глубину, например).
    4) Дальше идёт фиксированный конвейер, которым заправляют растеризационные процессоры. Они могут делать смешивание цветов, тест трафарета и глубины.

    Кстати, пункты 3 и 4 могут меняться местами, если доступен ранний тест глубины (в принципе он сейчас везде доступен).
    Если работает геометрический шейдер, то он работает после вершинного, в нём уже можно генерировать треугольники, после чего, правда, всё равно работает сборка треугольников.
    Причём если включен transform feedback, то после геометрического шейдера ковейер завершается – вычисленные вершины записываются в память…
    И если почитать про архитектуру r600, то становится понятно, почему они сделали именно так.

    Вообще, кстати, обычно от момента подачи вершин на обработку вершинным шейдером и до момента когда треугольники уже отрисованы, проходят сотни тысяч тактов (!), это я чтобы понятно было, что за машина такая эти GPU. То есть огромная производительность и вместе с тем жуткая латентность.

  111. 111
    Андрей Спичаков ответил:

    Господа, сложилась следующая ситуация. Купил комп с Palit 9800Gt 1024mb, ,блок питания: вроде бы Atlant на 500 вт.
    Идентифицировать БП немогу так как корпус опечатан гарантией.
    Возникла следующая проблема: при игре в Mass Effect изображение зачастую останавливается секунд на 20-30, иногда
    до перезагрузки. В СaLL of Duty 4 такого не наблюдалось,вUndercover вроде бы тоже.
    P.S.: Можно ли определить мощность блока питания, допустим, программными средствами?
    Спасибо.

  112. 112
    Ильдар Гатауллин ответил:

    Народпомогите… Купил себе новую видюху AGP Ati Radeon 1650 pro, удалил драйвера прежней видеокарты, сменил на новую видеокарту,а когда запускаю комп, то материнка начинает пищать о помощи))) чё за х…я, объсните плиз???

  113. 113
    Илья Кондратьев ответил:

    Ильдар -=G-man=- Гатауллин, какой блок питания, на сколько Вт?

  114. 114
    Илья Кондратьев ответил:

    Андрей RocknRolla Спичаков, 500Вт для 9800Gt должно хватать…попробуй драйвера посвежее поставить

  115. 115
    Ильдар Гатауллин ответил:

    я не знаю как определить, на самом БП ничего не написано

  116. 116
    Санёк Шейфер ответил:

    сколько раз пищщит?(коротких и длинных)

  117. 117
    Ильдар Гатауллин ответил:

    я оказывается случайно задел оперативную плату и поэтому пищало, но система так и не запустилась, у меня прежняя видюха была Asus radeon a9600xt, материнка epox 4pda3i.

  118. 118
    Юра Соколов ответил:

    попробуй видяху получше воткнуть, у меня был похожий глюк когда я ее не до конца вставил

  119. 119
    Юра Соколов ответил:

    Еще посмотри не требует ли она внешнего питания, ей может не хватать питания по шине AGP

  120. 120
    Ильдар Гатауллин ответил:

    а как это проверить, да и кабеля мне вроде никаого для этого не выдавали

  121. 121
    Юра Соколов ответил:

    Ну вероятно все таки не требует) Если ей надо доп питание то был бы разъем на доп питание на карте

  122. 122
    Ильдар Гатауллин ответил:

    S-video,15-пиновый коннектор D-Sub, DVI-I

  123. 123
    Ильдар Гатауллин ответил:

    купил видюху, думал насладиться красивой графикой в играх, обламался(((((

  124. 124
    Юра Соколов ответил:

    попробуй получше воткнуть)

  125. 125
    Ильдар Гатауллин ответил:

    вот тока что пробовал, тоже самое, на материнке высвечивается число 25

  126. 126
    Юра Соколов ответил:

    В основном причина этого пост кода в том что мост PCI-E – AGP сдох, так что вероятно дело в видяхе. Неси в сервис центр

  127. 127
    Ильдар Гатауллин ответил:

    тоесть видюха сгорела? или же agp вход?

  128. 128
    Юра Соколов ответил:

    Мост PCI-E – AGP на видеокарте

  129. 129
    Николай Сосновиков ответил:

    Ильдар -=G-man=- Гатауллин, я не понял, ты купил Radeon 9600 XT для компа с PCI-e???
    Ты в курсе что этой карте 5 лет и как бы современной графикой ты на ней не насладишься, потому что современные карты примерно в 80 раз мощнее? )

  130. 130
    Dennis Watanabe ответил:

    Radeon 9600 XT?! Да на ней даже кризис пахать не будет, как и все, где нужны шейдеры 3.0
    А нафиг было такую древность брать?!

  131. 131
    Юра Соколов ответил:

    >А нафиг было такую древность брать?!
    У всех людей разные финансовые возможности.
    Николай SNVampyre Сосновиков
    Он же написал какая у него мамка) На ней PCI-E нету)

    И вообще вопрос не про 9600XT а про x1650pro

  132. 132
    Сайген Умаров ответил:

    Dennis Watanabe не чё подобного, у меня первая видюха былаRadeon 9600 Pro 128Mb, и кризис на ней шёл нормально, правда на полном минимуме:)

  133. 133
    Юра Соколов ответил:

    когда у меня 9600pro был Крайзиса еще не было)))) Just Cause отлично пахал на максимуме)

  134. 134
    Dennis Watanabe ответил:

    На X700 Pro кризис тож не пахал

  135. 135
    Dennis Watanabe ответил:

    Финансовые возможности разные, но не стоит же брать карту из класса trash-end!

  136. 136
    Dennis Watanabe ответил:

    AMD Radeon HD3850 AGP как вариант )))

  137. 137
    Dennis Watanabe ответил:

    Я прошел NFS Most Wanted на GeForce 3

  138. 138
    Ильдар Гатауллин ответил:

    Нет люди вы не правильно поняли, у меня AGP вход на материнке, старая видюху у меня 9600XT а ноая 1650 pro, я же не такой лошара чтоб братьна столько древние артефакты))))

  139. 139
    Юра Соколов ответил:

    Ильдар -=G-man=- Гатауллин
    Да я уже объяснил что вопрос не про 9600XT)
    Dennis Watanabe
    Ты понимаешь что 3850 AGP стоит в 3 раза дороже чем x1650pro? Если человек стеснен в финансовых средствах то приходится брать то на что хватает денег и то что есть в наличии. Да и чего ты прицепился к этому Крайзису?)))) Игруха-то средненькая))))

  140. 140
    Ильдар Гатауллин ответил:

    короче пойду менять на другую ( нет так нет, на нет и суда нет)

  141. 141
    Dennis Watanabe ответил:

    Кразис как игра – так себе, а как бенчмарк – это тема!

  142. 142
    Ильдар Гатауллин ответил:

    Всё народ спасибо за помощь!!! Я воткнул доп. питание и пошло поехало… =D

  143. 143
    Юра Соколов ответил:

    да не за что) я правда думал что для x1650pro доп питание не требуется) порекомендовал на всякий случай)

  144. 144
    Dennis Watanabe ответил:

    Если есть разъем под питание – ЗНАЧИТ НАДО!
    Я даже не думал, надо/ненадо, когда втыкал 6ти пиновый коннектор в свою 8600 GTS

  145. 145
    Юра Соколов ответил:

    Dennis Watanabe
    так дело в том что я не знал есть там разъем или нет) у меня была x1650pro под PCI-E и там доп питание не требовалось. другое дело что по PCI-E 75 ватт может подаваться а по AGP 45 ватт. Ты думаешь ты щас что-то умное или полезное сказал?))))

  146. 146
    Юра Соколов ответил:

    К тому же если видяхе требуется доп питание то в комплекте идет переходник, а у него переходника не было

  147. 147
    Dennis Watanabe ответил:

    Хм…
    А мы со знакомым так делали :
    1.купили б/п на 400W
    2.Из разъема ATX-24пилой делали 2 разъема под питание видюхи

    + видюха имеет свой собственный б/п
    - нужно размещать еще один б/п и кашу из проводов в корпусе

    >А так до сих пор работает

  148. 148
    Юра Соколов ответил:

    Супер! А вы не пробовали отдельно к автомобилю еще пару колес подкупить "чтоб лучше ездил"? XDDDD

  149. 149
    Dennis Watanabe ответил:

    Не! У нас тачки нет!
    Бывают-же блоки питания для видюшек! ))) сам видел, но платить $30 за это не в наших привычках!
    HANDMADE 4ever!

  150. 150
    Юра Соколов ответил:

    Я полагаю вам блок питания на 400 Ватт обошелся дешевле чем в 750 рублей? XDDDDD

  151. 151
    Dennis Watanabe ответил:

    700р ))) и все работает

  152. 152
    Dennis Watanabe ответил:

    А как мы 6600GT насиловали под разъем PCI-E x8 )))

  153. 153
    Юра Соколов ответил:

    >но платить $30 за это не в наших привычках!
    а платить 28$ это видимо в ваших привычках)))) да еще всякой фигней потом заниматься чтоб к видяхе его присобачить XDDDD

    Мда… я чот фигею с нашей молодежи… Занимаются какой-то бессмыслицей…

  154. 154
    Ильдар Гатауллин ответил:

    Тестировал видюху на Unreal Tournament 3, вообще зашибенно)))

  155. 155
    Юра Соколов ответил:

    Ильдар -=G-man=- Гатауллин
    У тебя кстати какая там память стоит DDR2 или DDR3? Я помню в свое время прогнал взял x1650pro на DDR2 потом жалел… получилась разница в ПСП больше чем в полтора раза

  156. 156
    Ильдар Гатауллин ответил:

    а где это проверить можно?

  157. 157
    Юра Соколов ответил:

    на самой видяхе обычно пишут ну там что нить типа X1650Pro 256Mb DDR2 или DDR3 а ваще можно просто GPU-Z запустить. можешь отсюда скачать
    http://www.softportal.com/software-5916-gpu-z.html

  158. 158
    Ильдар Гатауллин ответил:

    кроче я узнал,что у меня тож DDR2, ноя не жалею, я раньше даже в Quake 4 не мог играть

  159. 159
    Юра Соколов ответил:

    а в UT3 на каких настройках играешь? на 2600ХТ он отлично шел но x1650pro слабее, поэтому и интересно, на каких настройках играешь

  160. 160
    Dennis Watanabe ответил:

    Современная молодежь офигительная! Мы делает такое…
    Охлаждение проца пивом, снятие теплораспределительной крышки с процев LGA 775 с помощью ножа, самопальные детали, извращение над комплектующими и жажда халявы! Разница в $2 обеспечила нас пивом! )))

  161. 161
    Юра Соколов ответил:

    А в итоге куча паленых процов, как ты сам говорил, куча паленых видях и.т.д… Афигеть халява)))) Я тебя вообще не пойму, то ты процы пачками жгешь, то из-за 50 рублей жмешься

  162. 162
    Dennis Watanabe ответил:

    5 дохлых видюх, 7 паленых процев, 12 планок памяти, 3 видюхи
    >Спасибо радителям за комплектующие! )))
    зато из нас выходят оверклокеры-экстремалы и инжинеры/программисты

  163. 163
    Dennis Watanabe ответил:

    Там ошибка :
    *3 видюхи с отрезаными разъемами дальше 12го контакта

  164. 164
    Юра Соколов ответил:

    >зато из нас выходят оверклокеры-экстремалы и инжинеры/программисты
    Или люди не знающие цену деньгам

  165. 165
    Dennis Watanabe ответил:

    Деньги – бумажки, за которые мы покупаем железо.
    И мы топовые железки не берем же )))

  166. 166
    Dennis Watanabe ответил:

    Для хохмы можно Quadro FX5800 SLI спалить!!! >300000 рублей ))))))))

  167. 167
    Юра Соколов ответил:

    что и требовалось доказать в посте #165 XDDDD
    ты попробуй повкалывать пару месяцев чтоб на одну видяху накопить даже не профессиональную так посмотрим скажешь ли ты что деньги – просто бумажки))))

  168. 168
    Dennis Watanabe ответил:

    А ты над компами не извращался? )))

  169. 169
    Юра Соколов ответил:

    Я все делал осторожно чтоб не дай Бог не спалить. Потому что знал что на новую комплектуху придется копить, работать и.тд

  170. 170
    Dennis Watanabe ответил:

    А я наоборот )))

  171. 171
    Юра Соколов ответил:

    И гордиться тут нечем. Это минус а не плюс

  172. 172
    Dennis Watanabe ответил:

    Я экстремал! Это не минус!

  173. 173
    Dennis Watanabe ответил:

    Я экстремал! Это не минус!
    А все началось с переустановки Windows 2000 SP4 Professional

  174. 174
    Юра Соколов ответил:

    То есть любой человек спаливший кучу комплектухи может считать себя экстрималом? Я считаю что это человек который упорно не хочет учиться на своих ошибках. Я тоже по молодости считал себя профессионалом, думал да чо я там не знаю, хотя был практически ноль в этом. Вот как то другу чуть комп не спалил, хорошо что троттлинг сработал. Потом я уже решил стать теоретически подкованным, читать литературу на эту тему, перестал зазнаваться и стал заниматься разгоном осторожно

  175. 175
    Dennis Watanabe ответил:

    Я читаю о разгоне и технические мануалы, но и практика необходима!
    Например я свой комп разогнал хорошо, кенту . . .
    А палим мы ради хохмы!

  176. 176
    Юра Соколов ответил:

    эх читал бы ты про это – столько бы глупостей не писал…

  177. 177
    Dennis Watanabe ответил:

    Например
    все что я писал я вычитывак в свое время

  178. 178
    Dennis Watanabe ответил:

    О Cell я офигительные статьи читал в журналах и инете, про видюхи – в журналах . . .

  179. 179
    Юра Соколов ответил:

    ну не пойду же я все твои ляпы по всем темам собирать) вычитывать одно а понимать – другое, к тому же информация постоянно обновляется

  180. 180
    Dennis Watanabe ответил:

    Ну ляпы у всех бывают, просто я давно не перечитывал многих статей.
    Сейчас вот хочу взяться за G84 и найти инфу о GTX300

  181. 181
    Юра Соколов ответил:

    вперед) и как я уже тебе писал, перед тем как что нибудь запостить хотя бы предварительно загугли чтоб не позориться

  182. 182
    Dennis Watanabe ответил:

    Спс.
    Скажи, а Google лучше чем Yandex?

  183. 183
    Николай Сосновиков ответил:

    Они не лучше, просто разные.
    Для поиска на русском яндекс лучше, для поиска на английском лучше гугл.

  184. 184
    Юра Соколов ответил:

    мне яндекс давно разонравился) не сказал бы что он лучше ищет хотя конечно дело вкуса)

  185. 185
    Dennis Watanabe ответил:

    Спс! Поисковики разные нужны, поисковики разные важны… ))))

  186. 186
    Dennis Watanabe ответил:

    Великие слова : "Век живи – век учись"

  187. 187
    Санёк Шейфер ответил:

    Dennis Watanabe
    оверклокер-экстремал>>>это не тот,кто бездумно сжигает своё железо,а тот,кто выжимает разгоном из него всё возможное.При этом железо стабильно может работать.Вот такой человек может называться экстремалом в оверклокинге.

  188. 188
    Юра Соколов ответил:

    +1)

  189. 189
    Dennis Watanabe ответил:

    Сжигая барахло, я научился разгонять нормальное железо так, чтобы кризис пахал по 8-9 часов без перерыва

  190. 190
    Санёк Шейфер ответил:

    а я ,ничего не сжигая,разогнал и он работает сутками)

  191. 191
    Dennis Watanabe ответил:

    И еще :
    самопальные водянки не испытаешь же на нормальном компе )))
    для испытаний всегда нужен лишний комп )))

  192. 192
    Dennis Watanabe ответил:

    У меня в NFS MWбаги . . .
    Изображение останавливается, иногда черный экран, а дальше все ок, до следующего глюка . . .
    И это только в Vista, пишет : "Видеодрайвер перестал отвечать и был восстановлен"
    Че делать? У кента на 8600 GTS та же беда . . . (((

  193. 193
    Санёк Шейфер ответил:

    это значит видеочип переразогнан.сбавь разгон.

  194. 194
    Dennis Watanabe ответил:

    Да один фиг, я занижал даже частоты

  195. 195
    Dennis Watanabe ответил:

    Че за Intel Larrabee ? Я где-то слышал/читал о этом, а что это за фигня не могу вспомнить

  196. 196
    Юра Соколов ответил:

    CPU и GPU в одном флаконе) Что то типа AMD Fusion
    http://ru.wikipedia.org/wiki/Intel_Larrabee

  197. 197
    Dennis Watanabe ответил:

    Спс

  198. 198
    Кирилл Труфанов ответил:

    Подскажите что выбрать:1)Nvidia Albatron 9600GT (512mb ddr3)Ret – за 2900руб.
    2)либо ATI Radeon HD 4830 PowerColor (512Мб DDR3) Ret- за 3330руб.

    конфиг: бп 450ватт FSP; mb GigaByte GA-MA78G-DS3H; AMD Athlon 64 X2 5200+ Windsor;

  199. 199
    Pavel Chepchurov ответил:

    4830 поновее с технологичной точки зрения, но 9600 вроде побыстрее, подумай что надо :) Я бы наверное 9600ГТ выбрал, но лучше бы подумал о накоплении еще хотя бы пары тыс, чтобы приобрести прилично лучшее

  200. 200
    Кирилл Труфанов ответил:

    9600gt слабее в Cryzis против 4830, но с 9600gt вMirrorEdge красивее играть будет!!! В этом вся проблема.

  201. 201
    Pavel Chepchurov ответил:

    Понимаешь в чём вопрос
    Есть такая политика, что фирмы изготавливающие видеокарты часто заранее договариваются с фирмами делающими игрушки, чтобы изначально эта игра была сделана под их видеокарту – технологии предоставляют, бабло на развитие и прочее, и от этого часто зависит какая игрушка на какой видеокарте пойдёт.
    Я говорил раньше, скажу и сейчас, НВИДИА лучше в режимах по умолчанию. РАДЕОН лучше в тяжёлых режимах (сглаживание, анизотропия и прочее), если судить по тому, что эти видеокарты принадлежат к низкому ценовому диапазону, выставлять анизотропию и прочее ты будешь навряд ли, так что я бы посоветовал НВИДИА + у них есть поддержка физикх, которая часто реализована в последних игрушках, в радеоне ничего похожего нет

  202. 202
    Pavel Chepchurov ответил:

    Посмотрел еще раз на всякий случай, у нвидии частота ядра выше, в остальном похожи, только 4830 изготовлена попозжее, поэтому технологии поддерживаются повыше на немного. Но я говорю, что в данном ценовом даипазоне навряд ли это пригодится. Советую посмотреть тесты, допустим с сайтов overclockers, THG, 3dnews, что-то типа, но искать по 4830, потому что 9600 это обычно стандарт для видюх этого ценового диапазона

  203. 203
    Кирилл Труфанов ответил:

    У hd4830 количество шейдерных процессоров больше!!!!

  204. 204
    Pavel Chepchurov ответил:

    Я тебе все объяснения дал, ты не будешь скорее всего ставить 8хАА 16хFF, так что для тебя данный параметр не актуален, а если ты уже определился, то зачем спрашивать

  205. 205
    Dennis Watanabe ответил:

    Как вообще можно играть без АА и АF x16 ?!

  206. 206
    Кирилл Труфанов ответил:

    А на сколько полезна технология NVIDIA CUDATM???

  207. 207
    Pavel Chepchurov ответил:

    каг бэ есть такая полезная весч как гугл, яндекс и прочее, если лениво открыть, скопировать и выбрать первую-вторую ссылку……

  208. 208
    Кирилл Труфанов ответил:

    Я читал но,мне нужны живые данные от пользователей этого а не сухие куски информации… Помогает или нет.

  209. 209
    Pavel Chepchurov ответил:

    Блин, что помогает?????? видеокарта берёт на себя часть вычислений, ту что раньше делал ТОЛЬКО процессор. Этим ты разгружаешь процессор, но нагружаешь видюху. следовательно должна быть достаточно мощная видеокарта и может быть не очень мощный процессор, вот и вся логика

  210. 210
    Кирилл Труфанов ответил:

    Спасибо.

  211. 211
    Black Death ответил:

    Господа, немного не по сабжу,но очень надо узнать: Как скопировать DVD защищенный от копирования?Пробовал создавать образ – образ то создался но не сам фильм не читается.

  212. 212
    Dennis Watanabe ответил:

    Google тебе в помощь ))))

  213. 213
    Павел Агафодоров ответил:

    незнаю куда написать. нужна помощь в апгрейде системы. если не сюда перенаправте если сюда то- сюда

  214. 214
    Женя Кочетов ответил:

    Че там апгреидить надо ?

  215. 215
    Dennis Watanabe ответил:

    вот имено, а можно более конкретно? Ну хотя-бы области применения и максимальный бюджет )))

  216. 216
    Павел Агафодоров ответил:

    надо видеокарта+бп бюджет 9т.р., сейчас проц просто amd x2 4800+ , а меняться система вся или кроме видюхи будет в середине июня начале июля

  217. 217
    Женя Кочетов ответил:

    Как я понял тебе в данный момент нужна видюха и бп и все это на 9тысяч. Я бы думаю взял две 9600гт и бп на 500-550 (сначало можно взять одну 9600,а летом купить мать с двумя PCIe x16 и поставить вторую 9600гт)

  218. 218
    Женя Кочетов ответил:

    Или 4870 возьми но думаю немного не уложишься в 9 тысяч если брать еще и хороший бп

  219. 219
    Юра Соколов ответил:

    Бери БП на 550 ватт к примеру FSP и видяху к примеру GTS 250, даже останется порядка 2000 рублей, (как вариант GTX260 или 4870/5770, правда тогда уже бабла не останется) проц разгони хотя бы до 2.8 Ггц, пока новый не купишь, потому что на этом проце GTS 250 в любом случае до конца не раскроется

  220. 220
    Dennis Watanabe ответил:

    лучше GTS250, с таким процем от более мощных смысла мало…

    Женя }I{eнЯRа Кочетов, я-бы не стал рекомендовать Multi-GPU… Просто не все это поддержвают, да и плата с 2-PCI-E X16 стоит дороже…

  221. 221
    Юра Соколов ответил:

    Я имел в виду с прицелом на будущее, если он летом будет новое железо брать) С таким процом и от GTS250 смысла мало)

  222. 222
    Олег Репш ответил:

    Подскажите как вам видеокарта ASUS 260 GTX Glasiator +? И скока она кушает от блока питания минимум скока должен быть?

  223. 223
    Павел Агафодоров ответил:

    спасибо

  224. 224
    Павел Агафодоров ответил:

    Олег Репш возьми лушче референс или matrix, а блок питания 500-550 ватт от нормального производителя: fsp, thermaltake, chieftec, enermax.

  225. 225
    Женя Кочетов ответил:

    Да и 500 бы за глаза хватило

  226. 226
    Денис Кочкуров ответил:

    помогите,у меня такая проблема, я готов выкинуть на видюху 20 косарей, но я не знаю что брать, одни говорят что nvidia gtx 295 самая офигенная, другие говорят что ASUS Radeon HD 5870 самая присамая, я хз че брать…..смотрел характеристики, на одних сайтах при тестировании нвидиа круче чем радеон, а на других наоборот, я конкретно запутался короче а покупать срочно надо=(

  227. 227
    Олег Репш ответил:

    Денис Кочкуров бери GTX295 она во всем хороша кроме DDR3! Также у неё есть преимущество в поддержке Physx. Во всех известных тестах она рвет всех с довольно большим преимуществом! Да и драйвера более оптимизированы в отличие под AMD видеокарты. Если брать то бери фирм ASUS или PNY они более надежные (ASUS лучше).

  228. 228
    Денис Кочкуров ответил:

    спасиба=)

  229. 229
    Павел Агафодоров ответил:

    Денис Кочкуров бери лучше hd5870 стоит меньше 295 на 3т.р. энергии ест меньше, работает тише, есть поддержка dx11 (хотя с поддержкой dx11 сейчас игр 5-10, а с тем же physx тоже только игр 5) единственный минус 5870 её уже чуть не стандартная длина 28см у 295 27см. 5870 обходит 295 во всех играх кроме тех которые хорошо реагируют на sli/cf. А так решать тебе

  230. 230
    Денис Кочкуров ответил:

    ооо, спасиб что про длину сказал, я уже часа 2 ищу габариты видюхи=)

  231. 231
    Юра Соколов ответил:

    Ну а если хочется самую топовую видяху то бери 5970, в 20000 рублей уложишься)

  232. 232
    Денис Кочкуров ответил:

    тогда уж лучше копить на ASUS GeForce GTX 295 MARS XDDDDDDD

  233. 233
    Юра Соколов ответил:

    Да я не понимаю смысла двухпроцессорных видях, а тем более таких неоправданно дорогих) Еще со времен Voodoo 5 было ясно что Multi GPU весьма грубый способ наращивания производительности видяхи

  234. 234
    Денис Кочкуров ответил:

    а ты прикинь какая мощь будет у 3хASUS GeForce GTX 295 MARS SLI

  235. 235
    Юра Соколов ответил:

    А ты прикинь сколько это все будет стоить и жрать энергии) И эта стоимость не будет оправдана даже в самых навороченных играх с максимальным разрешением и сглаживанием

  236. 236
    Женя Кочетов ответил:

    а ты прикинь скока это стоит

  237. 237
    Денис Кочкуров ответил:

    а ты прикинь если ты не бомж=))))

  238. 238
    Юра Соколов ответил:

    То есть только бомжи не могут себе позволить 3 видяхи по 15 штук каждая?

  239. 239
    Денис Кочкуров ответил:

    ASUS GeForce GTX 295 MARS SLI был выпущен лишь тиражом 1000 карт на весь мир, и одна карта стоит вроде 50 000рублей а не 15 000 и ты ее нигде не найдешь

  240. 240
    Женя Кочетов ответил:

    Найдет. Он маньяк.

  241. 241
    Dennis Watanabe ответил:

    Multi-GPU – БУДУЩЕЕ!! =)

  242. 242
    Павел Агафодоров ответил:

    Юра Sid Vicious Соколов дай ссылку где 5970 20т. стоит, они минимум по 25-26т. продаются

  243. 243
    Юра Соколов ответил:

    >ASUS GeForce GTX 295 MARS SLI был выпущен лишь тиражом 1000 карт на весь мир, и одна карта стоит вроде 50 000рублей а не 15 000 и ты ее нигде не найдешь

    Ну тем более, только олигархи себе смогут это позволить

    >Multi-GPU – БУДУЩЕЕ!! =)

    Multi GPU – это для тех кому ну очень хочется повыпендриваться несмотря на цену, счет за электричество и кипятильник вместо системного блока) Мы уже с тобой эту тему обсуждали)

    >Павел Агафодоров
    Ну может и по 25, просто помню что на нее рекомендованная цена порядка 600 баксов вот и сказал что в 20 штук уложится)

  244. 244
    Женя Кочетов ответил:

    чё вам Multi-GPU то не нравится? если мне не изменяет память то в Multi-GPU можно объеденить 2е разные видюхи жф и одну можно поставить чисто обрабатывать физику

  245. 245
    Dennis Watanabe ответил:

    и кому такая фигня нужна? Обработка физики отдельным вычислительным элементом сейчас не нужна, геймдев всеравно не юзает нормально эту возможность… Идея ничего, но она еще крайне сыра для использования (сыра имено программно, попросту ее не поддерживают)…

  246. 246
    Юра Соколов ответил:

    Неужели я непонятно написал? Многочиповые видяхи неоправданно дорогие, жрут много энергии и греются как кипятильник, поэтому я не вижу в них смысла. Смысл есть если у тебя полно лишних денег, монитор не ниже 24 дюйма и топовый проц

  247. 247
    Dennis Watanabe ответил:

    ну нет, юра, они не так дороги, а смысла очень даже много… у меня 2 карты, разница просто огромна и при средненьком проце )))

  248. 248
    Юра Соколов ответил:

    Они не так дороги? Сколько стоит к примеру 4870х2 или GTX295? да и при средненьком проце разницы ты особой не увидишь между 4870 и 4870х2, разница будет заметна только в высоких разрешениях и со сглаживанием, и то не во всех играх

  249. 249
    Женя Кочетов ответил:

    А если допустим у меня есть стареньки 9600 и купить еще 9600 . Две с половиной штуки то не так то и много. Или че ни то получше купить

  250. 250
    Женя Кочетов ответил:

    Бп и 500хватит и за электричество 10 лишних рублей в месяц не жалко.

  251. 251
    Юра Соколов ответил:

    В принципе разумно докупить одну 9600GT, в связке они довольно неплохие, в некоторых играх прирост производительности почти в 2 раза) А вот чтобы раскрыть две мощные видяхи потребуется мощный проц да и раскроются они только в тяжелых режимах, поэтому это для особых энтузиастов)

  252. 252
    Женя Кочетов ответил:

    Того же старенького q6600 разогнаного до 3.0 вполне хватит:-)

  253. 253
    Юра Соколов ответил:

    Меня результаты 4870 Crossfire не впечатлили, относительно небольшой прирост скорости по сравнению с одной 4870, а платить придется в 2 раза больше
    http://www.fcenter.ru/online.shtml?articles/hardware...
    Ощутимый прирост заметен только в парочке игр, в остальных прирост порядка 5-30 процентов в зависимости от разрешения

  254. 254
    Женя Кочетов ответил:

    с радеонами другой разговор)) А сейчас Multi-GPU .

  255. 255
    Dennis Watanabe ответил:

    Юра, а почему у меня данные другие? все тесты от крупных имен куплены, реальные результаты получают энтузиасты на своем железе…

  256. 256
    Юра Соколов ответил:

    Ну давай ссылки на другие тесты, проанализируем) Просто мне часто говорят что крупные сайты по железу куплены, а реальных ссылок на другие тесты не дают, так что давай ссылки а там разберемся)))

  257. 257
    Женя Кочетов ответил:

    ещё думаю от тестового стенда немного зависят тесты

  258. 258
    Юра Соколов ответил:

    От тестового стенда зависит многое, поэтому тесты как правило проводят на мощных машинах, чтобы порц не был ограничивающим фактором

  259. 259
    Женя Кочетов ответил:

    да, это я заметил, имею ввиду что на ДВУХ РАЗНЫХ мощьныхмашинах тесты могут быть немного разные

  260. 260
    Юра Соколов ответил:

    Конечно могут, если допустим одна игра более чувствительна к частоте а другая к количеству ядер то и результаты будут соответственные) Дело в том что тенденцию можно заметить в любом случае, если тестировать разные видяхи на одной машине

  261. 261
    Dennis Watanabe ответил:

    А можно-ли производить потоковые вычисления силой HD 4870 ? Я знаю, что есть FireStream 9270, но ведь это плата, основаная на RV770, а значит ничего координально иного в ней нет, так почему еецена переваливает за 40000, а HD 4870 стоит немногим > 5000 ?!

    Просто хотелось-бы использовать мощь Crossfire и для более полезных целей, чем игры… Я на программиста учусь, думаю пригодится это мне еще… Кстати, а как тем дела с CUDA обсоят? Я так и не смог понять, что такое Nvidia CUDA и для чего нужна эта технология (вот про ATI Stream догнал с первого раза) ….

  262. 262
    Юра Соколов ответил:

    CUDA как раз и нужна для потоковых вычислений. 4870 может производить потоковые вычисления так же как и карточки Nvidia, и физику может обрабатывать, дело в маркетинге. Просто чтобы им использовать PhysX и CUDA надо отвалить денег Nvidia.

  263. 263
    Dennis Watanabe ответил:

    А в каких приложениях можно испытать ATI Stream ?

  264. 264
    Алексей Снигирь ответил:

    ребят, хочу спросить у вас мнение насчет radeon 4860 и geforce gts250. что бы выбрали вы? посоветуйте пожалуйста. и ссылки на тесты, если можно=)
    заранее спасибо

  265. 265
    Юра Соколов ответил:

    Ну видяхи одного уровня, в разных играх быстрее то одна то другая, энергопотребление у них примерно одинаковое, хотя GTS250 Green потребляет существенно меньше, к тому же GTS250 поддерживает PhysX, что является достаточно большим плюсом, я больше склоняюсь к GTS250
    http://www.3dnews.ru/video/xfx_radeon_hd_4860/index2...
    Вот здесь тестирование 4860, правда GTS250 в этом тесте не присутствует, можешь посмотреть сравнение GTS250 и 4850 которая чуть помедленней чем 4860 в большинстве тестов и сделать выводы насчет 4860
    http://www.thg.ru/graphic/nvidia_geforce_gts_250/nvi...

  266. 266
    Алексей Снигирь ответил:

    спасибо огромное =)
    возник еще вопрос: она в Athlon II 240 не упрется?

  267. 267
    Юра Соколов ответил:

    Не за что) Если разогнать хотя бы до 3.5 Ггц то думаю не упрется

  268. 268
    Алексей Снигирь ответил:

    ок, разгоним ;)
    спасибо

  269. 269
    Dennis Watanabe ответил:

    алексей, радик бери! PhysX и даром не нужна! Шейдерной мощи у супер-скалярной архитектуры больше)))

  270. 270
    Юра Соколов ответил:

    Dennis "ax25" Watanabe
    Шейдерной мощи у нее больше если под нее игры оптимизировать, а скалярная архитектура более гибкая и не так требовательна к оптимизации игрового кода) А насчет того нужна ли ему более реалистичная физика в играх пусть человек сам решает) У тебя постоянно какие то заявления однозначные, надо объективнее быть

  271. 271
    Dennis Watanabe ответил:

    ну просто реально радики лучше в тяжелых режимах…

  272. 272
    Женя Кочетов ответил:

    А жирафы лучше со сглаживанием работают и с фильтрацией!! У них текстурников больше.

  273. 273
    Юра Соколов ответил:

    >ну просто реально радики лучше в тяжелых режимах…

    Смотря в каких играх

    >А жирафы лучше со сглаживанием работают и с фильтрацией!! У них текстурников больше.

    Обычно жирафы лучше работали со сглаживанием а у радиков была более качественная анизотропная фильтрация

  274. 274
    Dennis Watanabe ответил:

    На RV770 MSAA 2x/4x реализуется практически бесплатно с точки зрения блоков ROP, так что жиравы нервно курят в сторонке ))

    > Смотря в каких играх

    Ну я в любые играю в тяжелых режимах, а глюков нет =)

  275. 275
    Женя Кочетов ответил:

    Во раньше времена были. HD2400, 2600 , X1950GT, GEFORCE 6600GT, 7950GT, 8600GT… На них было много классных игр пройдено )))))))))))))))))))))))))))))))))))))))))))))

  276. 276
    Юра Соколов ответил:

    >Ну я в любые играю в тяжелых режимах, а глюков нет =)

    На GTS250 тоже глюков нет в тяжелых режимах) Вообще я сразу написал что 4850 и GTS250 карты одного уровня и в разных играх быстрее то одна то другая

  277. 277
    Dennis Watanabe ответил:

    я-бы все же брал радик =), это как говорится личное мнение и любовь к радикам )))

  278. 278
    Юра Соколов ответил:

    Личное мнение основанное на любви к какой то фирме не может быть объективным. Старайся относиться непредвзято к фирмам

  279. 279
    Dennis Watanabe ответил:

    Ну я же не тупо говорю, что красные рулят… Просто у радиков соотношение цена/производительность лучше… Nvidia дерет деньги за спорные вещи типа CUDA и PhysX, которые, обычно, не используются геймерами… Вот я ниразу не ожалел, что взял имено радики, хотя когда-то был за Nvidia…

  280. 280
    Юра Соколов ответил:

    >Просто у радиков соотношение цена/производительность лучше… Nvidia дерет деньги за спорные вещи типа CUDA и PhysX, которые, обычно, не используются геймерами…

    Ну не знаю, у нас по крайней мере GTS250 стоит дешевле чем 4850 (самый дешевый GTS250 стоит 3800 рублей, а 4850 дешевле 5000 рублей я не видел) хотя карты одного уровня, впрочем раньше ситуация с ценами была обратная. Да и кто тебе сказал что PhysX не используется геймерами? Оо Вообще то для них PhysX и создавался) К тому же на основе CUDA можно рассчитывать не только физику но также скелетную анимацию и много чего еще, так что вещь полезная.

  281. 281
    Dennis Watanabe ответил:

    Ну PhysX это просто такая штука, которая есть, но ее не хотят юзать разработчики, зато идеально можно создать проблемы игре с радиками (Need for Speed SHIFT до устаноки Team Racing Pack очень страдала от PhysX)…
    А CUDA хороша не для игр, а для профессионалов, эта шткеа приперла из мира Quadro FX…

  282. 282
    Юра Соколов ответил:

    >Ну PhysX это просто такая штука, которая есть, но ее не хотят юзать разработчики

    Странно, я вижу все больше игр с поддержкой PhysX

    >А CUDA хороша не для игр, а для профессионалов, эта шткеа приперла из мира Quadro FX…

    Эта штука универсальная, полезна и разработчикам игр и для других целей

  283. 283
    Dennis Watanabe ответил:

    Не, я не спорю, что игр с ее поддержкой много, но одно слово – поддержка, а другое – использование… Ради 20 искр, летящих по физическим законам особо смысла юзать PhysX нет, а вот еще и Mirror's Edge, типа супер юзает PhysX … На радиках разницы не какой, но PhysX в ней разрекламирована…

    А CUDA в играх вообще незаметна, на моих предыдущих связках D945+8600GTS/E5200+9600GT разница тоже не была заметна, а это конфигурации на грани low-end'а…

  284. 284
    Славик Подольский ответил:

    Что скажете о MSI GTX 275 twin frozr? Хочу её брать, другой 275 в городе нет. Говорят что очень шумная, прям как фен. Правда ли данное утверждение? А как на счет стабильности и системы охлаждения? Особенно хочется услышать мнение тех, кто уже приобрел эту видюху.

  285. 285
    Юра Соколов ответил:

    >Ради 20 искр, летящих по физическим законам особо смысла юзать PhysX нет

    А как же физика жидкостей, а физика тканей? Про них ты не упомянул)

    >А CUDA в играх вообще незаметна, на моих предыдущих связках D945+8600GTS/E5200+9600GT разница тоже не была заметна, а это конфигурации на грани low-end'а…

    PhysX это один из вариантов использования CUDA, CUDA в играх используется как раз через PhysX, так что ты говоря о PhysX в играх и CUDA в играх, по сути говоришь об одном и том же) А про PhysX я тебе уже писал) А насчет того что разница незаметна – отруби PhysX и прогони тот же FluidMark или Nurien или Star Tales Benchmark и посмотри на разницу)

  286. 286
    Dennis Watanabe ответил:

    Юра, ну так ты говоришь про синтетику же… В них реально заметна разница, это как прирост от CrossFire в Vantage и Crysis, несравнимые результаты… Я видел, как зеленая водичка красиво течет по физическим законам, но в играх нет ничего даже сравнимого… Помните рекламу AGEIA : "Расчеты физики дыма, огня, воды, искр итд…",- так и не реализованные ни в одной игре, а гуру геймдева – ID Software тогла послали эту технологию…

    Сейчас все так же =)

    А еще те демо-тесты из панели управления… Их подсилу расчитать даже слабенькому процессору, там речь не идет о сверх-массивных вычислениях…

  287. 287
    Виталий Фомин ответил:

    Славик Подольский

    не могу помочь,у меня другая карта,про эту ничего не знаю,почитай форумы в инете.Погугли.

    Остальным-лично я жду когда очень важную и нужную мне прогу (касательно учебы это) соединят с Кудой,мне оч важно,просто в обычном режиме эта программа считает целый день,глядишь "куда" спасет меня и сделает все это за часик))
    Все эти технологии-отправная точка в создании новых игр,учтите,что щас вовсю 3д впихивается везде,и дополнительная вычислительная мощь тут очень важна и нужна.И думаю CUDA поможет и тут.Хотя яхз)))

  288. 288
    Юра Соколов ответил:

    Dennis "ax25" Watanabe
    Ну это пока что PhysX не используется в играх на полную катушку) В скором времени он будет использоваться на полную катушку) Хотя физика тканей в том же Mirror's Edge использовалась) А насчет синтетики. Может конечно в играх прирост не такой большой от использования PhysX как в синтетике (то есть не в 2-3 раза) но он есть, и это плюс. Вот почитай
    http://hitech.tomsk.ru/video/11222-obzor-tekhnologii...

  289. 289
    Dennis Watanabe ответил:

    Виталий, просто понимаешь, если так критично время расчетов, то берут специальные вычислители – Quadfo FX / FireStream, а от GTX 260 смысла особо не будет, ее в расчетах легко обойдет любая специальная GPGPU-видюха той же генерации…

  290. 290
    Dennis Watanabe ответил:

    Не, Юра, ну я не спорю, что это круто, но и гнаться за CUDA/PhysX сейчас смысла нет ))

  291. 291
    Юра Соколов ответил:

    >Не, Юра, ну я не спорю, что это круто, но и гнаться за CUDA/PhysX сейчас смысла нет ))

    Но и отказываться от такого бонуса к видяхе тоже смысла нет, тем более с ценами я тебе ситуацию объяснил) А польза как видишь есть, пускай пока и по большей части в перспективе, причем весьма сущестьвенная польза)

    >если так критично время расчетов, то берут специальные вычислители – Quadfo FX / FireStream, а от GTX 260 смысла особо не будет, ее в расчетах легко обойдет любая специальная GPGPU-видюха той же генерации…

    Ты учти что далеко не каждый может позволить себе видяху за 50 штук, а от GTX260 польза будет, ссылку посмотри которую я тебе кидал, там в подобных рассчетах GTS250 почти в 4 раза быстрее чем Core i7, так что польза есть

  292. 292
    Dennis Watanabe ответил:

    Ну процы давно встряли видюхам, просто если грубо сравнивать : 4 ядра против 160 SIMD-ядер (ну или 800 SPU) никак не потянут… ))) (цифры взял от RV770, так как про Nvidia точно не скажу)

  293. 293
    Славик Подольский ответил:

    Какое ваше мнение о palit GTX 260 sonic? И на каком техпроцессе она изготавливается? В одних источниках пишут что на 65нм, в других что на 55нм…

  294. 294
    Юра Соколов ответил:

    Видимо есть и те и другие варианты)
    http://www.overclockersclub.com/reviews/palit_gtx_26...
    http://megaobzor.com/newsnew-8870.html
    http://www.overclockers.ru/lab/32323.shtml
    http://www.tweaktown.com/reviews/1770/palit_geforce_...
    Пишут что система охлаждения довольно тихая, карта разгоняется по разному, в зависимости от конкретного экземпляра, некоторые можно догнать до 729 Mhz по ядру, на tweaktown.com смело рекомендуют к покупке)

  295. 295
    Виталий Фомин ответил:

    а я КУДУ проверять буду в действии,скачаю видеокодировщик и проверю на нем работу данной технологии

  296. 296
    Виталий Фомин ответил:

    Несмотря на то,что у меня не самая мощная видюха-даже мои 16 ядер КУДА сделали свою работу на 5+ .Переконвертировав фильм двухчасовой за 45 минут,при 30 % загрузке главного проца(на всякие процессы,не относящиеся к конвертации).Я очень рад!

  297. 297
    Юра Соколов ответил:

    Я тоже протестил, фильм переконвертировался 12 минут, впечатляет)

  298. 298
    Dennis Watanabe ответил:

    Ну про что я и говорил, что для неигровых задач CUDA нужна )))

  299. 299
    Юра Соколов ответил:

    Но это не значит что она не нужна для игровых задач)

  300. 300
    Dennis Watanabe ответил:

    Но тут явно заметна польза от нее уе сейчас ;)

  301. 301
    Сайген Умаров ответил:

    Славик Подольский – http://shop.ww.kz/press/vendor-news/306/70136/
    вот эта видеокарта в принципе хороший продукт, и должен быть качественным. Возьми попробуй, гарантия ведь есть если что.

  302. 302
    Камилла Ибрагимова ответил:

    Подскажите пожалуйста в личку, мне друг дал видюху, сказал, что она лучше чем моя, но я не разбираюсь в этом, после того как я её воткну, что мне нужно будет делать? и будет ли работать комп после замены видюхи?

  303. 303
    Dennis Watanabe ответил:

    открываешь корпус, находишь видеокарту, акуртно извлекаешь ее, отключив все кабели, ставишь новую, подключаешь все, грузишь систему, ставишь дрова, ребут и готово =)

  304. 304
    Женя Кочетов ответил:

    Все банально просто )

  305. 305
    Женя Кочетов ответил:

    Кстати что за карту дали ?

  306. 306
    Виталий Фомин ответил:

    Какая красивая девушка:)
    Не имей привычки просить писать в личку,раз написала здесь-значит и ответ ищи здесь.
    Вначале скажи,какая видеокарта?Или попроси своего несмышленого друга самого поставить ее,меня удивляет парень,который отдал девушке видюху и сказал,чтоб она сама ставила…

  307. 307
    Сайген Умаров ответил:

    Самая Простая – делать почти не надо ни чего, старые драйвера удалишь, новые для своей видеокарты ставишь и всё, пользуйся. Вот только по разьёмам надо смотреть, PCI или AGP а то может не получится)))))))))

  308. 308
    Коляныч Испаныч ответил:

    у меня GEFORCE 8600 256MB((((((((((((((((((но у меня нетянет почемуто warhamer 40000 dawn ofwar dark crusade(((((((((((((((((требует какойто T&L((((((((((((((((((((((((((((((чё мне делать(((((((((((((((хотя наупаковке игры написаны системные требования опиративка 2GB видюха 256 directx 9,0(((((((((((((((((((((((((а у меня видюха 256MB аперативка 2gb (((((((((((((((((((( ПОМОГИТЕ ПОМОГИТЕ ПОМОГИТЕ!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

  309. 309
    Женя Кочетов ответил:

    я не знаю чё такое T&L. может чё то с дровами

  310. 310
    Юра Соколов ответил:

    Все видяхи выпущенные за последнее десятилетие аппаратно поддерживают T&L, так что дело скорее всего в дровах. Поставь дрова поновее и обнови DirectX до последней версии

  311. 311
    Виталий Фомин ответил:

    И пожалуйста,не надо больше вот этих грустных "(((((((((((((((((((" в таком количестве.Аж рябит в глазах.

  312. 312
    Dennis Watanabe ответил:

    За 8600 ручаюсь, она всеядная, все тянет XD

  313. 313
    Виталий Фомин ответил:

    шикарная карта в свое время

  314. 314
    Dennis Watanabe ответил:

    Ага… У 2х кентов до сих пор трудится… PhysX есть тож =)

Мы оказываем помощь вашим компьютерам с 2009 года под присмотром Adomains.