Выбор видеокарты

paradroid
6/25/2007, 6:40:10 AM
(MAkaka @ 25.06.2007 - время: 00:44) Решит ли проблему установка более мощного блока питания?
(аппетиты по току у неё какие-то несуразные: до 30!!! ампер...)
ага они самые 30 ампер)
ей необходим блок питания мощностью от 500 Вт!
а вообще лучше сразу поставить 700-750 вт, от какого нибудь Thermaltake.

PS карточка реально мощная, только одно но.. не поддерживает 10х.
paradroid
6/25/2007, 7:00:01 AM
(rroman @ 11.06.2007 - время: 02:54) Как показывает практика в общих случаях карты Nvidiaработают шустрее на 10-15%, зато у ATI лучшее качество картинки. Это объясняется более усовершенствоваными алгоритмами прорисовки и текстурирования.
Это объясняет одно, довольно много игрушек заточены под Nvidia.
Если ты не фанатик Ati, то выбор очевиден.
Rambus
6/25/2007, 12:59:05 PM
ей необходим блок питания мощностью от 500 Вт!
а вообще лучше сразу поставить 700-750 вт, от какого нибудь Thermaltake.


Ересь полнейшая! 500-ватника хватит 8800-му джифорсу. Неужели он жрёт меньше 1950-го Радика? Тем более не ХТ и не ХТХ, а Про?
paradroid
6/26/2007, 4:44:41 AM
(Rambus @ 25.06.2007 - время: 08:59) Ересь полнейшая! 500-ватника хватит 8800-му джифорсу. Неужели он жрёт меньше 1950-го Радика? Тем более не ХТ и не ХТХ, а Про?
500 всё же не хватает, у моего знакомого пару игрушек вылетало, из-за нехватки бп. (8800 GTS) тот же сталкер, решил проблему заменив на 650 вт.
Но дополнительных 50 вт имхо лишних не будет.
Всё познается на практике wink.gif
Dicoy
6/26/2007, 5:47:44 AM
какие монструозины тута обсуждают biggrin.gif
а я вот сижу на встроенной GF6100 и начал подумывать не поставить ли
мне ченить отдельное,но денег тратить совершенно не хоцца потому
рассматриваю варианты GF 7300 GT и Radeon x1300 biggrin.gif самое
забавное,что после гибели 3dfx всегда предпочитал nvidia,а тут чета
на ATI тянет unsure.gif смущает собственно,что мамка то на nForce,
стоит ли пытатся радеон к ней прикрутить,не подеруццца ? lol.gif
Rambus
6/26/2007, 7:04:06 PM
Нет, у меня так... правда у джифорсов дровишки поприятнее в обращении.
MAkaka
7/1/2007, 12:22:41 PM
(paradroid @ 25.06.2007 - время: 09:40) (MAkaka @ 25.06.2007 - время: 00:44) Решит ли проблему установка более мощного блока питания?
(аппетиты по току у неё какие-то несуразные: до 30!!! ампер...)
ага они самые 30 ампер)
ей необходим блок питания мощностью от 500 Вт!
а вообще лучше сразу поставить 700-750 вт, от какого нибудь Thermaltake.

PS карточка реально мощная, только одно но.. не поддерживает 10х.
О чём, собственно говорим...

image

Воткнула новый блок питания Thermaltake 500W.
Установила Microsoft.NET Framework 3.0.
Стащила Catalyst™ 7.6 Display Driver for Windows XP Professional.
Всё!!!
На второй ОСи даже Framework не втыкала, - Catalyst™ сам подцепил видеокарту....
Всё подцепилось, всё зашевелилось, всё заработало...
..................................................................................
Но, cry_1.gif вылезли ещё 2 проблемы:
_в диспетчере устройств видеокарта определяется, как 2 устроиства
Radeon X1950 PRO
Radeon X1950 PRO Secondary
_рухнула ATI (и не больше не встаёт! уже и монитор протирала, и Отче Наш читала cry_1.gif cry_1.gif cry_1.gif )
ну и, соответственно, второй монитор не цепляется...
.................................................................................
Как теперь ATI уговорить?
do-do
7/1/2007, 3:31:30 PM
пару недель назад было дело :) принесли комп :) на ней
ATI X1950(помоему)GT для AGP - не идут игры. Игра запускается и комп "гаснет"
Фишка в том что на карте оказалось 2а идентичных разъема питания (оно и понятно PCI-E может сама прокормить видяху, а AGP не расчитана на большие мощности) Так вот необходимо было ОДНОВРЕМЕННО подключить оба разъема и игры пошли (не хватало мощности под нагрузкой просто) Кстати, это было не очевидно :) в бумажке с платой был нарисован ТОЛЬКО один разъем! :)

Secondary - это нормально :) ни вреда ни пользы. Можно убрать :) модифицировав bios видяхи :) Вот Хотя на видяхе же 2а выхода :) типа на каждый дрова ставятся :)


Doka
7/7/2007, 6:34:44 AM
Кто что хорошего или плохого может сказать об этой видюхе 512Mb PCI-E ATI Radeon X1950XT, DDR3, DVI, VIVO, Sapphire,retail.
Doka
7/7/2007, 6:37:13 AM
......и ещё,какую конфигурацию желательно под нее собрать?
STRANNICK
7/7/2007, 6:50:06 PM
(Dicoy @ 26.06.2007 - время: 01:47) какие монструозины тута обсуждают biggrin.gif
а я вот сижу на встроенной GF6100 и начал подумывать не поставить ли
мне ченить отдельное,но денег тратить совершенно не хоцца потому
рассматриваю варианты GF 7300 GT и Radeon x1300 biggrin.gif самое
забавное,что после гибели 3dfx всегда предпочитал nvidia,а тут чета
на ATI тянет unsure.gif смущает собственно,что мамка то на nForce,
стоит ли пытатся радеон к ней прикрутить,не подеруццца ? lol.gif
Бери 730ГТС. Многие из них- это урезаное ядро 7600. У моей Палитовской стоит память ДДР3.

зато у ATI лучшее качество картинки
Спорное утверждение, и даже очень. Я лично сталкивался когда радеон слейдующего поколения и из более дорогой ценовой группы показывала намного худшую картинку в играх.
Rambus
7/10/2007, 4:14:50 AM
Спорное утверждение, и даже очень. Я лично сталкивался когда радеон слейдующего поколения и из более дорогой ценовой группы показывала намного худшую картинку в играх.

Ну а я вот на днях столкнулся с тем, что 8800-й джифорс не умеет в отличие от старого Радеона применять в играх цветовой профиль, отличный от профиля на рабочем столе... И картинка от этого весьма страдает.

Кто что хорошего или плохого может сказать об этой видюхе 512Mb PCI-E ATI Radeon X1950XT, DDR3, DVI, VIVO, Sapphire,retail.

Старовата уже стала карточка. Если уже взял, то радуйся пока что, если нет, за похожую сумму можно взять джифорс 8600ГТС, а немного накинув 8800ГТС... Куда лучший выбор.
Рубаха парень
7/16/2007, 1:25:52 AM
Я вот до сих пор сижу на ASUS ATi X850XT.Все игры работают норм на высоких настройках(правда разрешение 1024*768),жаль тока что не идут игры типа Splinter Cell Double Agent(видите ли 3.0 шейдеры нужны).
А вообще щас новые видеокарты бессмысленно брать до внедрения игр под DX10. Лучше уж чуток потерпеть.
Кстате никто не знает Radeon X2900XTX будет короче чем GeForce8800GTX-GTS???
Rambus
7/20/2007, 5:04:55 PM
Нет, не будет. Такая же монструозная хренотень под 30 см, да ещё и жрёт 210-250 ватт сама по себе. Надо ждать либо следующего поколения, либо перевода чипов с 80 нм на 65 нм техпроцесс.
DenverXXX
7/25/2007, 5:45:01 PM
(paradroid @ 26.06.2007 - время: 00:44)500 всё же не хватает, у моего знакомого пару игрушек вылетало, из-за нехватки бп. (8800 GTS) тот же сталкер, решил проблему заменив на 650 вт.
Но дополнительных 50 вт имхо лишних не будет.
Всё познается на практике wink.gif
Собрал несколько машин на 1950pro c 350 ваттной Delt'ой, все работает нормально. А то что 500 ватт вытянет даже RADEON HD 2900 XT как минимум в номинале - написано самим производителем. В данном случае или неудачный БП или БП с завышенными мощностными параметрами на этикетке. Тот же самый Thermaltake тому пример(в большей части своих БП с мощностью менее 600 ватт). как говорится дорого не всегда сердито...
paradroid
7/26/2007, 4:57:43 AM
(DenverXXX @ 25.07.2007 - время: 13:45) Собрал несколько машин на 1950pro c 350 ваттной Delt'ой, все работает нормально.
одно дело собрать, другое сколько это проработает, время покажет wink.gif
Rambus
7/26/2007, 5:06:00 AM
Мой конфиг из подписи на БП, стабильно выдающий 460 ватт не жалуется.и БП не особо-то напрягается. По крайней мере кулер обороты не поднял.
Medice
7/27/2007, 12:19:04 PM
Подскажите, по классификации НВидиа, в какой последовательности буквенных индексов ГТ, ГС, ГТС, ГТХ увеличивается класс видюхи??
Yarmax
7/27/2007, 2:14:52 PM
(Medice @ 27.07.2007 - время: 08:19) Подскажите, по классификации НВидиа, в какой последовательности буквенных индексов ГТ, ГС, ГТС, ГТХ увеличивается класс видюхи??
NVidia GS, GT, GTS, GTX
Radeon X1950GT, PRO, XT, XTX
Medice
7/29/2007, 1:32:56 PM
а GX куда??