В этой заметке я хотел бы рассказать о том, какую пользу можно получить от утилиты Riva Tuner (разработчик: Алексей Николайчук aka Unwinder), предназначенной для разгона видеокарт, даже если самим повышением частот графического процессора и памяти не заниматься.

После замены процессорного боксового кулера на Thermaltake Big Typhoon VX CL-P0310 я заметил, что шум моего компьютера уменьшился не настолько, насколько я ожидал. А суть в том, что весь этот шум шёл от видеокарты (PCI-E 256Mb XFX GeForce 6600GT). Раньше он сливался с шумом от боксового кулера, и я не мог его локализовать (да и не пытался, т.к. грешил только на бокс). Но когда приобрел Big Typhoon VX, то понял, что надо искать его источник где-то ещё. И эмпирическим путем я нашёл его в видеокарте.

Оказывается, мой штатный кулер всегда работал в 2D со 100% мощностью! А я 1,5 года этого не замечал! Тут на выручку пришла RivaTuner_20_FR, при помощи которой (настройки драйвера -> системные настройки -> кулер) я снизил мощность кулера со 100% до 75%. И шум ЗАМЕТНО убавился. На температуре ядра это конечно отразилось. Если при 100% она была 60гр., то при 75% стала 64гр. (закрытый корпус с температурой 28гр. внутри) Соответственно, при 50%-ой мощности она ещё более увеличивается.
Температура в полном 3D достигала 103гр.! (без разгона)

И вот, я продолжил решать эту проблему...
1)снял кулер на видеокарте
2)удалил антисколовую скобу, расположенную по периметру ГП
3)стёр следы начальной термопасты (хотя, точнее было бы сказать, что термопасты там почти не было - настолько тонок был слой), которую можно было бы с точностью назвать "жвачкой",
и намазал отечественную термопасту КПТ-8.
4)поставил кулер на место, предварительно очистив его от пыли, накопившейся за полтора года эксплуатации.
В итоге наблюдаю такие плоды своей деятельности...
Максимальные температуры в нагрузке уменьшились до 83-85 градусов, (на 20 меньше), в простое 2D до 58 градусов. (всё на штатных частотах)
И всё же, температуры высоковаты, не так ли? Конечно, проблему можно было бы окончательно решить, заменив сам кулер на альтернативный, но это уже другая история.

После того, как я начал использовать Riva Tuner 2.0 FR в плане понижения мощности кулера для снятия шума, я стал замечать мерцание экрана на моём LCD-мониторе LG L1932S. Сначала я считал, что надо отрегулировать цветовые настройки монитора - не помогло. Ну, что ж... тогда я вернул мощность кулера в 2D обратно с 75% на 100% - и мерцание исчезло! Оно выглядело в виде "волн", расходящихся по диагонали экрана из правого верхнего угла в левый нижний, и особенно проявлялось на монотонно сером фоне. Единственным моим объяснением наблюдаемых волн является такая мысль: они возникали потому, что напряжение на видеокарте гуляет из-за  способа регулирования частоты кулера утилитой Riva Tuner - импульсным прерыванием подачи напряжения.

Тишина, конечно, радует уши, но зрение дороже. Именно поэтому мне пришлось в конце концов оставить мощность кулера на 100%. Однако вины программы Riva Tuner я в этом не вижу. К такому выводу я пришёл, экспериментируя уже с видеокартой AGP 128Mb Leadtek GeForce 6800. Там понижение мощности кулера до 25% (надо заметить, что при этом компьютер становится совсем бесшумным) не вызывает никаких волн. И это притом, что данная видеокарта Leadtek GeForce 6800 всё время находится в разогнанном состоянии (@ 410/900 MHz) и с разблокированным вершинным блоком! Видимо, именно производитель XFX моей 6600GT виноват в том, что регулирование мощности кулера при помощи Riva Tuner вызывает наблюдаемые мной волны. А казалось бы, что XFX - это бренд-с-большой буквы... и стоит он, естественно, дороже. Так что, уважаемые читатели, помните, что громкое имя не всегда является залогом качества.

Ну а что касательно Riva Tuner: помните, что эту программу можно использовать РАЗНОСТОРОННЕ. Она позволяет не только изменять частоты графического процессора и видеопамяти, но и разблокировать замаскированные блоки, и регулировать эффективность/шумность системы охлаждения, изменяя её мощность, и мониторить температурные показатели - это те функции, которые "лежат буквально на поверхности".

Ну и конечно, нельзя забывать и о её главном назначении - она до сих пор является самой лучшей утилитой для разгона видеокарт NVIDIA GeForce и AMD(ATI) Radeon.  Для этого достаточно открыть [настройки драйвера -> системные настройки -> разгон] и планомерно увеличивать частоты ГП и видеопамяти для режима 3D. Оптимальные частоты для, при которых достигается максимум производительности без артефактов и превышения нормального температурного режима, у каждой видеокарты индивидуальны. Лучшего всего выяснять ваши оптимальные настройки таким образом:
а)сначала пошагово увеличивать частоту видеопамяти, каждый раз проверяя производительность и наличие артефактов, запуская игровые приложения или тест 3DMark'xx. Как только вы замечаете артефакты изображения или падение производительсности - значит, переразгон.
б)после этого вернём частоту видеопамяти в номинальное значение
в)теперь найдём оптимальное значение частоты для графического ядра - тем же образом, что мы находили для видеопамяти.
г)после этого выставляем найденные оптимальные частоты как для ядра, так и для памяти. Иногда бывает так, чтобы разогнать и то, и другое одновременно, частоты приходится немного снижать. К тому же, нельзя забывать и о перегреве.
После настройки частот ставим галочку на пункте "загружать настройки с Windows".
Всё. Вас можно поздравить с успешным разгоном видеокарты.

P.S. Версии Riva Tuner, начиная с v2.0 FR, успешно работают и с Microsoft Windows Vista.