Видеокарты RX 9060 XT появились в продаже, и уже есть реальные тесты, которые позволяют подвести предварительные итоги. Почему предварительные? Об этом я объясню ниже. Если выбор стоит между RTX 5060 Ti и RX 9060 XT, то это правильно, так как эти видеокарты конкурируют друг с другом. Не буду лить воду, сразу перейду к делу.
Если у вас старый ПК с устаревшей материнской платой, поддерживающей PCI-E 3.0 или даже PCI-E 2.0, но с достаточно мощным процессором, то выбор очевиден - это RX 9060 XT. Почему? Потому что у нее задействованы все 16 линий PCI-E 5.0, в то время как у RTX 5060 Ti всего 8 линий PCI-Express 5.0. Это означает, что RX 9060 XT дает преимущество в сценариях, где требуется интенсивный обмен данными по шине PCI-E. Если у вас старая версия шины 3.0 или, что еще хуже, 2.0, то это ваш выбор.
А вот если у вас материнская плата с PCI-E 4.0 или 5.0, то выбрать будет сложнее. В одних играх лидирует RTX 5060 Ti, в других - RX 9060 XT.
Теперь о том, почему я в начале упомянул, что это предварительные итоги. Дело в том, что покупая видеокарты AMD, сначала можно расстроиться, но после нескольких обновлений драйверов понимаешь, что сделал правильный выбор. Так было и с моей RX 6600 XT. Когда я ее купил, в играх, например, в танках, у меня было 160-170 FPS, но спустя время этот показатель вырос до 200-240 FPS. То есть на выходе мы получаем одно, но со временем видеокарта становится производительнее за счет оптимизации и улучшения драйверов. Соответственно, с RX 9060 XT мы можем ожидать аналогичный эффект (я почему-то уверен в этом).
Если сегодня RTX 5060 Ti в некоторых играх лучше, то со временем ситуация может измениться, но тут все зависит от обстоятельств.
Из явных плюсов RX 9060 XT можно выделить PCI-E 5.0 x16 против PCI-E 5.0 x8 у RTX 5060 Ti. Однако по энергоэффективности я наблюдаю, что RX 9060 XT пока уступает. Я лично подозреваю, что RX 9060 XT - это «волк в овечьей шкуре», ведь буст тактовой частоты по GPU достигает 3150-3250 МГц, и это не шутки.
Что касается видеопамяти, то здесь RTX 5060 Ti выглядит лучше, так как у нее используются новые GDDR7 чипы памяти, в то время как у RX 9060 XT - GDDR6.
В завершение скажу лишь одно: не важно, какую видеокарту вы выберете - RX 9060 XT или RTX 5060 Ti, это решать вам. Если позволяет бюджет, берите модель с 16 гигабайтами памяти, так как некоторым новинкам игр не хватает 8 гигабайт даже при Full HD разрешении.
Удачных покупок! Если у вас есть вопросы, пишите, чем смогу - помогу.
#RX9060XT #RTX5060Ti #видеокарты
- 1483
Ну не факт, то что это урезанная RX 580 - это да. Но чтобы точно понять, что это RX 570 с BIOS от 580 нужно ее разобрать и глянуть чип. А так у него, может в Adrenalin вентиляторы в ручном режиме накручены, с BIOS видеокарты проблемы ну или датчик температуры барахлит. Мало деталей, а ты сразу такие выводы делаешь.
Итак, я приобрел видеокарту ASUS ROG Strix RX 6600 XT в 2021 году. Я ни разу ее не обслуживал, в том плане, что не разбирал и не менял термопасту и термопрокладки. Только два раза чистил и продувал от пыли. Спустя столько времени я всё-таки решил выяснить ее преимущества.
Натолкнуло меня на это множество комментариев под моими видео на YouTube, что их RX 6600 XT сильно греются, хотя у некоторых видеокарты более свежие, чем моя. Получаю множество вопросов: как так, почему у тебя такие низкие температуры, притом что она у меня работает в разогнанном состоянии 2750 МГц по GPU и 2200 МГц по видеопамяти.
И вот я всё-таки понял, в чем преимущество ASUS ROG Strix видеокарты. Для кого-то это всего лишь привлекательный внешний вид, и действительно, эти видеокарты имеют интересный дизайн и красивую подсветку. Но всё это меркнет по сравнению с их системой охлаждения.
Система охлаждения ROG Strix - это по сути ТОП. Например, система охлаждения ASUS ROG Strix RX 6600 XT явно рассчитана с запасом, и это правильный подход. При желании можно сделать так, что данная видеокарта в играх будет максимум греться до 50 градусов. Удивил? Вот и я был удивлен, когда спустя столько времени решил проверить максимальную эффективность охлаждения.
Я установил агрессивный режим работы вентиляторов и запустил требовательную игру. То, что я увидел, меня удивило: температура GPU при максимальной нагрузке составила от 48 до 50 градусов, это притом, что возможности видеокарты задействованы по полной. Кто-то скажет: «Ну так там, наверное, шум как от самолета». Ничего подобного.
Несмотря на то, что вентиляторы вращались на максимальных оборотах, шум от видеокарты не сильный. По сути, шума вентиляторов и нет, лишь слышен монотонный ровный звук потока воздуха. Вот что значит качество.
Ну а как ваши видеокарты поживают спустя почти 5 лет без обслуживания?
#RogStrix #видеокарты
В последнее время заметил множество отзывов о том, что при запуске теста для видеокарты некоторые пользователи сообщают, что не наблюдают нагрузки на видеокарту, а у других при увеличении нагрузки возникают ошибки.
На самом деле все это решается очень просто. Во всех подобных случаях проблема заключается в том, что вместо дискретной видеокарты тест запускается на встроенном GPU. Проверить, является ли именно это проблемой, также легко и просто: достаточно запустить специальный инструмент, который поможет узнать, какая видеокарта используется в компьютере на данный момент.
Если вы видите, что используется встроенная видеокарта, то необходимо переключить с нее на дискретную и только после этого запускать тест. Для тех, у кого только одна видеокарта, в любом случае будет использоваться только она, так как других в компьютере или ноутбуке не установлено.
Ребята, если есть вопросы, задавайте их в комментариях.
#Тест #видеокарты #GPU
А я думаю, как так, что во время тестов видеокарта которая выдает больше FPS, меньше грузит процессор, что как бы не логично. А оно оказывается вон оно что. Получается, что более слабый процессор с RTX 4060 выдаст больше кадров, чем с RX 6600 XT. Во дела, я никогда не придавал этому значения.
Ну начнем с того, что у вас видеокарта вероятно с модифицированой прошивкой (BIOS). Очень часто, RX 580 2048SP - это так называемые «франкенштейны», бывают урезанные модели по сравнению с обычной RX 580 или вообще RX 570 - прошитые как RX 580. И похоже, что вентиляторы вы зря покупали. Ну давайте по порядку: какие драйвера установили, для RX 580?
Вообщем, поставил я новую видюху в замен старой, подключил как надо и включил ПК, просидел минут 10-15 и слышу что мой комп гудит как турбина, начал смотреть и оказалось что виной всему кулера видеокарты. Я купил новые точно такие же и заменил их, но шум не пропал. Установил я GPU-Z глянул информацию и мне показывает что кульки крутят как бешеные.Если кто сталкивался с таким подскажите что делать. Скажу сразу, программы по типу MSI Afterburner не решили проблему.
- 4277
А вы знали, что схожие по производительности видеокарты, но от разных производителей могут влиять на нагруженность процессора, а также на использование оперативной памяти? Нет? Ну тогда стоит узнать.
Я недавно тестировал и сравнивал RX 6600 XT и RTX 4060 и заметил, что в некоторых играх один и тот же процессор нагружается по-разному. В одной и той же игре я заметил, что с RTX 4060 процессор в среднем был нагружен на 15-20%, в то время как в этой же игре с той же конфигурацией компьютера, но уже с RX 6600 XT, процессор нагружался до 35%, а иногда и до 40%. То есть разница близка к 100% по сравнению с видеокартой RTX 4060.
Объясняется это очень просто, дело в том, что разные видеокарты по-разному взаимодействуют с процессорами. Например, в некоторых играх RX 6600 XT может чаще взаимодействовать с процессором, чем RTX 4060, хотя они выполняют одну и ту же задачу. В результате мы и наблюдаем, что с одной, казалось бы, схожей по производительности видеокартой процессор нагружен чуть ли не до половины, а с другой он, можно сказать, отдыхает.
В общем, вы теперь знаете, что разные видеокарты влияют на степень нагрузки на процессор и оперативную память. Если есть вопросы, задавайте!
Как тебе сказать, да, у неё всё вроде хорошо, но аппетит у неё большой. Ты видел пиковое потребление? Вот то тоже! А с этими аппетитами и тепловыделение приличное, так что ей там не место. А вот RX 9060 XT вполне может занять почётное место у поклонников «красных». Я один из них 🤫.
Почему же RX 7600 XT не стала народной? 🤔 Она производительнее RX 6600 XT, имеет 16 гигабайт памяти, вроде всё отлично, и цена довольно привлекательная. Что не так?
AMD представила видеокарту Radeon RX 9060 XT, претендующую на звание «народной» любимицы (по моему личному мнению) среди геймеров с ограниченным бюджетом. RX 9060 XT - это доступность, мощь и энергоэффективность. Наконец-то пришла отличная замена для устаревшей, но всё ещё популярной RX 6600 XT. Давайте глянем, что там «под капотом».
RX 9060 XT построена на архитектуре RDNA 4, тогда как моя любимица RX 6600 XT - на RDNA 2. Обе видеокарты имеют 8 ГБ GDDR6 с 128-битной шиной, но у RX 9060 XT пропускная способность памяти значительно выше: 320 ГБ/с против 256 ГБ/с. Также RX 9060 XT выйдет и с 16 ГБ видеопамяти, что вероятно, станет бюджетным решением для игр в 2K разрешении. Старт продаж этой версии намечен на 5 июня 2025 года.
Что удивляет, так это максимальная тактовая частота GPU у новинки - 3130 МГц, вероятно, в разгоне будет еще больше. Напомню, что у RX 6600 XT - 2589 МГц, а максимально в разгоне, что удавалось лично мне - 2870 МГц. По мимо этого, RX 9060 XT оснащена 64 блоками для ИИ и 32 ядрами для трассировки лучей, что отлично подходит для игр с трассировкой лучей. Народная же RX 6600 XT довольствуется только 32 ядрами трассировки, отдельных блоков для ИИ у неё нет.
Обе модели имеют 32 МБ Infinity Cache. RX 9060 XT потребляет меньше энергии, чем предыдущая RX 7600 XT, по сути, у новинки потребление примерно такое же, как и у «народной» RX 6600 XT.
В завершении добавлю, что Radeon RX 9060 XT - свежий лидер для геймеров (по моему личному мнению), ищущих баланс цены и производительности. Версия с 16 ГБ стартует в продаже с 5 июня 2025 года. Ну что ж, ждём новинку и судя по характеристикам, RX 9060 XT сместит RX 6600 XT с титула «народной» видеокарты, чего не удалось сделать RX 7600 XT. Как говорится, только реальные тесты покажут, кто в доме хозяин.
Ну смотри, прирост при переходе на Radeon VII будет, только шина памяти чего стоит - 4096 бит! 🤩 Для сравнения, у какой-нибудь RX 6600 XT она всего 128 бита. Прирост FPS при переходе на Radeon VII у тебя будет, особенно если играешь при высоком разрешении. Но из-за PCI-E 3.0 x8 ты не раскроешь её потенциал полностью в некоторых задачах. В играх ты, может, особо и не заметишь нехватки пропускной способности, но вот в других задачах, где по шине PCI-E активно будут передаваться большие объемы данных - она будет. Я бы задумался и лучше вложился в мать с PCI-E 4.0 (сейчас уже PCIe 5.0 😅).
Тогда другой вопрос...
У меня на материнке тока PCI-E 3.0 x8.....и установлена Vega 56
Вот я и думаю будет прирост фпс при переходе на Radeon VII
Или уже и так все линии заняты....
Все никак не пойму.. Тоесть Моя карта щас работает не на полную мощьность вы это хотите сказать? Раз установлена в слот PCI-E 3.0 x8
Привет! Обе видеокарты PCI-E 3.0 x16 (16 линий) и видеопамять HBM, а не GDDR. Если надумаешь брать, важно понимать, если GPU или память выйдет из строя, то замена будет дорого стоить, так как память и GPU находятся на одной подложке, а не как у большинства других моделей видеокарт.
Привет друг.....Пожалуйста помоги!!!
сколько линий PCIe использует Vega 56
сколько линий PCIe использует Radeon VII
У меня тоже такое замечается только в одной игре - Path of exile 2. По рекомендации удалил папку Шейдеры в корне игры и стало норм. Про очистку кэша шейдеров хз, не замечал подобного, у nvidia есть увеличение кэша 100гб или безгранично.
У меня так с игрой Сталкер 2, если я делаю чистую установку драйвера. В других играх не замечал. Но у меня видеокарта AMD. В программе управления графикой AMD, есть функция сброса кэша шейдеров, я как-то сбросил и потом сидел ждал, пока шейдеры заново скомпилируется. Может у вас происходит очистка кэша шейдеров автоматически при обновлении драйвера, что вполне логично.
Крч я понял из-за чего весь этот сыр-бор. Игра почему то начинает заново прогружать шейдеры после установки драйверов..
Попробуйте включить «Энергосбережение (RX 570)», затем перезагрузите компьютер и с помощью этого инструмента определите видеокарту. Если он покажет что-то вроде AMD Graphics, то всё отлично работает, возможно, она просто неправильно отображается в параметрах графики. Если же будет указана RX 570, тогда нужно разбираться дальше. Это может быть связано с тем, что подключены два монитора к разным видеокартам. Принцип здесь такой: если монитор подключен к дискретной видеокарте, мы можем назначить, например, встроенную видеокарту для браузера - она будет отвечать за обработку изображения и передавать его по шине PCI-E на дискретную видеокарту, которая, в свою очередь, будет выводить его на монитор. То же самое произойдет, если мы подключим монитор к материнской плате, а дискретную видеокарту назначим для браузера: в этом случае обработка изображения будет происходить на дискретной видеокарте, а вывод через встроенную.
Здравствуйте, у меня такая проблема, всё сделал в биосе включил встройку, она отобразилась в диспетчере устройств, картинка на второй монитор выводится с мат платы, на основной с дискретной, но в настройках графики не отображается встроенная, и в энергосбережении и в высокой производительности указана дискретная, драйвера ставил новые, не помогло
Первое, что вам нужно сделать - зайти в настройки игры и посмотреть, не выставлено ли у вас ограничение частоты кадров. Если выставлено, уберите эти ограничения. Далее проверьте, не перегревается ли видеокарта, и посмотрите температуры всех её компонентов, особенно GPU-хотспот. Также проверьте температуру процессора и VRM материнской платы. Если тут тоже всё в порядке, тогда, вероятнее всего, у вас неправильная конфигурация компьютера: видеокарта достаточно мощная, а такие комплектующие, как процессор или материнская плата, слабые. Также если не хватает оперативной памяти, это тоже может быть причиной.
Запустила Сталкер 2, выставила все настройки графики на эпик, разрешение Full HD. Захожу в игру и вижу, что видеокарта не нагружена до 100%: нагрузка держится в пределах 70%-90%, и лишь в некоторых местах на локации нагрузка увеличивается выше 90%, но до 100% так и не доходит. В чем может быть причина и как это решить?
#STALKER #видеокарта #нагрузка
- 11777
Если вы по какой-либо причине удалили видеокарту в «Диспетчере устройств», например, чтобы удалить драйвер, но затем передумали и решили вернуть все как было, у вас есть два варианта.
Вы можете просто перезагрузить компьютер: при перезапуске система обнаружит удаленную видеокарту, заново включит её и установит драйвер.
Либо вы можете прямо в «Диспетчере устройств» нажать кнопку в виде монитора с лупой. Для наглядности смотрите скриншот, на котором я отметил эту кнопку красной стрелкой.
Когда вы нажмете данную кнопку, произойдет обновление конфигурации оборудования, система найдет отключенную видеокарту, включит её, а также установит драйвер необходимый для её работы.
Если после этого видеокарта в «Диспетчере устройств» отображаться как «Базовый видеоадаптер Microsoft», необходимо обновить драйвер видеокарты вручную.
В завершение добавлю, что если вы хотите отключить видеокарту, чтобы она не была активна всегда, то данный способ не подходит. Система при каждом запуске компьютера будет её обнаруживать и делать активной. Поэтому лучше использовать этот способ для отключения видеокарты. Только так вы сможете полностью отключить неиспользуемую видеокарту, и она больше не будет обнаруживаться системой и отображаться в «Диспетчере устройств». Если что-то не понимаете, обращайтесь.
Я предположил варианты, но информации слишком мало. Сейчас много видеокарт, типа новых, сам знаешь, каких 😅. Может, BIOS левый, может, просто плохой контакт на коннекторе подключения вентиляторов, может, датчик температуры не работает - вариантов множество. Но стоит начать искать причину с простого.