Bubik

  •  ·  Standard
Description
Работал в сфере компьютерных технологий, сейчас интересуюсь по этой же теме. Все нормально!
 
 
·
Added a discussion

На большинстве материнских плат, как минимум присутствует один разъем PCI Express x16, в большинстве случаев к нему подключают видеокарты. Рассмотрим, какие модели видеокарт подходят.

К PCI Express x16 на материнской плате, можно подключить любую видеокарту с интерфейсом подключения PCI-Express, которая требует не более 16 линий. Таким образом, если в описании или спецификациях указано, что видеокарта имеет PCI Express: x16, x8, x4, x2, это значит, что она подходит. Единственное что, при подборе видеокарты нужно учитывать версию PCI-Express, так как от этого будет зависеть скорость с которой видеокарта будет взаимодействовать с процессором.

Кроме этого, к разъему PCI-Express x16 можно подключать и другие платы расширения, например карты видеозахвата, сетевые и звуковые карты, а также любые другие, которые имеют аналогичный интерфейс подключения. То есть, подойдет любое устройство с интерфейсом подключения PCI Express, которому для работы необходимо от одной линии шины, до 16 (от PCI-E x1 до PCI-E x16).

 

  • 2006
  • 😆 2
·
Added a discussion

В поисках решений для проверки видеокарты то и дело натыкаешься на информацию, что это можно сделать с помощью различных программ. На самом деле это не так. Я проверил множество программного обеспечения и не одно из них не смогло нагрузить видеокарту до ее предельных возможностей. А как мы знаем, для проверки видеокарты, ее видеопамяти, эффективности системы охлаждения и электропитания, необходимо по максимуму нагрузить ее, чтобы можно было выявить проблемы. Но способ всё-таки есть и как бы это банально не звучало, лучше всего запустить требовательную к ресурсам видеокарты игру, а не какую-либо программу.

Программы для проверки, а точнее для тестирования видеокарты не так эффективны, как игры. Большинство, если не все существующие программы не используют всю видеопамять, зато это легко делают игры. Также многие программы не нагружают до предельных значений графический процессор, не поднимают тактовую чистоту до максимума и многое другое.

Кроме этого, когда я запустил несколько программ для проверки и тестирования видеокарты обнаружил, что видеокарта не потребляет столько электроэнергии, сколько она это делает в играх. А значит программы не дают возможность полноценно нагрузить видеокарту задачами.

Отсюда можно сделать вывод, что проверку и тест видеокарты лучше делать играми, а не программами.

 

  • 855
  • 💓 2
·
Added a discussion

Несмотря на то, что GTX 1650 вышла пять лет назад, она все еще актуальна в 2024 году. Данная модель видеокарты позволяет запускать практически все современные игры на низких, средних и некоторые на максимальных настройках графики с разрешением Full HD (1080p). Но нужно учитывать, что требования игр к производительности постоянно увеличиваются, тенденция такова, что уже сейчас 4 Гб видеопамяти, это крайне мало.

Конечно, если бюджет ограничен, то GTX 1650 можно рассматривать к покупке в 2024 году. Если же нет, то я бы предпочел такие модели видеокарт, как RX 6600, RTX 3050, ARC A750. И это минимум для игрового ПК.

Незабываем, что есть аналоги GTX 1650 по производительности и цене, которые возможно будут более предпочтительными. Например, RX 6500 XT практически во всех современных играх обходит GTX 1650 и выдает на 10-30 ФПС больше при одинаковых настройках графики. Intel ARC A380 также находится примерно на том же уровне производительности, что и GTX 1650.

Но ходят слухи, что со временем ARC A380 может значительно прибавить в производительности, за счет оптимизации драйверов и в таком случае она будет превосходить GTX 1650, а может даже и RX 6500 XT с 4 Гб видеопамяти. По сути это возможно, ведь ARC A380 имеет 6 Гб видеопамяти, по сравнению с GTX 1650, у которой объём памяти 4 Гб.

В итоге, если бы у меня стал выбор видеокарты в 2024 году в данном ценовом диапазоне, я бы купил всё-таки RX 6500 XT. Хотя в некоторых играх мне больше нравится GTX 1650. Почему-то есть игры, где при одних и тех же настройках графики, картинка выдаваемая GTX 1650 более сглаженная, чем на RX 6500 XT. Либо технология сглаживания применяемая видеокартой GTX 1650 лучше, либо сами игры более оптимизированные под модели NVIDIA, но факт остается фактом.

А какую вы бы купили видеокарту в 2024 году, если бы выбор был между GTX 1650, RX 6500 XT и ARC A380?

  • 1033
  • 😲 3
·
Added a discussion

Все что вы читали в интернете по поводу подбора видеокарты к процессору до этого, в 99% случаев не дало понять вам, как же она всё-таки подбирается. Проблема в том, что процессоры, также как и видеокарты, имеют разную производительность, в связи с чем здесь попросту нет четкого ответа или инструкции.

Я же предлагаю наиболее правильное решение, с помощью которого вы сможете легко подобрать видеокарту к процессору. Просто укажите модель процессора в комментариях ниже и я дам вам полный список видеокарт, которые будут нормально работать, выдавать максимальную производительность, которая была заложена производителем видеокарты.

Тема подбора видеокарты к процессору, да и к остальному «железу» важна, так как неопытные пользователи допускают ошибки, в результате которых сталкиваются с тем, что их процессор грузится до 100% в играх, а видеокарта на 80% и ниже. Получается, что они заплатили приличную сумму за довольно мощную видеокарту, рассчитывая увидеть высокий ФПС и красивую графику в играх, а из-за недостаточной производительности процессора, этого не происходит. По мимо этого, когда процессор работает на полную мощность, очень часто в играх происходят лаги, хуже чем если бы слабым местом была видеокарта.

Поэтому пишем, не стесняемся, никто за это деньги не берет.

  

  • 502
  • 💓 3

Я вообще думаю, что это последняя видеокарта для игр с 4 гигами видеопамяти. Мне кажется дальше с таким объемом будут только офисные варианты. Тенденция такая, что уже сейчас во многих играх не хватает 8 Гб, про четыре я вообще молчу. А так да, RX 6500 XT самая мощная из четырех гиговых видеокарт.

  • 537
  • 1
·
Added a discussion

Среди некоторых любителей компьютерных игр бытует мнение, что LHR видеокарты менее производительны, чем такие же модели, но без LHR. На самом деле нет никакой разницы, оба варианта видеокарт показывают одинаковую производительность в играх.

LHR видеокарты «слабее» только в майнинге, в играх разницы нет никакой. Так что, если видеокарта нужна для повседневных задач, а не для майнинга, то ее смело можно брать.

А вот действительно на что стоит обращать внимание:

  • OC - видеокарта имеет заводской разгон. (видеокарты всех производителей).
  • XT - видеокарта производительней, чем такая же модель но без XT. (видеокарты AMD).
  • XTX - видеокарта мощнее, чем такая же модель, только с XT. (видеокарты AMD).
  • SUPER - видеокарта производительней, чем такая же модель без обозначения «SUPER». (видеокарты NVIDIA).
  • Ti - видеокарта мощнее, чем такая же модель SUPER. (видеокарты NVIDIA).

Если вы выбираете видеокарту для игр, обращайте внимание на обозначения, о которых я написал выше. Такие модели действительно имеет разницу в производительности, а вот LHR - это такая же видеокарта, она имеет одинаковую производительность в играх, только лишь хуже себя проявляет в майнинге.

  • 644
  • 1
·
Added a discussion

Неопытные пользователи то и дело обсуждают: А зачем вообще нужны видеокарты PCI-E 5.0, если даже 4.0 версии хватает за глаза? Ответ на самом деле очень прост, таким образом можно сократить количество используемых видеокартой линий PCI-Express и при этом не потерять пропускную способность. Остальные высокоскоростные линии этой шины, можно использовать для других устройств, например парочке самых новых SSD PCI-E 5.0. В итоге мы получим, как минимум три устройства, которые будут напрямую взаимодействовать с процессором используя эту эффективную шину.

Простым языком, видеокарта PCI-E 5.0 x4 будет взаимодействовать с процессором с такой же скоростью, как и видеокарта PCI-E 4.0 x8 или PCI-E 3.0 x16. Надеюсь теперь стало понятно.

Что же касается самих видедеокарт PCI-Express 5.0, на данный момент нет таких моделей. Но есть большая вероятность, что уже в 2025 году, с выходом новинок от AMD, NVIDIA и Intel мы увидим такие видеокарты в продаже.

  • 1885
  • 💓 1
·
Added a discussion

Новые видеокарты от NVIDIA: RTX 4070 SUPER, RTX 4070 Ti SUPER и RTX 4080 SUPER появятся уже в январе 2024 года. Указано, что RTX 4070 SUPER мощнее RTX 3090, при этом ее стоимость начинается 599 долларов.

RTX 4070 SUPER имеет на 20% больше ядер CUDA, чем обычная версия. RTX 4070 Ti SUPER это еще более производительный вариант видеокарты, которая по мимо увеличенного количества ядер CUDA имеет еще больший объём видеопамяти. Что касается RTX 4080 SUPER, она также имеет больше ядер CUDA, чем обычная версия, но главное ее преимущество, быстрая видеопамять GDDR6X 23 Гбит/с.

Несмотря на то, что RTX 4080 SUPER является улучшеной версией, она все же уступает видеокарте RTX 4090 по производительности.



  • 1680
  • 😲 2
·
Added a discussion

Подбор видеокарты к материнской плате осуществляется по нескольким основным характеристикам и параметрам. В этой теме я подробно рассказываю, как правильно подобрать видеокарту к материнской плате.

При подборе видеокарты, необходимо узнать, имеется ли свободный слот PCI-Express x16 на материнской плате, а также его версию. Если он есть и определена версия, можно приступать к подбору.

Например, мы выяснили, что на материнской плате имеется свободный разъем PCI-E x16 версии 4.0. В таком случае, будет предпочтительным выбрать видеокарту, которая имеет такой же интерфейс, с той же версией, то есть PCI-Express 4.0. При таком выборе нам не важно сколько линий PCI-E будет задействовать видеокарта, она раскроет весь свой потенциал так, как задумано производителем, если конечно того позволит процессор, оперативная память и блок питания.

Соответсвенно, подключая видеокарту с PCI-E x16, x8 или x4 она не будет испытывать недостатка, а все благодаря тому, что версии интерфейсов и шины PCI-Express на обоих устройствах имеют одинаковую пропускную способность.

Если же материнская плата имеет другую версию PCI-E x16, например 3.0 или 2.0, в таком случае, видеокарта (PCI-E 4.0) тоже подойдет и будет работать, но ее производительность может снизиться, особенно это касается видеокарт использующих не 16 линий интерфейса PCI-E, а 8 или вообще 4 (x8, x4). При таком подборе, произойдет уменьшение пропускной способности из-за более старой версии PCI-Express на материнской плате, в итоге видеокарта может не раскрыть весь свой потенциал.

В реальных тестах замечено, что видеокарта с PCI-Express 4.0 x16 и x8 подключенная к материнской плате с шиной PCI-E 3.0 x16 практически не теряет своей производительности. А вот те видеокарты (PCI-E 4.0), которые используют только четыре линии PCI-E 3.0 значительно снижают ее. Соотвественно с версией 2.0 производительность снизится еще больше, но работать все равно будет.

Что касается совместимости материнских плат и видеокарт с PCI-E версии 5.0, то здесь все тоже самое, все будет работать, но пропускная способность будет определяться по наименьшей версии PCI-E. Например, если видеокарта PCI-Express 4.0 x16 будет подключена к материнской плате с интерфейсом PCI-E 5.0 x16, то взаимодействие между этими устройствами будет происходить по наименьшей версии, то есть по версии видеокарты 4.0.

Надеюсь, что теперь вы понимаете, как подбирать видеокарты к материнским платам. Если есть вопросы или что-то не получается, пишите об этом в комментариях. Буду рад помочь.

    

  • 815
  • 💓 2
·
Added a discussion

Те кто хоть раз мониторил показатели температур видеокарты могли заметить, что GPU в процессе работы греется меньше, чем значение Hotspot и это нормально. Чтобы лучше разобраться в данном вопросе, рекомендую прочитать, что такое GPU Hotspot. А теперь поговорим о том, какая разница температур GPU и Hotspot считается нормальной.

Я протестировал новые из «коробки» видеокарты и выявил, что разница между GPU и Hotspot 10-15 градусов по Цельсию. Например, если GPU греется до 60 градусов, то Hotspot в этот момент 70-75 - это нормально. Если же температура сильно превышает эти значения, например на 25-30 градусов, стоит задуматься об обслуживании видеокарты: замены термопасты, чистке радиатора и вентиляторов. Также необходимо проверить эффективность отвода тепла из корпуса системного блока, для этого нужно снять боковую крышку и повторить замеры температур. Если они значительно снизились, в таком случае требуется улучшить вентиляцию, дать больше притока и оттока воздуха.

В моей практике были такие случаи, когда температура GPU была 67 градусов, а Hotspot в этот момент 104-105 градусов по Цельсию. Из данной информации можно понять, что разница составляет целых 37-38 градусов, что очень много. Решение оказалось простым, заменили термопасту и все пришло в норму. Таким образом удалось снизить температуру GPU до 62 градусов, а Hotspot до 79.

Но что делать, если замена термопасты, чистка системы охлаждения видеокарты, улучшение вентиляции корпуса не помогают снизить температуру GPU Hotspot? Тут есть несколько вариантов, увеличить обороты кулеров видеокарты или сделать андервольтинг/даунвольтинг. В некоторых случаях эти способы позволяют снизить температуры на 10-15 градусов. Но получить нормальную разницу между GPU и Hotspot таким образом не всегда удаётся.

В завершении хочу уточнить, что если показатели Hotspot при максимальной нагрузке на видеокарту находятся в норме, а это может быть и 90 градусов (зависит от конкретной модели видеокарты), не происходит сбрасывания тактовых частот, компьютер не зависает, не «тормозит», не перезагружается, нет артефактов, то не стоит беспокоиться.

Есть вопросы? Задавайте их в комментариях ниже, не забудьте подписаться, я пишу много интересного о видеокартах и компьютерных комплектующих в целом.

 

  • 1458
  • 2

Тут нужно добавить еще то, чтобы обращали внимание на все спецификации материнской платы, ибо очень часто PCI-Express 4.0 только один, как правило это x16 под видеокарту. Остальные PCI-E разъемы и их шины могут работать другой версии, например 3.0 под SSD NVMe. Я впервые раз когда купил материнскую плату, глянул что есть PCIe 4.0 и с радостью купил ее, но когда начал читать полные характеристики то обнаружил, что только один слот под видеокарту является 4.0 версией, а остальные были 3.0. Кроме того, на ней было два разъема форм-фактора x16, как оказалось, нижний работает только в режиме x8. Так что нужно тщательно изучать параметры. А то купите SSD NVMe 4.0, а на материнке будет только 3.0-версии.

  • 1333
  • 💓 2
·
Added a discussion

Самая дорогая и производительная «гражданская» видеокарта в мире на 2023 год - это RTX 4090, ее цена варьируется и зависит от вендора (производителя) и характеристик.

На данный момент MSI GeForce RTX 4090 SUPRIM и ASUS GeForce RTX 4090 ROG Strix OC Edition стоят в районе 280000 рублей.

В это же время, GIGABYTE GeForce RTX 4090 WINDFORCE V2 стоит на 100 тысяч дешевле самых дорогих видеокарт от ASUS и MSI с графическим процессором RTX 4090.

Хочу подчеркнуть, что RTX 4090 - это самая дорогая видеокарта 2023 года. Если мы будем брать во внимание старые видеокарты, то в прошлом были некоторые модели от NVIDIA, которые стоили еще дороже, чем сейчас эта модель.

  • 1550
  • 1