Също като дъната с два биоса. Не, че им трябват..

Здравейте! Вероятно използвате блокиращ рекламите софтуер. В това няма нищо нередно, много хора го правят. |
Но за да помогнете този сайт да съществува и за да имате достъп до цялото съдържание, моля, изключете блокирането на рекламите. |
Ако не знаете как, кликнете тук |
Също като дъната с два биоса. Не, че им трябват..
Сега се загледах в характеристиките на картите и май АМД са почнали да хитреят с надеждата, че почти никой няма да сравнява и ще доят овцете за пари, а ще им продават среден клас. От първата до втората карта разликата е 12 CU и едва 70 долара, докато от втората до третата разликата е само 8 CU, а разликата в цената е цели 350 долара.Mozo написа: ↑чет окт 29, 2020 12:12AMD RX 6900 XT
Compute Units: 80
Boost Clock: 2250Mhz
RAM: 16GB GDDR6
Infinity Cache: 128MB
TDP: 300W
Price: $999
AMD RX 6800 XT
Compute Units: 72
Boost Clock: 2250Mhz
RAM: 16GB GDDR6
Infinity Cache: 128MB
TDP: 300W
Price: $649
AMD RX 6800
Compute Units: 60
Boost Clock: 2105Mhz
RAM: 16GB GDDR6
Infinity Cache: 128MB
TDP: 250W
Price: $579
Както обикновено само глупости на камари, неактуални от 20 години поне
Нищо няма да се оправи докато не мине през MESA, в момента цялото хардуерно ускорение минава през там а не през на Nvidia измишльотините (AMD се усетиха още 2016та).
1. Никой не ти е виновен, че не правиш поне теоретично сравнение между картите. Аз винаги проверявам в този сайт преди да си избера видеокарта: http://www.hwcompare.com/46361/geforce- ... on-rx-580/ROKO__ написа: ↑пон юли 25, 2022 10:00Както обикновено само глупости на камари, неактуални от 20 години поне
Да ти споделя разликата между RX 580X и недоразумението RTX 3050 което купих наскоро?
Освен че RTX 3050 се оказа даунгрейд спрямо RX 580X също така ако споделя и температурите на едната и другата, то резултата няма да ти хареса определено :>
Е те там останаха, 5 години не можаха да направят 10 нанометровия, и като го направиха какво? 100 градуса с водно охлаждане.
500 W? Дали?
Затова казах "теоретично" - да ги сравниш по документни характеристики. По-добре така, отколкото да дадеш няколко хиляди на вятъра и да се окаже, че си даунгрейднал.
Ми като си си купил оувърклокната видеокарта, няма как да очакваш ниски температури. Ти що мислиш им слагат по 2-3-4-5 вентилатора на тия видеокарти?
Ако i7-цата е калорифер, какво да кажем за излагацията Райзен, а? За едни нищо и никакви 7 кадъра отгоре, които очите ти дори няма да усетят разликата, получаваш 30 градуса отгоре.
За това, че ти не знаеш как да си охлаждаш хардуера правилно, не са ти виновни от интел. Преди да си взема i7-цата един "професор" като теб в калната дата ми разправяше каква печка бил, как не бил падал под 80 градуса, а аз не съм го виждал да вдига над 60 градуса, дори и по време на бенчмаркове, което товари много повече от игра.
Има си достатъчно материали които го доказват.tmp_ZMx2fK6aL4 написа: ↑пон юли 25, 2022 14:53500 W? Дали?
https://www.xda-developers.com/intel-12 ... lder-lake/
За другите не зная нито пък ме интересува, но аз лично 5-ти път с AMD няма да се излъжа.
Нито AMD CPU нито AMD GPU повече за мен - ever!