Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestAMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2
Will CB jetzt nicht für den Titel hier in Schutz nehmen (ohne Frage Clickbait wenn man selbst nicht den Vergleich zur 2080 zieht), aber beim 9900k gab es eine ähnliche Überschrift: "Core i9-9900K & i7-9700K im Test: Sehr schnell. Sehr durstig. Extrem teuer."
Nvidia hat beginnend mit den Maxwell-Chips die Effizienzsteigerung seitens Spannung über Pascal und inzwischen mit Turing einfach perfektioniert. AMD scheint da in gewisser Weise hinterherzulaufen. In Vega20 Chip haben sie es ja gleichfalls weiterentwickelt, aber es scheint immer noch UV-Potential vorhanden zu sein.
Manchmal glaube ich auch AMD Grafikarten gibts nur, damit die Kunden AMD Karten kaufen sich ärgern und dann nochmal Geld ausgeben für nVIDIA. Wer billig kauft, kauft 2mal. Wer weiß vllt ist AMD ja eine Tochterfirma von nVIDIA 🤣
Also bei der Auswahl mit 2080 und R VII fühl ich mich (übertrieben ausgedrückt), wie mit Pest und Kolera.
Die eine zu wenig RAM, die andere zu Lahm und beide zu teuer.
Hat sich AMD dann zu wenig Zeit gegönnt, um den letzten Schliff zu geben und die API fertig zu stellen, sodass die Spannungen deutlich niedriger ausgelootet werden können?
Ich frage mich auch, ob es denn so schwierig ist, das in einem AutoUV Profil hinzubekommen.
Denn wie betreibt man den manuelles UV? Man legt eine möglichst große Last an und verringert dabei schrittweise die Spannung, bis die Karte nicht mehr will.
Das merkt man nach dem Umstellen meist daran, dass das Bild einfriert oder der Treiber abstürzt.
Eine AutoUV Funktion arbeitet aber ja viel schneller beim anpassen der Spannungen, sodass ja eigentlich sofort in dem Moment, wo die Karte hängenbleiben würde, wieder ein paar mV draufgegeben werden können, damit es weiter läuft.
Wenn die Karte das mal in ein paar Situationen gemacht hat, weiß der Treiber doch, wo das Limit für die jeweilige Karte liegt.
Man könnte im Treiber sogar optional ein Benchmarktool einfügen, woran sich die AutoUV Funktion dann ihre Spannungen einstellt.
Jesus .... Alternate hat wohl voll nen Dachschaden - ab 779€ xfx und dann 799€ asus.
Soviel zum Thema direkt bei AMD kaufen, "where to buy...".
Bzgl. UV - ich bin ja auch AMD-Fan - aber ich denke, dass nur die Glücklichen sich hier melden und von "berauschenden" Ergebnissen posten - daher würde ich mal stark annehmen, dass die Spannung seitens AMD schon bewusst so ist, wie sie ist um die Streuung aufzufangen und da sollte man auch niemanden Hoffnungen machen.
Vlt. bietet ja dann der Sommer oder Herbst einen Mittelklasse-Preiskrieg, so dolle ohne UV war das ja wirklich nicht.
Plotttwist: in 3 Jahren fangen die 8GB - Karten an zu versagen. -> Lief ja seit 2012++ bis jetzt immer so bei Nvida vs AMD.
Man sollte aber nicht Äpfel mit Birnen vergleichen. Die billigen Customvarianten einer 2080 taugen absolut nichts. Auch da muss man mindestens 700 Euro auf den Tisch legen um was halbwegs vernünftiges zu bekommen - eher 750 Euro.
Keine Ahnung was alle haben, man wusste doch vorher bereits wie die Karte performt?
Was man nicht wusste war, wie gut der Kühler ist (nicht so gut) und wie gut man UVen kann (sehr gut).
Weiß hier vlt. jemand, was COD WW2 mit dem Grafikspeicher eigentlich anstellt? So wie das Game aussieht.....
Tatsächlich ? https://www.hardwareluxx.de/index.p...dia-macht-physx-zur-open-source-software.html
" Das PhysX SDK kommt in über 500 Spielen zum Einsatz und wird von Game-Engines wie Unreal Engine 3 und 4, Unity, AnvilNext, Stingray, Dunia 2 und REDengine verwendet. Besonders die Simulation von Stoffen und Zerstörung von Level-Elementen wurde laut NVIDIA erst durch PhysX möglich. Dazu gehören Batman: Arkham Asylum, Batman: Arkham City, Bioshock Infinite, Borderlands 2, Lords of the Fallen, Monster Hunter Online, Daylight und Witcher 3. "
ich bin mir ziemlich sicher das dieselben Objekte sich auch bei AMD GraKa zerstören ließen , nur halt nicht von diesen berechnen .
demnächst könnte Phys X auch auf AMD Karten laufen , NV hat es open Source gemacht
Vermutlich ähnlich wie Black Ops 3, dort haben die ja auch aus irgendeinem Grund den ganzen verfügbaren VRAM reserviert. Wirkliche Nutzung lässt sich ja nicht so leicht rausfinden, alle Tools zeigen afaik nur den reservierten VRAM an.
Ich wollte mir eigentlich eine kaufen. Aber jetzt ist das alles erstmal ernüchternd. Erst nochmals den Test in Ruhe lesen und verdauen Aber vermutlich bleibe ich doch vorerst bei meiner Vega 56.
In allen Tests die ich bisher gelesen habe soll diese doch deutlich hörbar sein und das Lüftergeräusch ist auch ned angenehm. Selber aber habe ich Sie noch nicht verbaut, sodass ein abschließendes Urteil ich mir nicht bilden kann, aber wohl wissend das nahezu alle billigen Customs für mich zu laut sind - allen voran im Idle. Ich bin immer auf der Suche nach einer Leisen Karte und da auch sehr pingelig, aus dem Grund kaufe ich auch nie Referenz. Auch diese AMD Karte würde für mich nicht in Frage kommen. Die beste RTX 2080 die ich in den Händen gehalten habe war die Gigabyte Gaming OC. Kostet zZ 750 Euro war sonst immer bei über 800. Für meine 2070 von Asus habe ich 535 bezahlt - was zumindest was die Lautstärke angeht sich bezahlt gemacht hat.