Test AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2

XTR³M³ schrieb:
ahja, ich weiss... intelbase bzw. nvidiabase... da muss man halt mal auf neutrale überschriften wenns um AMD geht verzichten als leser

Will CB jetzt nicht für den Titel hier in Schutz nehmen (ohne Frage Clickbait wenn man selbst nicht den Vergleich zur 2080 zieht), aber beim 9900k gab es eine ähnliche Überschrift: "Core i9-9900K & i7-9700K im Test: Sehr schnell. Sehr durstig. Extrem teuer."
 
  • Gefällt mir
Reaktionen: Obvision und K3ks
Taxxor schrieb:
Bei der 2080 bringt undervolten aber weniger als noch bei der 1080, da man hier bereits näher am Sweetspot liegt.

Nvidia hat beginnend mit den Maxwell-Chips die Effizienzsteigerung seitens Spannung über Pascal und inzwischen mit Turing einfach perfektioniert. AMD scheint da in gewisser Weise hinterherzulaufen. In Vega20 Chip haben sie es ja gleichfalls weiterentwickelt, aber es scheint immer noch UV-Potential vorhanden zu sein.
 
Manchmal glaube ich auch AMD Grafikarten gibts nur, damit die Kunden AMD Karten kaufen sich ärgern und dann nochmal Geld ausgeben für nVIDIA. Wer billig kauft, kauft 2mal. Wer weiß vllt ist AMD ja eine Tochterfirma von nVIDIA :verwandlung:🤣
 
Also bei der Auswahl mit 2080 und R VII fühl ich mich (übertrieben ausgedrückt), wie mit Pest und Kolera.
Die eine zu wenig RAM, die andere zu Lahm und beide zu teuer.
 
  • Gefällt mir
Reaktionen: onkel-foehn, CrustiCroc, tomasvittek und 4 andere
Man stelle sich vor die Karte würde OotB wie hier im Test mit den UV Einstellungen laufen.
Dann wären die Tests um einiges Positiver ausgefallen.


Ist halt wie die Frontiers Edition, Hybrid Graka nicht für jedermann.
 
Offtopic, mir gefällt die Smiley Auswahl nicht.

Am wichtigsten währen doch: Facepalm, Heulen und irgendwas womit man einfach ausdrücken kann das jemand Grütze von sich gibt.
 
  • Gefällt mir
Reaktionen: CrustiCroc, Euphorikus, Bard und eine weitere Person
Palmdale schrieb:
Hat sich AMD dann zu wenig Zeit gegönnt, um den letzten Schliff zu geben und die API fertig zu stellen, sodass die Spannungen deutlich niedriger ausgelootet werden können?
Ich frage mich auch, ob es denn so schwierig ist, das in einem AutoUV Profil hinzubekommen.

Denn wie betreibt man den manuelles UV? Man legt eine möglichst große Last an und verringert dabei schrittweise die Spannung, bis die Karte nicht mehr will.
Das merkt man nach dem Umstellen meist daran, dass das Bild einfriert oder der Treiber abstürzt.

Eine AutoUV Funktion arbeitet aber ja viel schneller beim anpassen der Spannungen, sodass ja eigentlich sofort in dem Moment, wo die Karte hängenbleiben würde, wieder ein paar mV draufgegeben werden können, damit es weiter läuft.
Wenn die Karte das mal in ein paar Situationen gemacht hat, weiß der Treiber doch, wo das Limit für die jeweilige Karte liegt.
Man könnte im Treiber sogar optional ein Benchmarktool einfügen, woran sich die AutoUV Funktion dann ihre Spannungen einstellt.
 
Jesus .... Alternate hat wohl voll nen Dachschaden - ab 779€ xfx und dann 799€ asus.
Soviel zum Thema direkt bei AMD kaufen, "where to buy...".

Bzgl. UV - ich bin ja auch AMD-Fan - aber ich denke, dass nur die Glücklichen sich hier melden und von "berauschenden" Ergebnissen posten - daher würde ich mal stark annehmen, dass die Spannung seitens AMD schon bewusst so ist, wie sie ist um die Streuung aufzufangen und da sollte man auch niemanden Hoffnungen machen.
 
  • Gefällt mir
Reaktionen: CrustiCroc und Joshinator
GHad schrieb:
Tja, die Radeon VII ist halt ne Enttäuschung. Wäre Sie 50% schneller als ne 2080ti, hätte 32GB Ram und würde 300€ kosten, dann...

...müsste NVidea endlich seine Preise senken und ich könnte mir eine 2080 leisten.

702.jpg
 
Euphorikus schrieb:
Ich bin ein Fänboy und habe nichts zu sagen
Vlt. bietet ja dann der Sommer oder Herbst einen Mittelklasse-Preiskrieg, so dolle ohne UV war das ja wirklich nicht.
Plotttwist: in 3 Jahren fangen die 8GB - Karten an zu versagen. -> Lief ja seit 2012++ bis jetzt immer so bei Nvida vs AMD.
 
schkai schrieb:
Man sollte aber nicht Äpfel mit Birnen vergleichen. Die billigen Customvarianten einer 2080 taugen absolut nichts. Auch da muss man mindestens 700 Euro auf den Tisch legen um was halbwegs vernünftiges zu bekommen - eher 750 Euro.

Was ist denn an der KFA² GeForce RTX 2080 EX für 650€ verkehrt?
 
  • Gefällt mir
Reaktionen: CrustiCroc und Luzifer71
Keine Ahnung was alle haben, man wusste doch vorher bereits wie die Karte performt?
Was man nicht wusste war, wie gut der Kühler ist (nicht so gut) und wie gut man UVen kann (sehr gut).
Weiß hier vlt. jemand, was COD WW2 mit dem Grafikspeicher eigentlich anstellt? So wie das Game aussieht.....
 
  • Gefällt mir
Reaktionen: Baal Netbeck, schkai und K3ks
USB-Kabeljau schrieb:
Das stimmt nicht.

GPU-PhysX gibt es nur in sehr wenigen Titeln. Und die entsprechenden Effekte werden mit AMD Grafikkarten einfach nicht dargestellt.
Tatsächlich ?
https://www.hardwareluxx.de/index.p...dia-macht-physx-zur-open-source-software.html
" Das PhysX SDK kommt in über 500 Spielen zum Einsatz und wird von Game-Engines wie Unreal Engine 3 und 4, Unity, AnvilNext, Stingray, Dunia 2 und REDengine verwendet. Besonders die Simulation von Stoffen und Zerstörung von Level-Elementen wurde laut NVIDIA erst durch PhysX möglich. Dazu gehören Batman: Arkham Asylum, Batman: Arkham City, Bioshock Infinite, Borderlands 2, Lords of the Fallen, Monster Hunter Online, Daylight und Witcher 3. "
ich bin mir ziemlich sicher das dieselben Objekte sich auch bei AMD GraKa zerstören ließen , nur halt nicht von diesen berechnen .

demnächst könnte Phys X auch auf AMD Karten laufen , NV hat es open Source gemacht
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Luzifer71
Oneplusfan schrieb:
Weiß hier vlt. jemand, was COD WW2 mit dem Grafikspeicher eigentlich anstellt?
Vermutlich ähnlich wie Black Ops 3, dort haben die ja auch aus irgendeinem Grund den ganzen verfügbaren VRAM reserviert. Wirkliche Nutzung lässt sich ja nicht so leicht rausfinden, alle Tools zeigen afaik nur den reservierten VRAM an.
 
Faust2011 schrieb:
Ich wollte mir eigentlich eine kaufen. Aber jetzt ist das alles erstmal ernüchternd. Erst nochmals den Test in Ruhe lesen und verdauen :o Aber vermutlich bleibe ich doch vorerst bei meiner Vega 56.
Lese mal lieber wo anders Testberichte. Alleine die Überschrift ist nicht Subjektive + Ausgewählte Benchmark
 
  • Gefällt mir
Reaktionen: Thraker und NoMercy77
Lübke82 schrieb:
Was ist denn an der KFA² GeForce RTX 2080 EX für 650€ verkehrt?

In allen Tests die ich bisher gelesen habe soll diese doch deutlich hörbar sein und das Lüftergeräusch ist auch ned angenehm. Selber aber habe ich Sie noch nicht verbaut, sodass ein abschließendes Urteil ich mir nicht bilden kann, aber wohl wissend das nahezu alle billigen Customs für mich zu laut sind - allen voran im Idle. Ich bin immer auf der Suche nach einer Leisen Karte und da auch sehr pingelig, aus dem Grund kaufe ich auch nie Referenz. Auch diese AMD Karte würde für mich nicht in Frage kommen. Die beste RTX 2080 die ich in den Händen gehalten habe war die Gigabyte Gaming OC. Kostet zZ 750 Euro war sonst immer bei über 800. Für meine 2070 von Asus habe ich 535 bezahlt - was zumindest was die Lautstärke angeht sich bezahlt gemacht hat.
 
  • Gefällt mir
Reaktionen: Kandalfus
MK one schrieb:
was oft an NV s Phys X liegt , bei NV auf den GraKa s berechnet , bei AMD zwangsläufig auf der CPU

Das letzte Spiel, dass PhysX in der HW rechnet, ist leider schon viele Jahre alt.

Deine Beiträge zu lesen, ist schon sehr anstrengend. Deine Agenda wird schon durch Dein Avatar klar. Eben Leute anpissen.
 
  • Gefällt mir
Reaktionen: Stuntmp02 und Dural
Zurück
Oben