Test AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2

Wadenbeisser schrieb:
@MK one
Womit wir beim Verdrehen von Tatsachen wären denn ich schrieb exakt das Gegenteil.
Normales PhysX -> nur für die CPU
beschleunigtes PhysX -> für die GPU/PPU mit Fallback auf die CPU.
aha , könnte man das so verstehen das die CPU grundsätzlich in der Lage ist " beschleunigtes Phys X " zu berechnen , da sie ja als Fallback fungieren kann ? oder exestiert dieser Fallback Mode wiederum nur bei installierter NV GPU ?

Da jetzt ja offenbar PhysX komplett Open Source ist könnte es wieder an Bedeutung gewinnen obwohl ich denke das die Game Engines mittlerweile ähnliche Effekte über Shader berechnen lassen dürften
 
Zuletzt bearbeitet:
blackiwid schrieb:
Aber Wenn ich immer lese wer so teure Grafikkarten kauft sind das offenbar auch häufig Leute die die karten 3-5 Jahre behalten bevor sie ne neue Kaufen. Da sind natürlich 16 GB Ram Gold wert.

Nein, einfach nein.

Lies dir mal bitte meinen Post hier durch: https://www.computerbase.de/forum/t...-mit-16-gb-hbm2.1854039/page-52#post-22277145


Ich kann es auch nochmal in Kurzform schreiben:
In 4 Jahren ist die R7 so alt wie meine jetzige GTX 970 mit 4gb Ram.
Nehmen wir an meine GTX 970 hätte 8gb Vram, wär sie dann heutzutage noch schneller?
Nein.
GPU ist zu lahm.
ruckel ruckel ruckel

Witcher 3, maxed out Settings, 1440p:
GTX 970 4gb Vram: 25.5 FPS
Radeon RX 580 8gb Vram: 27.7 FPs
ruckel ruckel ruckel
 
  • Gefällt mir
Reaktionen: Luzifer71 und .Sentinel.
Die Überschrift ist für den Arsch, da gibt es eigentlich nichts zudiskutieren.
Ist halt wirklich traurig von CB, der Test an sich gehört aber international zu den besseren.

Hier mal andere Überschriften aus DE:
"Heißes Eisen im Test: AMD Radeon VII – mit viel Anlauf und Wind auf Augenhöhe zur Geforce RTX 2080"
"AMD Radeon VII im Test: Mit 16 GiByte zum Sieg gegen die Geforce RTX 2080"
"High-End-Grafikkarte Radeon VII: RTX-2080-Konter für 730 Euro"
"AMD Radeon VII im Test - Kann sie die Geforce RTX 2080 schlagen?"
"AMD Radeon VII: Erster Grafik-Prozessor in 7-nm-Fertigung im Test"
"RADEON VII IM TEST die Grafikkarte für Videospeicher-Liebhaber"
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fresh-D, Herr Melone, Thraker und 4 andere
Oh ha, bei der Überschrift ist die schlechte Presse/Meinung ja direkt im Vorfeld vorgefasst.
Danke CB. :(
Bitte in Zukunft bei allen Tests solch ehrliche und vorgefasste Überschriften.

Topic:
Es war für mich von vorne herein klar, dass die neue Vega auch nicht zaubern kann. Die Architektur ansich hat sich ja nicht verändert und das wäre wohl auch zu teuer gewesen für AMD, um in "kurzer Zeit" was in der Richtung auf die Beine zu stellen.
Das der Boost-Takt jetzt durchgängig gehalten werden kann, ist in meinen Augen eines der Features der neuen V7. Davor war der max. Boost ja eher so die Wunschvorstellung im Treiber. :D

Auch das hier in der Überschrift direkt was am Preis gemeckert wird, omg. Das ist die UVP. Wenn man sich mal die 2080 angucken würde, dann würde man feststellen das die letztes Jahr beim Release noch viel mehr gekostet hat. Natürlich hat sich der Preis jetzt tiefer eingependelt, aber das jedes mal bei Release einer Sache die UVP mit dem Straßenpreis eines seit Wochen/Monaten verfügbaren Produktes zu verglichen wird ist schlicht unfair. :rolleyes:
(Wenn auch aus Käufer-Sicht nachvollziebar! Aber dann braucht man auch nicht auf den Test zu warten. Die UVP/MSRP sickert ja häufig schon kurz vorher irgendwo durch und dann weiß man woran man ist.)


Btw. ich habe bei Tomshw.de auch noch ein guten Absatz von Igor (@FormatC hier bei CB) im Fazit gefunden:
[...]Wer zudem in der Klasse über 600 Euro selbst um wenige Euro oder ein paar Kilowattstunden mehr oder weniger feilscht, obwohl es ihn nicht umbringen würde, sollte lieber in der Küche Erbsen zählen gehen.[...]

Das trifft bei der ganzen Strom-/Geld-Diskussion rund um die (High-End) Karten von AMD in den letzten Jahren so ziemlich den Nagel auf den Kopf. Wer so viel Geld für eine Grafikkarte übrig hat und sich dann noch über den Stromverbrauch aufregt, der hat definitiv das falsche Produkt gekauft und eigentlich andere Sorgen als die paar Watt die mehr verbraucht werden. (und die sowieso nicht die ganze Zeit anliegen; z.B. wenn man aus dem Spiel raus-tabbt, dann springt der Takt von modernen Grafikkarten automatisch auf den 2D/Desktop Takt und der Verbrauch geht um ein vielfaches runter)
 
  • Gefällt mir
Reaktionen: Herr Melone, Rockstar85, timberwear und 3 andere
F4naTy schrieb:
Die Überschrift ist für den Arsch, da gibt es eigentlich nichts zudiskutieren.
Ist halt wirklich traurig von CB, der Test an sich gehört aber international zu den besseren.

Hier mal andere Überschriften:
"Heißes Eisen im Test: AMD Radeon VII – mit viel Anlauf und Wind auf Augenhöhe zur Geforce RTX 2080"
"AMD Radeon VII im Test: Mit 16 GiByte zum Sieg gegen die Geforce RTX 2080"
"High-End-Grafikkarte Radeon VII: RTX-2080-Konter für 730 Euro"
"AMD Radeon VII im Test - Kann sie die Geforce RTX 2080 schlagen?"
"AMD Radeon VII: Erster Grafik-Prozessor in 7-nm-Fertigung im Test"
"RADEON VII IM TEST:Die Grafikkarte für Videospeicher-Liebhaber"
Toll, Gamestar hat eine 92ner Wertung und sogar den Platin Award vergeben.
Kaufen wird das Ding trotzdem keiner, kannst dir ja mal da die Kommentare durchlesen:
https://www.gamestar.de/artikel/amd-radeon-vii-im-test,3340176.html
 
@Fresh-D
Zitier doch gleich den ganzen Absatz dann wird ein Schuh draus.
Wer zudem in der Klasse über 600 Euro selbst um wenige Euro oder ein paar Kilowattstunden mehr oder weniger feilscht, obwohl es ihn nicht umbringen würde, sollte lieber in der Küche Erbsen zählen gehen. Wer jedoch wirklich hart sparen muss, weil er sich etwas ganz Besonderes fürs Hier und Heute kaufen möchte, ist mit einer GeForce RTX 2080 für aktuell 649 Euro (und mehr) wohl doch besser und vor allem auch leiser aufgehoben.

Ja ich gehe da mit wegen ein paar KW/h mehr oder weniger bekomme ich keine grauen Haare leider geht das fast immer mit erhöhten Anforderungen an die Kühlung einher und hier trift es Igors vergleich mit einem Fön auf den Kopf.
 
  • Gefällt mir
Reaktionen: Luzifer71 und Fresh-D
MK one schrieb:
aha , könnte man das so verstehen das die CPU grundsätzlich in der Lage ist " beschleunigtes Phys X " zu berechnen , da sie ja als Fallback fungieren kann ?

Da jetzt ja offenbar PhysX komplett Open Source ist könnte es wieder an Bedeutung gewinnen obwohl ich denke das die Game Engines mittlerweile ähnliche Effekte über Shader berechnen lassen dürften
Natürlich und würden sie sich endlich mal dazu bequemen die PhysX System Software auf einen aktuellen Stand zu bringen (Unterstützt die Beschleunigung von NVIDIA PhysX auf GeForce für die SDK-Versionen 2.7.1, 2.7.3, 2.7.4, 2.7.5, 2.7.6, 2.8.0, 2.8.1, 2.8.3 und 2.8.4.; letzte Aktualisierung 22.6.2016) dann könnte man damit auch alle Kerne nutzen und die GPU Beschleunigung würde vermutlich erheblich an Bedeutung verlieren. Alternativ könnte man es aber auch auf eine klassische GPGPU Schnittstelle portieren und so für alle nutzbar machen aber vermutlich gibt es dagegen Vertragsklauseln....
 
  • Gefällt mir
Reaktionen: Baal Netbeck
KlaraElfer schrieb:
Warum kritisiert man denn die Überschrift zu vehement?
Sie fasst doch einfach nur zusammen, wie es ist.
Beim Bulldozer hat man es ja auch in die Überschrift geschrieben. Ein schwarzer Mittwoch.
Hier ist es ähnlich.

Beim Test zur NV RTX hat man das eben nicht gemacht, obwohl sie maßlos überteuert released wurde, das hat man unter den Tisch fallen lassen. (Zu dem Preis wo die RTX2080 jetzt allerdings verfügbar ist, ist sie eine sehr empfehlenswerte untere Oberklasse Option gegenüber der Vega 7, nur war das eben nicht immer so und wird sich auch eventuell wieder ändern wenn die Preise der Vega 7 nach ein paar Monaten fallen)
Der Bulldozer war und ist Kernschrott, bin ich deiner Meinung, brauchen wir nicht drüber reden.


16 respektive 13% in den gängigen Auflösungen sind nicht "etwas", das ist eher schon die Hälfte einer GPU Klasse und nimmt man die E Sports Benchmarks mit dazu, dann sind wir schon bei 18%, bzw 15% in WQHD.

Ja, stock, aber undervoltet sieht die Welt schon wieder ganz anders aus. Im besten Fall reden wir hier über 15 FPS, das macht den Bock nicht fett, wir reden hier nicht wie bei ner entry level GPU über spielbar und nicht spielbar.
Nochmal ! Das ist die dritt schnellste Gaming GPU über die wir hier reden !

Ja und? Darf man das dann nicht in die Überschrift schreiben?

Man darf alles, aber man muss eben damit rechnen, dass es Kritik hagelt, sieht man auch gut an anderen Beiträgen in dem Thread hier. Viele, sogar NV Sympathisanten finden die Überschrifft unpassend.


Und ich habe dir erklärt, wie man Überschriften wählen kann.
Deswegen ist das Fazit auch nicht anders. Mir fällt dazu nur Mimimi ein.

Du kannst mir erklären was du willst, ändert an meiner Kritik nur leider nichts. Das Fazit (nicht die Überschrifft) passt für mich grundsätzlich schon, dein "Mimimi" kannste dir aber stecken ! Die Headline ist nicht objektiv gewählt für mich und für viele andere auch und ich nehme mir das Recht raus, das auch hier zu äußern. Würde das genau so auch bei nem NV Test machen mit so nem bescheuerten Titel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Herr Melone, Thraker, Sarxos und 2 andere
Na da ist der "Hype Train" wohl abgefahren... Was genau sollte einen jetzt dazu bewegen diese Karte zu kaufen wenn es die RTX 2080 billiger und in ausreichender Stückzahl gibt? Die 16 GB HBM? :p
 
  • Gefällt mir
Reaktionen: ridgero
Und da haben wir es, das gleiche Spiel wie bei Vega:

Karte da - wesentlich weniger verpätet als Vega sogar
Karte in Ordnung - hier mit 16GB HBM2 sogar noch ein Sahnehäubchen, dass die Vega nicht hatte
Preise on Par mit der Konkurrenz

Aber nein, man muss natürlich sämtlichen möglichen Partnerkarten, die billiger und/oder besser sein könnten, einen Riegel vorschieben. :grr:
Bis es - eventuell - Partnerkarten geben wird, wird die Karte dann vielleicht sogar schon wieder uninteressant sein aber zumindest mal nicht mehr im Rampenlicht stehen.

Warum AMD? Wieso macht ihr euch mit solchen schwachsinnigen Einschränkungen erneut euer eigentlich interessantes Angebot kaputt? Ich verstehe es einfach nicht... :rolleyes:
 
  • Gefällt mir
Reaktionen: Rock Lee, dr. lele, Chaos Theory und eine weitere Person
Verstehe nicht wieso AMD auch bei den GPUs so konservativ hohe Spannungen ab Werk ansetzt. Wieviel unnötige Energie das verschlingt sieht man im Test.

Der HBM2-Speicher ist sauteuer und leistungsstark. Warum wird der Preis der Karte unmittelbar in der Überschrift kritisiert? Neutral ist das so sicher nicht.

Die VII ist ein Ableger der auf den DataCenter-Markt ausgerichteten Schwestermodelle. Wenn man als "Nebenwirkung" eine Grafikkarte erhält, die mit der schnellsten Comsumer-Konkurrenz nahezu gleichauf liegt, dann finde ich das eine beachtliche Leistung.
 
  • Gefällt mir
Reaktionen: yummycandy, GreitZ und geist4711
@Beitrag: Ja das finde ich auch merkwürdig, fast so wie bei der Fury X damals.
Obwohl man ja die Lüfter abmontieren könnte und mit Kabelbindern 2 120er Lüfter dran machen könnte.
Sieht zwar hässlich aus erfüllt aber bestimmt seinen Zweck.

Btw. fehlt hier irgendwie auch noch der Vergleich zwischen dem Graphitpad, WLP & Flüssigmetall. Wenn man schon kräftig an der UV-/OC-Schraube dreht, dann kann man auch noch mal die unterschiedliche Wärmeleitfähigkeit zwischen den 3 unterschiedlichen Arten untersuchen.
Ergänzung ()

@nazgul77: AMD versucht halt seit vielen Jahren die Chip-Ausbeute aus der Fabrik kontinuierlich hochzuhalten. Wenn man nur Chips mit 1V oder 0,95V akzeptieren würde wäre der Testaufwand wieder größer/teurer und das würde sich dann auch im Preis niederschlagen.
 
Bitte dann auch die 2080 um 100mV undervolten für einen fairen Vergleich. Es sei denn man wollte RTG nicht ganz bloßstellen.
 
  • Gefällt mir
Reaktionen: Luzifer71
Beitrag schrieb:
Warum AMD? Wieso macht ihr euch mit solchen schwachsinnigen Einschränkungen erneut euer eigentlich interessantes Angebot kaputt? Ich verstehe es einfach nicht... :rolleyes:
Weil die nicht anders können.
Das ist eine Mi50 für Low-End Content Creator mit einem Hauch von Gaming.
https://www.amd.com/de/products/professional-graphics/instinct-mi50

Man hat halt versucht das beste aus der Mi50 "rauszuholen".
Und da die den teuren 16GB HBM² Speicher hatte, ging die R7 eben auch nur mit dem.

Wenn sich das Ding halbwegs auf dem Markt integriert hat, gibt's schon Navi.

Wobei ja Navi eher Middle bis Low-End sein soll.

Das wird auch hart:
Du bringst dann 7nm in endlich neuer Architektur, und kannst nur mit der RTX 2060 mit halten. Aber natürlich mit mehr Speicher .... und mehr Speicherbandbreite. Was ja aber nix bringt, wenn die GPU Power so lala ist. Hoffentlich dann aber wenigstens nicht in Laut bzw. mit weniger Watt.

Aber mit Navi werden sie sich wohl nicht die R7 kaputt machen.

Ich hab jetzt die Hoffnung aufgegeben.
Von AMD kommt mit Navi dann wieder low end krams auf dem Niveau einer RTX 2060 und drunter.

Dann kannste auch jetzt dei RTX 2060 kaufen und hast dafür noch nen halbes Jahr eher Spaß ...
 
  • Gefällt mir
Reaktionen: DeadEternity
@Fresh-D
Mit WLP ist die TJunktion Temperatur höher und die Karte drosselt, obwohl die GPU Temperatur niedriger wird.
Das Pad wird nicht ohne Grund aufgebracht. Video mit Timestamp zu diesem Punkt.
 
  • Gefällt mir
Reaktionen: Fresh-D
nazgul77 schrieb:
Verstehe nicht wieso AMD auch bei den GPUs so konservativ hohe Spannungen ab Werk ansetzt. Wieviel unnötige Energie das verschlingt sieht man im Test.

Weil die GPUs schlicht und ergreifend in jedem Umfeld laufen müssen. Bei jeder GPU die Spannung zu selektieren würde extrem ins Geld gehen. Das käme einer 100% Prüfung gleich. Das kannst du in der Luftfahrt machen, nicht aber bei Elektronikprodukten, die unter anderem dem Unterhaltungswert dienen.

Chip A macht halt bei Spannung X mit, Chip B benötigt aber schon Spannung Y, damit er wie Chip A funktioniert.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Mort626
@MK one
Das muss sich erst noch zeigen was dabei raus kommt aber in meinen Augen gibt es nur einen Grund für nvidia es frei zu geben, es ist faktisch irrelevant geworden und es lässt sich damit kein Geld mehr verdienen. Entsprechend gering sehe ich die Chancen auf großartige Veränderungen am aktuellen Zustand.
Technisch scheint die PhysX System Software bis heute auf dem Stand von 2010 zu sein und wurde anscheinend nur mit Bugfixes versorgt.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Zurück
Oben