Test AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2

Die Lüftersteuerung scheint mit dem 19.2.1 auf Manueller Kurve immerhin zu funktionieren. Sie ist zwar noch "Laut" im Vergleich zur RX Vega 56 Pulse, der PC scheint aber nicht mehr abheben zu wollen. :daumen:
 
  • Gefällt mir
Reaktionen: s0UL1
Joshinator schrieb:
Mein fehler @deady1000 meint das wohl absolut ernst. Dann weiß ich auch nicht wie jemand wirklich glauben kann das die Karte 350€ Wert ist.

Ich wollte dich gerade auch fragen, was du rauchst. Klar meint der das Ernst, dass traurige ist nur das sein Account von 2008 ist und dann solche Aussagen von ihm kommen.
 
  • Gefällt mir
Reaktionen: Joshinator
Vielen Dank CB für den Test! Ich denke das Problem ist:

Die Vega 7 soll gegen die 2080 antreten. Dafür ist sie wie schon in der Überschrift dargestellt zu laut, zu langsam und zu teuer. Auf der anderen Seite. Der Sprung von 1080 zu 2080 ist in etwa der Gleiche wie von Vega 56 auf Vega 7. Das heißt aber auch, dass einige Prozente auf die 2080 fehlen, weil die Vega 64 gegen die 1080 antritt und nicht die Vega 56. Und damit begründet sich auch schon der zu höhe Preis. Schade, eine empfehlenswerte 2080 kostet 700€, Die Vega 7 soll aktuell etwa 750€ kosten. Ich fände alles unter 650€ für die Vega 7 ganz nett. Dabei aber immer mit dem Zusatz, dass man basteln (können) sollte, wenn man ein rundes Gesamtpaket haben will. Mal sehen was in Zukunft kommt und ob die 16GB HBM2 weiterhin so teuer bleiben.
 
Erschreckend wie viele AMD Fanboys hier rumlaufen und mit was für kaputten Kommentaren diese dieses stück hardware schrott rechtfertigen. Da bleibt echt nur zu hoffen das jeder intelligent genung ist selbst schlüsse zu ziehen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: indy1138
Oronnun schrieb:
Ich wollte dich gerade auch fragen, was du rauchst. Klar meint der das Ernst, dass traurige ist nur das sein Account von 2008 ist und dann solche Aussagen von ihm kommen.
Also steht immer noch die Frage im Raum, was Jemand raucht. Nur ist es eben nicht @Joshinator :jumpin:
 
  • Gefällt mir
Reaktionen: Joshinator
Eben! Es gab schon deutlich günstigere 2080er sogar teils unter 600€ zb im Mindstar.

Die KFA² GeForce RTX 2080 EX kostet sogar regular nur 649€ ohne Rabatte.

Klar hat die 8GB, aber diese 16GB sind auch echt das einzige Argument was die VII aufbringen kann. Und relevant ist es wohl für die Wenigsten.

Zu dem aktuellen Preisen ist die VII eine Totgeburt wie die Vega64 seinerzeit.
Nur was für Fans und Speicherfetischisten.
 
  • Gefällt mir
Reaktionen: Luzifer71
Die ganze Hoffnung liegt bei AMD wohl auf Ryzen, ich hoffe da hauen Sie was ordentliches raus.
 
  • Gefällt mir
Reaktionen: Stellarix, Luzifer71 und deady1000
mos_fragged schrieb:
Lese ich das richtig 1TB/s RAM Speed? 😮

Genau, richtig. AMD hat insbesondere alles bzgl. Speicher aufgebohrt: Sowohl die Menge mit unglaublichen 16 GB und die Bandbreite mit 1 TB/s.

Leider wurden andererseits weder die Anzahl der ROPs erhöht (das sind die Einheiten der GPU, welche die berechneten Daten ins VRAM zur Anzeige auf dem Bildschirm kopieren) noch insbesondere in der Geometrieverarbeitung was verbessert. Die ganze GCN-Architektur von AMD ist seit 2013 (!) limitiert auf 4 Renderpipelines (Nvidia ist bei 6 Stück) und auch innerhalb der Geometrieverarbeitung geht Nvidia (vermutlich) etwas effizienter vor - z.B. früher Aussortieren von Geometrie, die verdeckt ist und deshalb gar nicht gerendert werden muss und auch das Zwischenspeichern der Daten in den Caches für den späteren Zugriff).
 
  • Gefällt mir
Reaktionen: Unnu und .Sentinel.
Rolli_Jonson schrieb:
Erschreckend wie viele AMD Fanboys hier rumlaufen und mit was für kaputten Kommentaren diese dieses stück hardware schrott rechtfertigen.

Ich hab nicht alle 1444 Kommentare gelesen, aber solange es so unsachliche Kommentare wie deinen gibt, werden Fanboys auf allen Seiten angeheizt. Hardwareschrott, oh Mann, bitte versuch doch einen Kommentar zu verfassen, der sich differenziert mit dem Test auseinandersetzt. Das würde dir und allen Anderen zu Gute kommen.
 
  • Gefällt mir
Reaktionen: rolandm1, Rambo5018, ChrisM und 4 andere
Die Prophezeiungen sind also wahr geworden: Radeon 7 reißt Nvidia in Stücke... niicht 🤣
 
Rolli_Jonson schrieb:
Erschreckend wie viele AMD Fanboys hier rumlaufen und mit was für kaputten Kommentaren diese dieses stück hardware schrott rechtfertigen. Da bleibt echt nur zu hoffen das jeder intelligent genung ist seibe schlüsse zu ziehen

Komisch, bei mir läuft sie einwandfrei! Wieviele Karten hast du denn schon im PC gehabt dass du da so eine qualifizierte Aussage treffen kannst? :rolleyes:
 
Rolli_Jonson schrieb:
Erschreckend wie viele AMD Fanboys hier rumlaufen und mit was für kaputten Kommentaren diese dieses stück hardware schrott rechtfertigen. Da bleibt echt nur zu hoffen das jeder intelligent genung ist seibe schlüsse zu ziehen
Ich schaue dann mal ein paar Rechtfertigungen in Fermi-Tests durch

WTF! Ein Flop auf ganzer Linie. Idle Leistungsaufnahme Fail, Last extremer Fail. 5800 Ultra reborn. Ich glaubs nicht! :o

Die HD 5890 2GB wischt mit Fermi den Boden...
150 Watt über der HD5870?!? Ein schlechtes Abschneiden habe ich ja an der Stelle erwartet, aber mehr als 50Watt über der HD5970? Das schlägt ja wohl dem Fass die Krone ins Gesicht.

Gut, dass ich noch auf diesen Test gewartet habe. Wollte eigentlich bei NVidia bleiben, um den Treiber behalten zu können, aber das, was die da abliefern, ist eher was für Kernkraftwerksbetreiber, die Überschussstrom loswerden wollen.
was ist da nur falsch gelaufen? diese grafikkarte kann der radeon 5870 nicht ansatzweise das wasser reichen.
zwar gibt es leistung satt aber zu welchem preis? extrem hoher stromverbrauch extrem hohe temps und extrem laut, das ist in der tat desaströs.
es kommt einem vor, als ob nvidia nur die leistungskrone für sich beanspruchen möchte egal um welchen preis. das der rest aber meilenweit hinten bleibt scheint sie nicht zu jucken.
Wohl wahr. nVidia kann das Ding für 200€ mit einem großen "Fick dich Umwelt"-Aufkleber verkaufen - dann wäre sie sicherlich wirtschaftlich und ehrlich.

Luxmanl525 schrieb:
Hallo zusammen,

@ Pandora

Das wird auf den Kurs der Nvidia-Aktie mit Sicherheit keine Auswirkungen haben, denn Nvidia macht mittlerweile mit anderen Produkten mit Abstand den meisten Umsatz.

Schau dir nur mal die letzte Quartalsbilanz an.

So long...
Wow, du hast schon 2010 in jedem Post begrüßt. Geile Sache!

Die Community ist sich ziemlich einig bzgl. Fermi, bis auf:

Ich glaube, dass hier ist nVidias Pionierkarte auf dem DX11 Gebiet, und auf diese Architektur werden die nächsten 2, vielleicht 3 Graka-Generationen aufbauen. Es ist klar, dass aller Anfang schwer ist, siehe Lautstärke und Stromverbrauch, aber diese Karte wird wegführend sein auf dem Gebiet, siehe Tesselation und anderen Schnickschnack.
Auch glaube ich, dass die Karte ihrer Zeit voraus ist und eigentlich, so wie sie jetzt ist, nie hätte in den Handel gelangen sollen. Denn welche Spiele unterstützen schon die Features, die nvidia so anpreist. Bis es so weit ist, ziehen noch mindestens 1 bis 2 Jahre ins Land. Man kann deutlich sehen, dass nvidia zwar Mist gebaut hat, aber in Bezug auf Metro2033, welches die neue Technik zu großen Teilen benutzt, ist das ein krasser Unterschied zur ATI Generation der 5000er.

Okay, die GTX 480 wurde in der Tat völlig zerrissen.
Nichtsdestotrotz haben sich die Karten (leider) zu gut verkauft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel. und Benji21
DarkerThanBlack schrieb:
Mein Tipp. Kaufen und gut ist, denn die RADEON 7 ist deutlich besser, macht alles besser und ist weit über einer VEGA64!

Wieso soll man die für 749€ kaufen wenn man für 649€ (Gabs auch schon für ~600) eine RTX 2080 bekommt die schneller ist? Und jetzt sag nicht wegen den 16GB.

Manche hier sollten sich die "Tipps" einfach sparen denn dein Tipp ist weder aus Performance noch aus Kostengründen auch nur annähernd sinnvoll. Die Karte wäre okay, wenn sie um die ~600€ kosten würde oder zumindest 649€ wie die RTX 2080. Und nicht mal dann wäre es ein super Angebot. Sie ist in 4k gerade mal eben so schneller als ne 2070. Der Preis ist ne Lachnummer und ich bin gespannt ob es am Ende mit den Ryzen's genauso läuft wie hier. Große Klappe und nix ....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Luzifer71 und deady1000
Faust2011 schrieb:
Genau, richtig. AMD hat insbesondere alles bzgl. Speicher aufgebohrt: Sowohl die Menge mit unglaublichen 16 GB und die Bandbreite mit 1 TB/s.

Leider wurden andererseits weder die Anzahl der ROPs erhöht (das sind die Einheiten der GPU, welche die berechneten Daten ins VRAM zur Anzeige auf dem Bildschirm kopieren) noch insbesondere in der Geometrieverarbeitung was verbessert. Die ganze GCN-Architektur von AMD ist seit 2013 (!) limitiert auf 4 Renderpipelines (Nvidia ist bei 6 Stück) und auch innerhalb der Geometrieverarbeitung geht Nvidia (vermutlich) etwas effizienter vor - z.B. früher Aussortieren von Geometrie, die verdeckt ist und deshalb gar nicht gerendert werden muss und auch das Zwischenspeichern der Daten in den Caches für den späteren Zugriff).

Das habe ich nie gesagt, üble Nachrede, Anzeige ist raus xD
 
Kraudi2k schrieb:
Wieso soll man die für 749€ kaufen wenn man für 649€ (Gabs auch schon für ~600) eine RTX 2080 bekommt die schneller ist? Und jetzt sag nicht wegen den 16GB.

Umgekehrt funktioniert es doch genauso, seit Jahren.
 
  • Gefällt mir
Reaktionen: Rambo5018
Kraudi2k schrieb:
Wieso soll man die für 749€ kaufen wenn man für 649€ eine RTX 2080 bekommt die schneller ist? Und jetzt sag nicht wegen den 16GB. Manche hier sollten sich die "Tipps" einfach sparen denn dein Tipp ist weder aus Performance noch aus Kostengründen auch nur annähernd sinnvoll.
Eben 16GB stehen drauf und bringen letztendlich auch nicht mehr FPS.
Also bringt für den Moment einfach null Vorteil.

Bezüglich zukunftssicherheit:
Man muss eh früher wieder upgraden, weil die Karte ansich langsamer als eine RTX2080 ist. Der Speicher läuft vielleicht nicht so früh voll, aber wenn die Performance schon vorher 5-20% langsamer war ist es auch egal.

Und bezüglich OC und UV...
Ihr werdet mir nicht glauben, aber das kann man mit NVIDIA-Karten auch machen...

Was? Nein? Ehrlich? Darf er das?
 
  • Gefällt mir
Reaktionen: Luzifer71 und Kraudi2k
Mit FPS-pro-Euro lässt sich für die Radeon auch nicht argumentieren.
Gibt aber andere legitime Argumente abseits von FPS-pro-Euro (Sachen wie FreeSync mit allen FreeSync-Monitoren, oder Features wie Radeon Chill, oder nicht Nvidia-Untersützen (Partnerprogramm-Aktionen usw.)). Wie stark man die bewertet ist dann aber persönliches und emotionales Empfinden. Gilt auch für die Vorteile von Nvidia Karten ala RT, DLSS, Mesh Shader & Co.

Dafür müsste sie wirklich unter UVP fallen, in wie Fern das passiert mit der aktuellen Verfügbarkeit und der Herstellungskosten (wie hoch sie auch immer sein mögen), ist aber echt fraglich.
 
Ich danke für Computerbase für diesen ehrlichen Titel, der mich meinen Glauben an investigative journalistische Arbeit nicht verlieren lässt. Marketing-Reviews gibt es zuhauf.
 
  • Gefällt mir
Reaktionen: deady1000
Gibt es eine logische Erklärung für die Teils heftigen Differenzen von den AMD-Benchmarks zu denen von Computerbase?

Hier mal die Ergebnisse unter 4k bei allen Games, die in beiden Benchmarks verwendet wurden.Die Unterschiede sind so gewaltig, dass ich da keine Erklärung für finden kann. Zumal der bei AMD verwendete 7700k eher ein Bottleneck sein sollte, als der übertaktete 8700K bei CB.

Ich hätte jedenfalls erwartet, dass die FPS beim CB-System durchweg hätten höher ausfallen müssen. Immerhin hieß es doch, die Vorgaben von AMD und NVIDIA seien bei den Tests jeweils angewendet worden.

Destiny 2
AMD 65,1
CB 56,2

F1 2018
AMD (DX12!) 78,0
CB (DX11!) 57,9

Far Cry 5
AMD 62,0
CB 60,0

Mittelerde: Schatten des Krieges
AMD 54,3
CB 47,5

Moster Hunter World (das einzige Ergebnis, was meiner Meinung nach Sinn macht, wegen der besseren Hardware des CB-Systems, auch wenn der Unterschied größer ist, als erwartet)
AMD 35,4
CB 47,9

Shadow of the Tom Raider
AMD 47,5
CB 36,7

Wolfenstein 2
AMD 93,4
CB 70,3
 
Zurück
Oben