Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2
Joshinator schrieb:Mein fehler @deady1000 meint das wohl absolut ernst. Dann weiß ich auch nicht wie jemand wirklich glauben kann das die Karte 350€ Wert ist.
Ich wollte dich gerade auch fragen, was du rauchst. Klar meint der das Ernst, dass traurige ist nur das sein Account von 2008 ist und dann solche Aussagen von ihm kommen.
Vielen Dank CB für den Test! Ich denke das Problem ist:
Die Vega 7 soll gegen die 2080 antreten. Dafür ist sie wie schon in der Überschrift dargestellt zu laut, zu langsam und zu teuer. Auf der anderen Seite. Der Sprung von 1080 zu 2080 ist in etwa der Gleiche wie von Vega 56 auf Vega 7. Das heißt aber auch, dass einige Prozente auf die 2080 fehlen, weil die Vega 64 gegen die 1080 antritt und nicht die Vega 56. Und damit begründet sich auch schon der zu höhe Preis. Schade, eine empfehlenswerte 2080 kostet 700€, Die Vega 7 soll aktuell etwa 750€ kosten. Ich fände alles unter 650€ für die Vega 7 ganz nett. Dabei aber immer mit dem Zusatz, dass man basteln (können) sollte, wenn man ein rundes Gesamtpaket haben will. Mal sehen was in Zukunft kommt und ob die 16GB HBM2 weiterhin so teuer bleiben.
Die Vega 7 soll gegen die 2080 antreten. Dafür ist sie wie schon in der Überschrift dargestellt zu laut, zu langsam und zu teuer. Auf der anderen Seite. Der Sprung von 1080 zu 2080 ist in etwa der Gleiche wie von Vega 56 auf Vega 7. Das heißt aber auch, dass einige Prozente auf die 2080 fehlen, weil die Vega 64 gegen die 1080 antritt und nicht die Vega 56. Und damit begründet sich auch schon der zu höhe Preis. Schade, eine empfehlenswerte 2080 kostet 700€, Die Vega 7 soll aktuell etwa 750€ kosten. Ich fände alles unter 650€ für die Vega 7 ganz nett. Dabei aber immer mit dem Zusatz, dass man basteln (können) sollte, wenn man ein rundes Gesamtpaket haben will. Mal sehen was in Zukunft kommt und ob die 16GB HBM2 weiterhin so teuer bleiben.
Rolli_Jonson
Banned
- Registriert
- Jan. 2019
- Beiträge
- 53
Erschreckend wie viele AMD Fanboys hier rumlaufen und mit was für kaputten Kommentaren diese dieses stück hardware schrott rechtfertigen. Da bleibt echt nur zu hoffen das jeder intelligent genung ist selbst schlüsse zu ziehen
Zuletzt bearbeitet:
Also steht immer noch die Frage im Raum, was Jemand raucht. Nur ist es eben nicht @JoshinatorOronnun schrieb:Ich wollte dich gerade auch fragen, was du rauchst. Klar meint der das Ernst, dass traurige ist nur das sein Account von 2008 ist und dann solche Aussagen von ihm kommen.
deady1000
Lt. Junior Grade
- Registriert
- Juni 2008
- Beiträge
- 300
Eben! Es gab schon deutlich günstigere 2080er sogar teils unter 600€ zb im Mindstar.
Die KFA² GeForce RTX 2080 EX kostet sogar regular nur 649€ ohne Rabatte.
Klar hat die 8GB, aber diese 16GB sind auch echt das einzige Argument was die VII aufbringen kann. Und relevant ist es wohl für die Wenigsten.
Zu dem aktuellen Preisen ist die VII eine Totgeburt wie die Vega64 seinerzeit.
Nur was für Fans und Speicherfetischisten.
Die KFA² GeForce RTX 2080 EX kostet sogar regular nur 649€ ohne Rabatte.
Klar hat die 8GB, aber diese 16GB sind auch echt das einzige Argument was die VII aufbringen kann. Und relevant ist es wohl für die Wenigsten.
Zu dem aktuellen Preisen ist die VII eine Totgeburt wie die Vega64 seinerzeit.
Nur was für Fans und Speicherfetischisten.
BosnaMaster
Lt. Junior Grade
- Registriert
- Feb. 2017
- Beiträge
- 428
Die ganze Hoffnung liegt bei AMD wohl auf Ryzen, ich hoffe da hauen Sie was ordentliches raus.
- Registriert
- Aug. 2011
- Beiträge
- 13.017
mos_fragged schrieb:Lese ich das richtig 1TB/s RAM Speed? 😮
Genau, richtig. AMD hat insbesondere alles bzgl. Speicher aufgebohrt: Sowohl die Menge mit unglaublichen 16 GB und die Bandbreite mit 1 TB/s.
Leider wurden andererseits weder die Anzahl der ROPs erhöht (das sind die Einheiten der GPU, welche die berechneten Daten ins VRAM zur Anzeige auf dem Bildschirm kopieren) noch insbesondere in der Geometrieverarbeitung was verbessert. Die ganze GCN-Architektur von AMD ist seit 2013 (!) limitiert auf 4 Renderpipelines (Nvidia ist bei 6 Stück) und auch innerhalb der Geometrieverarbeitung geht Nvidia (vermutlich) etwas effizienter vor - z.B. früher Aussortieren von Geometrie, die verdeckt ist und deshalb gar nicht gerendert werden muss und auch das Zwischenspeichern der Daten in den Caches für den späteren Zugriff).
Rolli_Jonson schrieb:Erschreckend wie viele AMD Fanboys hier rumlaufen und mit was für kaputten Kommentaren diese dieses stück hardware schrott rechtfertigen.
Ich hab nicht alle 1444 Kommentare gelesen, aber solange es so unsachliche Kommentare wie deinen gibt, werden Fanboys auf allen Seiten angeheizt. Hardwareschrott, oh Mann, bitte versuch doch einen Kommentar zu verfassen, der sich differenziert mit dem Test auseinandersetzt. Das würde dir und allen Anderen zu Gute kommen.
freshprince2002
Captain
- Registriert
- Juni 2008
- Beiträge
- 3.768
Die Prophezeiungen sind also wahr geworden: Radeon 7 reißt Nvidia in Stücke... niicht 🤣
Benji21
Lt. Commander
- Registriert
- Aug. 2018
- Beiträge
- 1.058
Rolli_Jonson schrieb:Erschreckend wie viele AMD Fanboys hier rumlaufen und mit was für kaputten Kommentaren diese dieses stück hardware schrott rechtfertigen. Da bleibt echt nur zu hoffen das jeder intelligent genung ist seibe schlüsse zu ziehen
Komisch, bei mir läuft sie einwandfrei! Wieviele Karten hast du denn schon im PC gehabt dass du da so eine qualifizierte Aussage treffen kannst?
Ich schaue dann mal ein paar Rechtfertigungen in Fermi-Tests durchRolli_Jonson schrieb:Erschreckend wie viele AMD Fanboys hier rumlaufen und mit was für kaputten Kommentaren diese dieses stück hardware schrott rechtfertigen. Da bleibt echt nur zu hoffen das jeder intelligent genung ist seibe schlüsse zu ziehen
WTF! Ein Flop auf ganzer Linie. Idle Leistungsaufnahme Fail, Last extremer Fail. 5800 Ultra reborn. Ich glaubs nicht!
Die HD 5890 2GB wischt mit Fermi den Boden...
150 Watt über der HD5870?!? Ein schlechtes Abschneiden habe ich ja an der Stelle erwartet, aber mehr als 50Watt über der HD5970? Das schlägt ja wohl dem Fass die Krone ins Gesicht.
Gut, dass ich noch auf diesen Test gewartet habe. Wollte eigentlich bei NVidia bleiben, um den Treiber behalten zu können, aber das, was die da abliefern, ist eher was für Kernkraftwerksbetreiber, die Überschussstrom loswerden wollen.
was ist da nur falsch gelaufen? diese grafikkarte kann der radeon 5870 nicht ansatzweise das wasser reichen.
zwar gibt es leistung satt aber zu welchem preis? extrem hoher stromverbrauch extrem hohe temps und extrem laut, das ist in der tat desaströs.
es kommt einem vor, als ob nvidia nur die leistungskrone für sich beanspruchen möchte egal um welchen preis. das der rest aber meilenweit hinten bleibt scheint sie nicht zu jucken.
Wohl wahr. nVidia kann das Ding für 200€ mit einem großen "Fick dich Umwelt"-Aufkleber verkaufen - dann wäre sie sicherlich wirtschaftlich und ehrlich.
Wow, du hast schon 2010 in jedem Post begrüßt. Geile Sache!Luxmanl525 schrieb:Hallo zusammen,
@ Pandora
Das wird auf den Kurs der Nvidia-Aktie mit Sicherheit keine Auswirkungen haben, denn Nvidia macht mittlerweile mit anderen Produkten mit Abstand den meisten Umsatz.
Schau dir nur mal die letzte Quartalsbilanz an.
So long...
Die Community ist sich ziemlich einig bzgl. Fermi, bis auf:
Ich glaube, dass hier ist nVidias Pionierkarte auf dem DX11 Gebiet, und auf diese Architektur werden die nächsten 2, vielleicht 3 Graka-Generationen aufbauen. Es ist klar, dass aller Anfang schwer ist, siehe Lautstärke und Stromverbrauch, aber diese Karte wird wegführend sein auf dem Gebiet, siehe Tesselation und anderen Schnickschnack.
Auch glaube ich, dass die Karte ihrer Zeit voraus ist und eigentlich, so wie sie jetzt ist, nie hätte in den Handel gelangen sollen. Denn welche Spiele unterstützen schon die Features, die nvidia so anpreist. Bis es so weit ist, ziehen noch mindestens 1 bis 2 Jahre ins Land. Man kann deutlich sehen, dass nvidia zwar Mist gebaut hat, aber in Bezug auf Metro2033, welches die neue Technik zu großen Teilen benutzt, ist das ein krasser Unterschied zur ATI Generation der 5000er.
Okay, die GTX 480 wurde in der Tat völlig zerrissen.
Nichtsdestotrotz haben sich die Karten (leider) zu gut verkauft.
Zuletzt bearbeitet:
DarkerThanBlack schrieb:Mein Tipp. Kaufen und gut ist, denn die RADEON 7 ist deutlich besser, macht alles besser und ist weit über einer VEGA64!
Wieso soll man die für 749€ kaufen wenn man für 649€ (Gabs auch schon für ~600) eine RTX 2080 bekommt die schneller ist? Und jetzt sag nicht wegen den 16GB.
Manche hier sollten sich die "Tipps" einfach sparen denn dein Tipp ist weder aus Performance noch aus Kostengründen auch nur annähernd sinnvoll. Die Karte wäre okay, wenn sie um die ~600€ kosten würde oder zumindest 649€ wie die RTX 2080. Und nicht mal dann wäre es ein super Angebot. Sie ist in 4k gerade mal eben so schneller als ne 2070. Der Preis ist ne Lachnummer und ich bin gespannt ob es am Ende mit den Ryzen's genauso läuft wie hier. Große Klappe und nix ....
Zuletzt bearbeitet:
mos_fragged
Lieutenant
- Registriert
- Juni 2006
- Beiträge
- 632
Faust2011 schrieb:Genau, richtig. AMD hat insbesondere alles bzgl. Speicher aufgebohrt: Sowohl die Menge mit unglaublichen 16 GB und die Bandbreite mit 1 TB/s.
Leider wurden andererseits weder die Anzahl der ROPs erhöht (das sind die Einheiten der GPU, welche die berechneten Daten ins VRAM zur Anzeige auf dem Bildschirm kopieren) noch insbesondere in der Geometrieverarbeitung was verbessert. Die ganze GCN-Architektur von AMD ist seit 2013 (!) limitiert auf 4 Renderpipelines (Nvidia ist bei 6 Stück) und auch innerhalb der Geometrieverarbeitung geht Nvidia (vermutlich) etwas effizienter vor - z.B. früher Aussortieren von Geometrie, die verdeckt ist und deshalb gar nicht gerendert werden muss und auch das Zwischenspeichern der Daten in den Caches für den späteren Zugriff).
Das habe ich nie gesagt, üble Nachrede, Anzeige ist raus xD
Kraudi2k schrieb:Wieso soll man die für 749€ kaufen wenn man für 649€ (Gabs auch schon für ~600) eine RTX 2080 bekommt die schneller ist? Und jetzt sag nicht wegen den 16GB.
Umgekehrt funktioniert es doch genauso, seit Jahren.
deady1000
Lt. Junior Grade
- Registriert
- Juni 2008
- Beiträge
- 300
Eben 16GB stehen drauf und bringen letztendlich auch nicht mehr FPS.Kraudi2k schrieb:Wieso soll man die für 749€ kaufen wenn man für 649€ eine RTX 2080 bekommt die schneller ist? Und jetzt sag nicht wegen den 16GB. Manche hier sollten sich die "Tipps" einfach sparen denn dein Tipp ist weder aus Performance noch aus Kostengründen auch nur annähernd sinnvoll.
Also bringt für den Moment einfach null Vorteil.
Bezüglich zukunftssicherheit:
Man muss eh früher wieder upgraden, weil die Karte ansich langsamer als eine RTX2080 ist. Der Speicher läuft vielleicht nicht so früh voll, aber wenn die Performance schon vorher 5-20% langsamer war ist es auch egal.
Und bezüglich OC und UV...
Ihr werdet mir nicht glauben, aber das kann man mit NVIDIA-Karten auch machen...
Was? Nein? Ehrlich? Darf er das?
Joshinator
Commander
- Registriert
- Dez. 2017
- Beiträge
- 2.355
Mit FPS-pro-Euro lässt sich für die Radeon auch nicht argumentieren.
Gibt aber andere legitime Argumente abseits von FPS-pro-Euro (Sachen wie FreeSync mit allen FreeSync-Monitoren, oder Features wie Radeon Chill, oder nicht Nvidia-Untersützen (Partnerprogramm-Aktionen usw.)). Wie stark man die bewertet ist dann aber persönliches und emotionales Empfinden. Gilt auch für die Vorteile von Nvidia Karten ala RT, DLSS, Mesh Shader & Co.
Dafür müsste sie wirklich unter UVP fallen, in wie Fern das passiert mit der aktuellen Verfügbarkeit und der Herstellungskosten (wie hoch sie auch immer sein mögen), ist aber echt fraglich.
Gibt aber andere legitime Argumente abseits von FPS-pro-Euro (Sachen wie FreeSync mit allen FreeSync-Monitoren, oder Features wie Radeon Chill, oder nicht Nvidia-Untersützen (Partnerprogramm-Aktionen usw.)). Wie stark man die bewertet ist dann aber persönliches und emotionales Empfinden. Gilt auch für die Vorteile von Nvidia Karten ala RT, DLSS, Mesh Shader & Co.
Dafür müsste sie wirklich unter UVP fallen, in wie Fern das passiert mit der aktuellen Verfügbarkeit und der Herstellungskosten (wie hoch sie auch immer sein mögen), ist aber echt fraglich.
Gibt es eine logische Erklärung für die Teils heftigen Differenzen von den AMD-Benchmarks zu denen von Computerbase?
Hier mal die Ergebnisse unter 4k bei allen Games, die in beiden Benchmarks verwendet wurden.Die Unterschiede sind so gewaltig, dass ich da keine Erklärung für finden kann. Zumal der bei AMD verwendete 7700k eher ein Bottleneck sein sollte, als der übertaktete 8700K bei CB.
Ich hätte jedenfalls erwartet, dass die FPS beim CB-System durchweg hätten höher ausfallen müssen. Immerhin hieß es doch, die Vorgaben von AMD und NVIDIA seien bei den Tests jeweils angewendet worden.
Destiny 2
AMD 65,1
CB 56,2
F1 2018
AMD (DX12!) 78,0
CB (DX11!) 57,9
Far Cry 5
AMD 62,0
CB 60,0
Mittelerde: Schatten des Krieges
AMD 54,3
CB 47,5
Moster Hunter World (das einzige Ergebnis, was meiner Meinung nach Sinn macht, wegen der besseren Hardware des CB-Systems, auch wenn der Unterschied größer ist, als erwartet)
AMD 35,4
CB 47,9
Shadow of the Tom Raider
AMD 47,5
CB 36,7
Wolfenstein 2
AMD 93,4
CB 70,3
Hier mal die Ergebnisse unter 4k bei allen Games, die in beiden Benchmarks verwendet wurden.Die Unterschiede sind so gewaltig, dass ich da keine Erklärung für finden kann. Zumal der bei AMD verwendete 7700k eher ein Bottleneck sein sollte, als der übertaktete 8700K bei CB.
Ich hätte jedenfalls erwartet, dass die FPS beim CB-System durchweg hätten höher ausfallen müssen. Immerhin hieß es doch, die Vorgaben von AMD und NVIDIA seien bei den Tests jeweils angewendet worden.
Destiny 2
AMD 65,1
CB 56,2
F1 2018
AMD (DX12!) 78,0
CB (DX11!) 57,9
Far Cry 5
AMD 62,0
CB 60,0
Mittelerde: Schatten des Krieges
AMD 54,3
CB 47,5
Moster Hunter World (das einzige Ergebnis, was meiner Meinung nach Sinn macht, wegen der besseren Hardware des CB-Systems, auch wenn der Unterschied größer ist, als erwartet)
AMD 35,4
CB 47,9
Shadow of the Tom Raider
AMD 47,5
CB 36,7
Wolfenstein 2
AMD 93,4
CB 70,3