Test AMD-Grafikkarten im Test: Radeon 5870, 6970, 7970, 290X, Fury und Vega 64 im Vergleich

wenn du im januar was von tsmc haben willst, musst du vorgestern bestellen und die kohle vorher auf den tisch legen :D

bisschen plakativ, aber stell es dir so vor.

*edit*
und wenn dein produkt am markt sich nicht verkauft, zahlst du im zweifel nicht abnahme strafe für das still stehende band...

mfg
 
BestinCase schrieb:
Wenn ich AMD wäre, hätte ich als Übergang Vega in 7nm noch mal aufgelegt! Verstehe nicht warum das nicht gemacht wird?

Wird doch gemacht. Wirst du bloß nicht (als Gamer Karte) kaufen können.

Bin mir aber sicher, dass auch davon Benchmarks gemacht werden und dann durchsickern.

War bei der Liquid Edition von Vega Wochen vor dem regulären Start ja auch so.
 
wenn ich meinen 4k shader cores mit hbm so anschaue, ist der ziemlich genau so groß wie das monster, was die dame da in der hand hat.

kA was die da in 7nm zu testzwecken gebaut haben. aber das teil in ihrer hand ergibt für mich aktuell gar keinen sinn. evtl eine 1:1 test studie ohne transistor shrink. <- evtl. doch. die frau hat wohl einfach nur kleine hände :D

hier ein schönes bild, bin immer noch unschlüssig.

https://images.anandtech.com/doci/11680/chips.jpg

mfg
 
Zuletzt bearbeitet:
OK wenn die Dinger mit Crimson Treiber laufen und gut sind für Gaming wäre das ein genitaler Schachzug von AMD Marketing braucht nur noch darauf hin zu weisen, dass die Dinger auch auf Gaming getestet werden können. ;)
 
BestinCase schrieb:
Wenn ich AMD wäre, hätte ich als Übergang Vega in 7nm noch mal aufgelegt! Verstehe nicht warum das nicht gemacht wird?

Bedenke, was daran sind den echte 14 oder 7nm das gilt auch für Prozessoren... irgendwelche Zwischenlagen der Rest ist noch bei 45 oder 60nm, irgendwo gabs da mal eine nette Tabelle.

Diese zahlen und das Aufgeilen daran sind reine Blender!
 
Mir fehlt hier die deutliche interessantere Vega 56.
Bei der Mittelklasse war sie nicht dabei und bei High-End nun auch nicht. Was ist sie denn? :D
Die Vega 64 ist eine bis aufs letzte geprügelte GPU um in die Nähe der GTX 1080 Referenz zu kommen.
Von Effizienz braucht man hier gar nicht erst reden.
 
Super "Vergleichstest der Generationen", thx Wolfgang :daumen:.

Achja, die gute alte HD5870^^. Die BESTE "ATI/AMD Radeon-Referenz-Graka", welche längerfristig in meinem Rechenknecht verweilen durfte. (danach nur noch Grakas mit NV-GPU). Übrigens lüppt die HD5870 heute noch beim Bekannten im (Zweit)Rechner :).
 
estros schrieb:
Die Karten werden immer energiehunriger. Darum verpufft der Leistungsgewinn von über 500% auf 280%. Aber zugleich muss man sich fragen, ob dies eine schlechte Entwicklung ist. Da die GPU eh 99% im Idle läuft, sind heutige Karten vermutlich trotzdem sparsamer. Man muss es halt nur gekühlt bekommen.
Wart mal auf das Nvidia Roundup. Das wird für dem geneigten ATI/AMDler den Schweiß auf die Stirn treiben.
Damals Fermi (452Watt Gesamtsystem, GTX 480 ), heute Pascal (290 Watt Gesamtsystem, GTX 1080).
So geht Performance pro Watt, im Roundup Anfang 2017 hat mans schon gut gesehen.
Turing wird spannend, aber mit den vielen neuen Recheneinheiten wird das eher mehr als bei Pascal sein.
 
tobimobi schrieb:
Weder die RX 64, noch die RX56 verbrauchen über ~230W bei halbwegs gut eingestellten Settings.

Jep. Meine frisst in BF 1 @1440p ultra/high im 64er MP knapp 220-240w Core only. Und dabei bin ich mit 1700MHz gut dabei.
 
Auch hier wieder, wie bei der HD6870, weiche die Idle-Werte der Leistungsaufnahme bei der HD5870 um ca. 100% von denen der alten Tests ab.
Statt ca. 20W sind es jetzt 43W. Eine vernünftige Erklärung dafür? Wo liegt der Fehler?

Anmerkung: Ich zitiere mal den Autor, der damals auch den ersten Test der HD5870 verfasste: "So zieht die Radeon HD 5870 unter Windows gerade einmal 134 Watt aus der Leitung (gemeint ist der gesamte PC)," und der Abstand Last zu Idle lag damals bei 331W zu 134W. Gemessen von Wolfgang Andermahr.
 
Zuletzt bearbeitet:
Dai6oro schrieb:
AMD ist damit nicht aus dem Rennen aber dafür wir eine neue Architektur benötigt. GCN wir auch noch in NAVI zum Einsatz kommen und damit keine Konkurrenz für Nvidia. Frühestens 2020 könnte AMD wieder aufschließen. Harte Jahre bis dahin ohne Konkurrenz im High End Bereich.


Naja ganz so fest würde ich nicht auf die Tränendrüse drücken.
Ich und viele andere nutzen aus gutem Grund seit eh und je AMD.
Ich hatte noch nie einen Ausfall einen Schaden oder selbst wenn man die Ohren aufhält und in Spielen und Foren zuhört bin ich mir oft nicht so sicher ob NVIDIA so gut ist wie das was auf dem wie wir wissen geduldigen Papier steht.
Deine Karte ist sicher der Hammer keine Frage und kostete als ich mich dafür interessierte ü er 900 Öcken.
Im direkten Vergleich würde ich sie heute dennoch gerne sehen.
Hast du in Doom im ultra 4k setting auch 90 fps im Schntt? Oder noch 65 auf 5k?
Ich selbst habe
https://www.computerbase.de/2017-12...istungsaufnahme-der-grafikkarte-the-witcher-3
diese Karte. Könnte die schnellste und Ausdauerndse sein von AMD zur Zeit.
 
  • Gefällt mir
Reaktionen: [wege]mini
Ach da werden Erinnerungen wach...
Meine 5870 mit Watercool Heatkiller, unter Last kälter wie luftgekühlt im Idle. :lol:

5870 Super Temp.jpg
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Umso spannender was AMD machen wird und wann erste Gerüchte zu Navi auftauchen werden. Eigentlich müssen sie die Shader Zahl weiter erhöhen aber zugleich die Auslastung deutlich verbessern.
Ich würde gerne wissen was da intern der Stand ist. Das Design sollte eigentlich seit längerem fix sein, die Frage ist ob wie bei Nvidia auch ein Tensor Ähnlicher Ansatz oder Raytracing bereits includiert ist oder keine Beachtung findet, was durchaus auch Vorteile haben kann.

Solange diess Bereiche der Die bei Nvidia brach liegen und wenig genutzt werden kann AMD ggf einen Vorteil bei Marge und Effizienz rausholen.
 
  • Gefällt mir
Reaktionen: Unnu
An AMD's Stelle würde ich RT-Shader noch außen vor lassen und vorerst voll auf Performance setzen. Auch wenn es einige AMD-GPU-Fans vll. ärgert, aber am besten für eine Gaming-Karte den ganzen Compute-Kram rauswerfen, dann passt das auch mit der Effizienz.
 
  • Gefällt mir
Reaktionen: GreitZ, Krautmaster und pblcprvrt
Die 290X ist hervorragend gealtert, leider ein kleiner Hitzkopf und die meisten Kühllösungen waren absoluter Dreck, dennoch konnte die Karte über Jahre gut mithalten. Meine GTX 1070 ist da, wenn man das Alter betrachtet, erstaunlich lahm.
 
Retro-3dfx-User schrieb:
Bedenke, was daran sind den echte 14 oder 7nm das gilt auch für Prozessoren... irgendwelche Zwischenlagen der Rest ist noch bei 45 oder 60nm, irgendwo gabs da mal eine nette Tabelle.

Diese zahlen und das Aufgeilen daran sind reine Blender!
Was aber nichts daran ändert, dass die realen Größen sich von 14nm auf 7nm trotzdem stark verkleinern werden

GloFos 14LPP
CPP 78nm
MMP 64nm
Cell Height 480nm
Estimated transistor density 32.5 MTr/mm2


TSMCs 7nm
CPP 54nm
MMP 40nm
Cell Height 240nm
Estimated transistor density 116.7 MTr/mm2

Dagegen auch mal Intels 10nm
CPP 54nm
MMP 36nm
Cell Height 272nm
Estimated transistor density 103.0 MTr/mm2
 
Faust2011 schrieb:
Same here! Nur, dass es eben 2 x die R9 290 ist. Ich möchte mindestens die Performance einer GTX 1080, sonst gibts kein Upgrade
Ist auch dann kein Upgrade...
Da ziehst du höchstengleich :(

Stecke im Selben Boot. Müssen wohl noch weiter geduld haben oder zu sowas wie ner 2080ti greifen, die könnte so in der Performance regione liegen...
 
@Haldi
Nun ja, wenn man nicht Wert auf absolute Mehrleistung sondern auf Verbrauch und Lautstärke legt, schon sehr.
 
Zurück
Oben