Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestAMD-Grafikkarten im Test: Radeon 5870, 6970, 7970, 290X, Fury und Vega 64 im Vergleich
ich weiß ja nicht, aber könnte das am vram bottleneck von fury liegen, das die karte bei wolfenstein max settings und doom nightmare von einer theoretisch guten leistung ans untere ende der tabelle schiebt?
Es geht ja genau darum, dass die Fury für die Redaktion überraschend schnell ist...
Ich verstehe sowieso die ganze Kritik an der Fury nicht wirklich, denn angeblich reichen ihre 4GB Ram ja nicht, um UHD flüssig darzustellen. Aber genau in UHD performt sie eigentlich richtig gut und hat viel mehr Abstand zur 290er als under FullHD. Lediglich R6S liegt ihr nicht, aber sonst liefert sie eigentlich schöne Frametimes...
"Den Quellen von Jason Evangelho zufolge soll Navi nicht nur in der PS5 stecken, sondern sogar speziell für Sony entworfen worden sein. Auch Anthony Garreffa schreibt, dass Sony einen großen Einfluss auf die Entwicklung von Navi habe. Die Entwicklung von Navi für den Großkunden Sony soll für AMD einen so großen Stellenwert gehabt haben, dass darunter der Vorgänger Vega leiden musste. "
NAVI wird daher schon aufs Gaming speziell ausgelegt sein.
Man sieht auch sehr schön, wie gut GCN gealtert ist, selbst heute noch sind 7870 & 7970 spieletauglich in FHD, so lange man seine Ansprüche etwas reduziert. Auch interessant finde ich den relativ niedrigen Idle-Verbrauch der 7970.
Chill begrenzt primär die Gramerate und sorgt so das die GPU nicht übermäßig viel rechnet, wodurch die KArte natürlich auch nicht ihre Leistung voll entfalten kann.
Das Leistungsprofil geht an das Power Target und senkt so die Taktfrequenz, das interessiert sich aber nicht für die Framerate. Da gibt es kein entweder/oder. Beide Fnktionen ergänzen sich.
tobimobi schrieb:
Wieso fehlt denn die RX 56?
Bei dem Test hätte man auch noch auf den Artikel von euch zum UV/OC verweisen können.
Weder die RX 64, noch die RX56 verbrauchen über ~230W bei halbwegs gut eingestellten Settings.
Die 7970Ghz Edition wäre auch interessant gewesen.
Die 7970 GHz war das was heute die Vega64 mit dem mittleren Energieprofil ist. Eine zu hoch angesetzte Taktfrequenz die die Effizienz erheblich verschlechterte.
@Wolfgang Könnt ihr noch ein komplett Round Up aller durchgeführten Benchmarks/Performanceratings machen? Also alle GPUs pro Spiel und Auflösung in ein Diagramm packen? So könnte man auf einen Blick sehen, wie sich neue Midrange GPUs gegen ältere High-End GPUs behaupten. Und andersrum.
Hatte selber auch mal ein Crossfire aus 2x 7970 unter Wasser, erstaunlich war wie sehr die Leistungsaufnahme sank wenn die Karten gut gekühlt wurden.
Ich möchte mich nach 4 Jahren gerne von meinem 980er SLI trennen, nur leider ist eine Vega 64 noch zu langsam für mich in UHD. Am 14. mal gucken wie schnell die RTX Karten sind, sonst gibt es ne 1080 Ti aus der Bucht.
bin ich eigentlich der einzige, der 500% in 10 jahren wenig findet?
gut, die 5870 war ein knaller und die vega64 ist ein wenig wie von "2016". aber egal. da muss in den nächsten 5 jahren mindestens die gleiche menge rum kommen, sonst fühle ich mich ein wenig verarscht.
*edit*
alleine wenn man die 4870 mit rein genommen hätte und die 10 jahre voll gemacht hätte, wären wenigstens 1000% rumgekommen, das wäre realistischer gewesen.
@Hejo
Das gib es tatsächlich auch. In dem Fall lags aber glaub eich an dem Treiber. Da BF1 den Crimson Treiber als "alt" einschätzte. Mit Registry Änderungen etc. kriegt man das dann zum laufen: Hier
Genauso ging es bei Tom Clancy The Divison. Support gibt es aber natürlich dann keinen mehr.
Ich weiß.. ist ja auch schon ne alte karte.
Ich hab damals mit meinem Rechner nichts falsch gemacht habe. Da kann ich auch heute noch gepflegt alles zocken wird aber leider demnächst durch ein Ryzen/Vega System ersetzt
Das ist mindestens so peinlich:
Sie ist 60 % schneller oder hat 160 % der Leistung einer 7970, wie die Diagramme zweifelsfrei zeigen - wenn man in der Lage ist Diagramme zu lesen.
Der wohl schlechteste Beitrag, den ich seit längerem gelesen habe.
jo, meine hd5870 2gb eyefinity ist leider vor paar monaten abgeraucht beim 24/7 "rendern" von *hust* aber an sonsten, kann man nix schlechtes über ati/amd sagen die letzten jahre. daher finde ich die "nur" 500% halt unfair, auch wenn das nicht viele so sehen werden.
meine fury nano rockt immer noch wie hölle und ich würde sie nie wieder her geben.
Erzähl mal, wie stark denn? Ich habe hier 2 x R9 290 und keinen Vergleich zwischen mit/ohne Wasserkühlung, aber mit Undervolting zieht das ganze System aus der Steckdose nur noch ~520 Watt statt 570.
PickNick schrieb:
Ich möchte mich nach 4 Jahren gerne von meinem 980er SLI trennen, nur leider ist eine Vega 64 noch zu langsam für mich in UHD. Am 14. mal gucken wie schnell die RTX Karten sind, sonst gibt es ne 1080 Ti aus der Bucht.
Same here! Nur, dass es eben 2 x die R9 290 ist. Ich möchte mindestens die Performance einer GTX 1080, sonst gibts kein Upgrade. Inzwischen sage ich mir sogar, dass ich auf die Karten/Chips in 7nm Fertigung warte - egal, ob es dann von nVidia oder AMD (oder gar Intel) ist.
Ich hab damals mit meinem Rechner nichts falsch gemacht habe. Da kann ich auch heute noch gepflegt alles zocken wird aber leider demnächst durch ein Ryzen/Vega System ersetzt
Die Nano hatte auch ein stärker limitierende, maximale Leistungsaufnahme als die Fury. AMD gönnt den Karten ansonsten höhere Peaks.. was dann letztlich auch zu höheren Durchschnittswerten, und durch träge Messungen leider auch zu falschen Ergebnissen führt. Wenn ein Peak auch nur ein paar Millisekunden ansteht, nimmt die träge Messung es als Zehntel bis Sekundenwert.
Erst hochauflösende Messungen mit einem Oszilloskop bringen die Wahrheit ans Licht!
Btw. nVidia limitiert die maximale Leistungsaufnahme grundsätzlich stärker (ähnlich der Nano), weswegen hier die Messungen mittels Software oder Multimeter eher passen.
Im Ganzen ensteht jedoch der dauernd kolportierte Eindruck, AMD würde ja "dermaßen viel Verbrauchen"!
Shrimpy schrieb:
Wer ne Vega kauft kann das auch selber, da hab ich lieber die möglicht von UV und UC und eine PCB layout das 500W ab kann für OC.
Das geht auch schon mit Polaris, bzw seit es den Wattman gibt.
Meiner RX 470 Nitro+ konnte ich die GPU-Spannung problemlos um 0,1 Volt reduzieren. Dadurch konnte sie ihren Boost-Takt dauerhaft halten, was zu einer 10%igen Steigerung der Fps führt!
Ja, heutzutage muss man leider schon ewig lang auf neue AMD Technik im GPU Bereich warten... Witzig ist ja, das ich genau damals, als die 58xx raus kam, das mein Sprung von nVidia auf AMD war. Seit dem - bis auf eine "Testausnahme" - immer eine AMD GPU im System.
Sogar eine zeitlang während der BF3 und BF4 Ära mit Crossfire Setup bei 5850, 7959 und 290ern. Dann eine Fury Nano, die schnell von einer R9 Fury X abgelöst wurde... Derzeit Vega64 und voll zufrieden bei 1440p mit 144fps Display und Freesync. Ja, könnte mehr leisten - aber hey, im MP Shooter sind fps wichtiger als Qualität.