Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test AMD-Grafikkarten im Test: Radeon 5870, 6970, 7970, 290X, Fury und Vega 64 im Vergleich
DrMedDenRasen93
Ensign
- Registriert
- Sep. 2018
- Beiträge
- 172
Ich liebe mein r9 290 aber langsam will ich auf ne höhere Auflösung wechseln... Mal sehen was Navi bringt ^^
- Registriert
- Aug. 2010
- Beiträge
- 2.689
Hi All,
Ich bin letztens erst von einer 1080 auf eine Vega 64 gewechselt.
Ich hatte davor die HIS 7970 GHz, ASUS R9 290X (4 GB) & die R9 Fury (mit gemoddetem BIOS mit mehr Shadern und gutem Kühler von XFX).
Der Umstieg hat endlich diese FPS gespringe der 1080 beendet und ich hab jetzt ein wesentlich ruhigeres Bild bei besseren FPS.
Zum Test:
Den finde ich nicht gelungen, da alle GPUs in "spielbare" FPS gedrückt wurden. Es ist klar das bei den älteren Karten vor allen Dingen der VRAM limitiert und deshalb eine Einstellung gefunden werden muss wo alle irgendwie performen. Aber die genauen Grafikeinstellungen tauchen nirgendwo auf und anstelle das man für alle Spiele den gleichen Preset wählt hat man für jedes Spiel unterschiedliche genommen. Das führt den Test doch ad absurdum, da durch den Turbo, den es ab der 7970 GHz gibt, dann gar nicht die volle Power ausgefahren werden kann.
Ich bin letztens erst von einer 1080 auf eine Vega 64 gewechselt.
Ich hatte davor die HIS 7970 GHz, ASUS R9 290X (4 GB) & die R9 Fury (mit gemoddetem BIOS mit mehr Shadern und gutem Kühler von XFX).
Der Umstieg hat endlich diese FPS gespringe der 1080 beendet und ich hab jetzt ein wesentlich ruhigeres Bild bei besseren FPS.
Zum Test:
Den finde ich nicht gelungen, da alle GPUs in "spielbare" FPS gedrückt wurden. Es ist klar das bei den älteren Karten vor allen Dingen der VRAM limitiert und deshalb eine Einstellung gefunden werden muss wo alle irgendwie performen. Aber die genauen Grafikeinstellungen tauchen nirgendwo auf und anstelle das man für alle Spiele den gleichen Preset wählt hat man für jedes Spiel unterschiedliche genommen. Das führt den Test doch ad absurdum, da durch den Turbo, den es ab der 7970 GHz gibt, dann gar nicht die volle Power ausgefahren werden kann.
Zuletzt bearbeitet:
(Die User entfernt)
Pulvertoastmann
Lt. Junior Grade
- Registriert
- Mai 2008
- Beiträge
- 497
Hi All,
habe selbst noch eine 7950 Boost und wollte wissen wo ich die hier einordnen kann; knapp unter der 7970@stock oder gleichauf?
Lg
habe selbst noch eine 7950 Boost und wollte wissen wo ich die hier einordnen kann; knapp unter der 7970@stock oder gleichauf?
Lg
BestinCase
Banned
- Registriert
- Apr. 2018
- Beiträge
- 604
Neue Radeon auf Vega Basis in 7nm bestätigt:
https://wccftech.com/amd-confirms-new-7nm-radeon-graphics-cards-launching-in-2018/
https://wccftech.com/amd-confirms-new-7nm-radeon-graphics-cards-launching-in-2018/
S
Shrimpy
Gast
WoW fuck, alleine die 4 HBM stacks schreien nach 900-1200€ und der 7nm Prozess, das ding da ist aber mind. so groß wie Vega10 mit 480mm²? und nicht 336mm²....
Glaube aber nicht das die Raster und shaderleistung an TU102 ran kommen wird "IN DX11" auch nicht mit einer Funktionierenden PS Pipeline, bin aber auf ein DX12 RT DXR verglich gespannt zu Turing.
Hab zu erste gedacht die lisa hat da einen V100 in der Hand. xD
War aber zu erwarten das sie mit einem Vega-RT ankommen, alleine um der Quadro entgegen zu wirken.
Glaube aber nicht das die Raster und shaderleistung an TU102 ran kommen wird "IN DX11" auch nicht mit einer Funktionierenden PS Pipeline, bin aber auf ein DX12 RT DXR verglich gespannt zu Turing.
Hab zu erste gedacht die lisa hat da einen V100 in der Hand. xD
War aber zu erwarten das sie mit einem Vega-RT ankommen, alleine um der Quadro entgegen zu wirken.
Zuletzt bearbeitet von einem Moderator:
t3chn0
Fleet Admiral
- Registriert
- Okt. 2003
- Beiträge
- 10.280
Es könnte ein cleverer Schachzug von NVIDIA sein. Wenn Vega 20 wirklich mit 16-32GB HBM2 und 1.2Tbyte Bandbreite bei 20 Tflops kommen sollte, dann würde diese Karte, Turing komplett in den Boden stampfen.
Der Wertverlust für Turing Karten wäre gigantisch, denn AMD sieht gerade was Käufer mittlerweile bereit sind zu zahlen.
Hat man bisher vielleicht die 1000€ angepeilt für Vega20 im Vollausbau, so kann man nun 1200€ nehmen bei deutlich mehr Performace.
Problem ist nur...zu dem Zeitpunkt hat NVIDIA den Markt wieder gesättigt und niemand verkauft seine 2080Ti unter krassem Wertverlust, nur um auf AMD umzusteigen. Denn, 70-80% der 2080Ti Käufer werden einen Gsync Monitor haben.
Außerdem ist das wieder wilde Spekulation. Vega64 ist rein vom Datenblatt her auch ein Monster. Die Karte kommt aber nur mit einer 1080 mit, obwohl diese schwächer ist. Irgendwo hat AMD seit GCN einen Fehler in der Architektur. Mit > 4000 Shadern hat man gut 500 Shader mehr als eine 1080Ti, die aber ihre Shader deutlich effizienter benutzen kann.
Ich hoffe das Vega 20 so als Monster kommt.
Der Wertverlust für Turing Karten wäre gigantisch, denn AMD sieht gerade was Käufer mittlerweile bereit sind zu zahlen.
Hat man bisher vielleicht die 1000€ angepeilt für Vega20 im Vollausbau, so kann man nun 1200€ nehmen bei deutlich mehr Performace.
Problem ist nur...zu dem Zeitpunkt hat NVIDIA den Markt wieder gesättigt und niemand verkauft seine 2080Ti unter krassem Wertverlust, nur um auf AMD umzusteigen. Denn, 70-80% der 2080Ti Käufer werden einen Gsync Monitor haben.
Außerdem ist das wieder wilde Spekulation. Vega64 ist rein vom Datenblatt her auch ein Monster. Die Karte kommt aber nur mit einer 1080 mit, obwohl diese schwächer ist. Irgendwo hat AMD seit GCN einen Fehler in der Architektur. Mit > 4000 Shadern hat man gut 500 Shader mehr als eine 1080Ti, die aber ihre Shader deutlich effizienter benutzen kann.
Ich hoffe das Vega 20 so als Monster kommt.
BestinCase
Banned
- Registriert
- Apr. 2018
- Beiträge
- 604
Ja wäre gut aber warum schreibt wccftech Radeon?? im Text hat AMD keine Radeon bestätigt?? verstehe das nicht.
Hurricane271
Lt. Commander
- Registriert
- Feb. 2017
- Beiträge
- 1.865
@BestinCase
Weil du einen Denkfehler drin hast.
Radeon ist die GPU-Sparte von AMD und nicht explizit die Gaming Marke.
Vega20 wird eine Radeon Pro, aber ob sie als RX kommt ist nicht bestätigt.
Weil du einen Denkfehler drin hast.
Radeon ist die GPU-Sparte von AMD und nicht explizit die Gaming Marke.
Vega20 wird eine Radeon Pro, aber ob sie als RX kommt ist nicht bestätigt.
BestinCase
Banned
- Registriert
- Apr. 2018
- Beiträge
- 604
ok schade!
U
<unknown>
Gast
Um es für mich in drei Worten zusammenzufassen:
"Sucht kostet extra".
Wenn man ein bestimmtes Spiel erwartet, dieses in maximalen Einstellungen spielen will und wenig Geld verdient, könnte man nach Release anfangen zu sparen und nach einem Jahr sowohl einen aktuellen PC mit neuer Grafikkartengeneration kaufen, als auch das gewünschte Spiel mit Bugfixes, Addons, etc.
"Sucht kostet extra".
Wenn man ein bestimmtes Spiel erwartet, dieses in maximalen Einstellungen spielen will und wenig Geld verdient, könnte man nach Release anfangen zu sparen und nach einem Jahr sowohl einen aktuellen PC mit neuer Grafikkartengeneration kaufen, als auch das gewünschte Spiel mit Bugfixes, Addons, etc.
timboboy123
Ensign
- Registriert
- Aug. 2017
- Beiträge
- 181
R O G E R schrieb:Danke für den Vergleich.
Meine 5850 werkelt immer noch in meinem PC
Das ist die Grafikkarte die bei mir am längsten gehalten hat.
Bis auf die Voodoo 3 2000 die noch in der Retro Kiste anstandslos läuft.
Die anderen sind irgendwie alle nach einer Zeit gestorben
Meine HD5850 hat sich ihren Ruhestand als Erinnerungsstück im Regal verdient xD
Die hatte im Vergleich zu meiner FE noch diesen tollen Föhn-Effekt xD
Anhänge
Hmmmm, kann sein.aivazi schrieb:Würde man jetzt einen RX480 Nachfolger mit 3000-4000 Shader bringen und alles beim gleichen belassen könnte man durchaus mit der Leistung einer GTX 1080 rechnen, wenn nicht sogar noch höher, im Preisbereich von 300€ ^^
Allerdings hat es AMD in letzter Zeit immer geschafft, ihre GPUs mit zuwenig Bandbreite „auszustatten“.
Mittlerweile erwarte ich schon fast brachiale Rechenpower, die am Tropf hängt.
Und das ist schade.
Zuckerwatte
Captain
- Registriert
- Juli 2013
- Beiträge
- 3.779
Und passend zum Artikel stirbt der VRAM meiner 290x Lightning - naja übergangs 1050Ti inc....
Du magst Recht haben und Ghandis Spruch ist aktueller denn je, jedoch war AMD auch zu hochzeiten weitaus Kundenfreundlicher als es Intel je war.Che-Tah schrieb:Ich lebe in Österreich... da ist manches anders.
Bzgl. Telekom: Tu felix Austria. Ich habe auf einer Strecke von 30km 4 Funklöcher „im besten Netz Deutschlands“. Das sagt schon alles.
Stimt nicht. Als sie vorn lagen, haben sie Doppelkerne teuer gehalten und die FX CPUs von $999 auf $1299 erhöht.Unnu schrieb:Du magst Recht haben und Ghandis Spruch ist aktueller denn je, jedoch war AMD auch zu hochzeiten weitaus Kundenfreundlicher als es Intel je war.
Edit: Sorry, $1299 war der Preis für den 1 GHz Athlon K7, die FX-Doppelkerne lagen bei kundenfreundlichen $1031.
Zuletzt bearbeitet:
(Edit)
noxcivi
Lieutenant
- Registriert
- Juni 2007
- Beiträge
- 765
Ein wirklich schöner Artikel was die Präsentation der Datenpunkte angeht. Was mir fehlt, ist eine detailiertere Interpretation. Wenn man sich zum Beispiel die IPC oder besser die Leistung pro Takt und Shader ansieht, dann bleibt es von GCN 1st bis GCN 3rd stabil auf einem Niveau und zu Vega hin fällt es deutlich ab: gleiche Shaderzahlt, 60% mehr Takt als Fury aber nur 30% mehr Leistung!?! Welcher Teil des Parcours macht das denn? Worin zeichnen sich die Spiele aus, dass Vega so absackt?
aldaric
Admiral
- Registriert
- Juli 2010
- Beiträge
- 8.226
incurable schrieb:Stimt nicht. Als sie vorn lagen, haben sie Doppelkerne teuer gehalten und die FX CPUs von $999 auf $1299 erhöht.
Und als sie vorne lagen, konnte man trotzdem den Sockel beibehalten und neuere CPU's draufschnallen.
Ich finde solche Sprüche "wenn AMD in der Position wäre...blabla" immer so lustig. Diese Situation haben wir momentan nicht, dass ist Fakt. Alles andere ist Märchenstunde, aber es stimmt faktisch das AMD schon immer als eher "kundenfreundlich" eingestellt gilt. Bzw. eigentlich sollte man eher Intel und nVidia als "kundenfeindlich" bezeichnen.
Nö, man kann auch ohne.SKu schrieb:Da bleibt nur der Griff zu NVIDIA in Form der 2080 ti
Ähnliche Themen
- Antworten
- 128
- Aufrufe
- 35.852
- Antworten
- 245
- Aufrufe
- 58.770