Test AMD Radeon R9 390X, 390, 380 und R7 370 im Test: Den Unterschieden zur R9-200-Serie auf der Spur

Status
Für weitere Antworten geschlossen.
Moriendor schrieb:
Naja, auf der PS4 muss der Kram ja auch laufen und die PS4 hat momentan die Nase ordentlich vorne.

Ich wär mir gar nicht so sicher, ob das auf der PS4 bzw. auch auf der XBox jetzt nicht schon sehr ähnlich läuft mit dem Speichermanagement, wie es dann in DX12 implementiert werden soll. Beide Konsolen haben ja jetzt schon hardwarenahe APIs, der PC eben erst mit DX12 (Mantle mal außen vor gelassen). Im günstigsten Fall bringen DX12 und Vulkan die grundsätzlichen Programmierlogiken der Konsolen und des PCs näher zusammen und alle sind glücklich, bis auf die Aufrüstfaulen.
 
maniac96 schrieb:
Find ich Super Deinen Beitrag :lol:
Auf der einen Seite beschweren das Nvidia Deine Karte "Sabotiert", aber auf der anderen Seite willst Du Dir evtl. eine 980Ti holen? Da hat ja Nvidia bei Dir alles richtig gemacht :evillol:

P.S.: Und ob eine Grafikkarte 4, 6, 8, 12 oder 100 Gigabyte hat ist Jacke wie Hose! Das was am ende rauskommt ist wichtig ;)

Gehöre keinem Lager an. Und am Posting (von mir) sieht man auch, das wir ein "Alternative Problem" haben. Wir brauchen einen neuen im GPU Markt. Das ist meine Meinung. Was soll ich den sonst nehmen ausser NV? Diese AMD Karten gefallen mir nicht, ich will sie nicht haben.

Und nein, meine Graka muss min 8GB haben. Und selbst bei 8GB hätte ich kein gutes gefühl für die E3 2016.

ps: auf Intel im GPU Markt hätte ich auch keine lust, aber ok - wenn die zur Alternaive werden - why not.
 
SchaGur schrieb:
Und nein, meine Graka muss min 8GB haben. Und selbst bei 8GB hätte ich kein gutes gefühl für die E3 2016.

Gemäß Deiner Signatur hast Du einen 144Hz FullHD (1080p) LCD. Was um alles in der Welt willst Du mit 8GB VRAM? Und komm mir jetzt nicht mit DSR/VSR, denn was Du brauchst ist Rohleistung, vor allem um die hohen Hertz-Zahlen zu pushen, für die Dein Display prädestiniert ist. Also ohne Dir jetzt zu nahe treten zu wollen, aber entweder Du hast Dir versehentlich das falsche Display gekauft oder generell einfach sehr wenig Ahnung über das Zusammenspiel zwischen GPU (Rohleistung), VRAM (und praxisrelevante VRAM-Nutzung), Auflösungen und 144Hz LCDs.
 
Moriendor schrieb:
Gemäß Deiner Signatur hast Du einen 144Hz FullHD (1080p) LCD. Was um alles in der Welt willst Du mit 8GB VRAM? Und komm mir jetzt nicht mit DSR/VSR, denn was Du brauchst ist Rohleistung, vor allem um die hohen Hertz-Zahlen zu pushen, für die Dein Display prädestiniert ist. Also ohne Dir jetzt zu nahe treten zu wollen, aber entweder Du hast Dir versehentlich das falsche Display gekauft oder generell einfach sehr wenig Ahnung über das Zusammenspiel zwischen GPU (Rohleistung), VRAM (und praxisrelevante VRAM-Nutzung), Auflösungen und 144Hz LCDs.

Zu dem Schluss kann man echt kommen, ok! Nur ich denke da nicht an die alten Games. Klar da brauch den ram net.
Aber für neue Games, vorallem PS4 Ports usw könnte und wird der Speicher verbrauch steigen. Zudem Spiele ich gerne mit MODs.

Ich weis für FullHD reichen 6GB sehr gut aus, aber ich will nicht jährlich aufrüsten müssen. 6GB könnten 2016 schon zuwenig sein. 12GB auf der Titan finde ich sehr nice. Auch wenn die sich langweilen würden bei FHD.
 
@SchaGur:
Gerade durch die neuen hohen Anforderung ist mehr Vram nutzlos.
Du hast doch kein 120hz Monitor um @30fps vor dich hin zu ruckeln.
Was sollen das für Spiele sein, in denen dir bei 4GB der Vram ausgeht, aber 980ti/Titan X 120 fps haben?

-> Viel Auflösung + Wenig Fps = Titan X besser, Wenig Auflösung + Viel Fps = Fury besser.
 
EinAnderer schrieb:
-> Viel Auflösung + Wenig Fps = Titan X besser, Wenig Auflösung + Viel Fps = Fury besser.
Das ist aber eine komische Gleichung, die man in die Tonne klopfen kann. Nehmen wir einmal an jemand kauft für FullHD eine Fury oder eine GTX 980ti um hohe FPS zu fahren. Warum sollte die GTX 980ti benachteiligt sein? Wenn beide GPU's auf dem selben Nivea sind und das selbe kosten nehme ich doch die GPU, die mehr VRam hat.

Wenn es dann noch stimmt, das man bei der Fury den Aio Kühler oder später einen Luftkühler nicht einfach so wechseln kann, dann ist das ein Riesen Problem für mich. Mein Gehäuse (ein Big Tower) ist voll, weil ich eine Wakü habe und eine GPU gerne in die bestehende Wakü einbinden möchte.
 
EinAnderer schrieb:
@SchaGur:
Gerade durch die neuen hohen Anforderung ist mehr Vram nutzlos.
Du hast doch kein 120hz Monitor um @30fps vor dich hin zu ruckeln.
Was sollen das für Spiele sein, in denen dir bei 4GB der Vram ausgeht, aber 980ti/Titan X 120 fps haben?

-> Viel Auflösung + Wenig Fps = Titan X besser, Wenig Auflösung + Viel Fps = Fury besser.

Eine PS4 könnte und befüllt bereits 6GB bei FHD. Die neuen Spiele brauchen einfach mehr Speicher in Naher Zukunft. Die ganzen E3 2015 Games werden schon 4GB verlangen. Es geht doch nicht um BF4 oder altkram. Mit DX12 könnte die GPU länger halten, da ist es gut mehr Speicher auf dem Brett zu haben.


Bei einem Test 290X@8GB vs GTX970 waren beide unter FHD fast gleich schnell. Aber ein Blick auf den Frameverlauf hat gezeigt, das die 8GB doch für ein geschmeidigeres gefühl gesorgt haben. Finde den Test nach langer suche leider nicht mehr.


Und dann gibt es noch sowas hier (powerd by Hisn) http://abload.de/image.php?img=x-plane_2014_11_08_13gno5z.png
 
Zuletzt bearbeitet:
AMD macht es genau richtig. Besser ausgedrückt, AMD hat keine andere Wahl. Wir wissen ja um AMDs Wirtschaftslage. Tricksen gehört da zum Geschäft. Das macht ja sogar Nvidia so und das ohne Not. Siehe GTX 970. AMD setzt alles auf die neue Fertigung und HBM. Da aber die Technik erst 2016 verfügbar ist, bleibt eben nur das übrig was wir aktuell sehen. Alles doch ganz logisch.
Fury ist ein aufgebohrter Tonga Chip und die einzige Entwicklung liegt darin, Tonga und HBM zusammengebracht zu haben. Mehr war einfach nicht möglich in der aktuellen wirtschaftlichen Lage. Fury ohne X und die Nano werden sicherlich attraktive Produkte und diese werden die Fahne für AMD bis 2016 hoch halten.
Natürlich muss und soll CB klare Worte finden. Alte Technik ist einfach passend. Trotzdem kann die alte Technik super mithalten und die 380 und 370 ind überzeugende Produkte. Sicherlich werden auch Fury ohne X und die Nano überzeugende Produkte.

Mehr geht einfach nicht aktuell bei AMD.


Das hier im Forum sehr viele Meckertanten und Vorhersager, Wirtschaftsexperten und Microtechniker (ironisch gemeint) unterwegs sind, ist doch nie auch nur eine Sekunde eine Überraschung. Spiegelt doch nur das Niveau wieder, welches eben hier vorhanden ist. Persönlich weiß ich ja, dass die Beiträge hier für mich zu 95% die Energie nicht wert sind, die benötigt wurde diese zu verfassen. Jeder Leser ist praktisch angehalten diese Beiträge als lustige und oder banale Unterhaltung zu betrachten.
 
Wenn ich das ganze richtig sehe kann ich meine auf 1,2 GHz übertaktete Sapphire 7850 nun "Radeon 370 2GB Edition" nennen.
 
Ich verstehe dieses Geheule Pro/Contra gegen/für einen Grafikkarten Hersteller einfach nicht, ich kaufe das was mir und meinen Ansprüchen genügt, Opelfahrer heulen ja auch nicht, dass ein Audi dies oder jenes hat, was der Opel nicht hat...
Was die neue/alte Grafikkartenserie von AMD betrifft, die Karten haben in ihrem Preissegment eigentlich doch ein gutes Preis/Leistungsverhältnis und ich denke die Preise werden in den nächsten Wochen auch noch etwas runtergehen, wenn mir die R9 300 Serie nicht zusagt, kaufe ich halt Nvidia, eine andere Alternative gibt es ja leider nicht.
Dieses Runtermachen des jeweiligen Hersteller bringt mich doch keinen Zentimeter weiter, von daher...keep Smiling ;)
 
AMINDIA schrieb:
Fury ist ein aufgebohrter Tonga Chip und die einzige Entwicklung liegt darin, Tonga und HBM zusammengebracht zu haben. Mehr war einfach nicht möglich in der aktuellen wirtschaftlichen Lage. Fury ohne X und die Nano werden sicherlich attraktive Produkte und diese werden die Fahne für AMD bis 2016 hoch halten.

mehr macht Nvidia doch auch nicht, eher sogar weniger. Nvidia spart sich 2015 sogar das HBM Thema komplett und die Maxwell sind ja auch nur über die Shader skalierte Chips mit klassischem GDDR5 SI, dieselben PCBs in grün mit nem Ref. Kühler aus der Massenfertigung.

Fury sieht wirklich nicht nach der Karte aus die man mit Bedacht auf Marge entwickelt hat.
 
Nachdem ich nun einige Tests gelesen habe ist meine Meinung, dass AMD es wieder verkackt hat.
Das sage ich, nicht weil ich denke, dass die Fiji nix kann (das werden erst die Tests belegen), doch der Mainstream macht das Geld und nicht die Highend-Klasse. Nvidia hat sich auch mit der 970 dumm und dämlich verdient und nicht mit den 980ern.
Doch was hat AMD im Mainstream? Eine alte Karte, die oft der 970er nicht gewachsen ist und Ineffizient arbeitet. Darunter mit kleineren Karten sieht es auch nicht besser aus.
Auch wenn Fiji nun der absolute Oberhammer wird, werden nur sehr wenige es sich leisten können/wollen. Doch von Prestige kann man nicht leben.
Da können wir jetzt nur in die Zukunft blicken und für AMD hoffen, dass sich mit Einzug von DX12 da noch etwas ändern kann, doch bis erste Games erscheinen, könnten die R3x0 wie Blei in den Regalen liegen.
 
Eigentlich wollte ich meine gtx 980 gegen eine ti tauschen, aber mal sehen wie die fury x wird. Obwohl meine 980 mit 1620 mhz eigentlich noch ausreichen hm
 
Aldaric87 schrieb:
Nein, aber selbst wenn eine 390 weder "deutlich" lauter, noch "deutlich" heißer wird, pumpt sie deutlich mehr Wärme ins Gehäuse, und auch das muss gekühlt werden. Nicht nur die Temperatur der Grafikkarte ist da interessant. Warum sollte ich eine ineffiziente Karte verwenden, nur weil ihre Kühlung gut ist? Man kriegt auch effiziente Karten am Markt, wo zusätzlich die Kühlung noch besser ist.

Zudem muss man sich nicht nur die Leistungsaufnahme unter Volllast anschauen, sondern auch mal sehen wie der Stromverbrauch im Idle, und im Idle mit 2 Monitoren ist. Kann ja nicht wirklich normal sein, dass eine effiziente mit 2 Monitoren im Idle ~15W verbrät, und eine ineffiziente ~65W (Zahlen die hier in einem Thema mal genannt wurden).

Im Test ist ja schon zu sehen, dass das komplette Testsystem unter Last mit der 390 Nitro 397 W verbraucht, und das mit der 970 268 W. Dabei geht es nichtmal um die Stromrechnung bei sowas, sondern auch um die Abwärme die in einem Gehäuse abgeführt werden müssen.

was heißt heißt hier weder "deutlich" lauter, noch "deutlich" heißer
sie ist so kalt und so leise wie 970/980 teilweise sogar besser
und im normalen idle also ein angeschlosssen monitor auch so effizient
und wie du gesagt hast lediglich wenn ich im idle mehrere monitore angeschlossen habe verbaucht sie deutlich mehr
was immer weniger relevant sein dürfte
"normale" leute haben eh nur einen monitor dran und die die 2 "ältere" monitore angeschlossen haben rüsten langsam aber sicher auf einen deutlich großeren widescreen auf
natürlich wirds immer welche geben die mehrere angeschlossen haben das ist ein sehr kleiner teil

was die abwärme betrifft frage ich mich ein wenig was ihr denn da im gehäuse sonst drin habt das nicht warm werden darf
an der stelle wo die graka verbaut ist ist doch in fast gedem gehäuse eh ein lüfter dran oder man kann dort einen dran bauen um fast die komplette abwärme rauszusaugen


MikelMolto schrieb:
Bei 397 W zu 268 W geht es mir (neben der Abwärme) auch sehr um den Stromverbrauch. Das sind schon keine Peanuts mehr und dabei ist es mir vollkommen egal wenn andere keine Probleme beim Strom verballern haben.
Meine Hoffnung ist die Nano und ich bin gespannt wie ein Flitzbogen, was die so kann.

klar weiß ich nicht was du unter peanuts versteht
aber für mich sind das peanuts und das sage ich als student
mit einem € kannst du bei einem mehrverbrauch von 129watt über 31 stunden zocken

natürlich ist mir eine effiziente karte auch lieber aber wenn das der einzige nachteil einer graka ist
also ich finde da gibt es schlimmeres
 
ankabo schrieb:
Nvidia hat sich auch mit der 970 dumm und dämlich verdient und nicht mit den 980ern.
Doch was hat AMD im Mainstream? Eine alte Karte, die oft der 970er nicht gewachsen ist und Ineffizient arbeitet. Darunter mit kleineren Karten sieht es auch nicht besser aus.

Schon komisch wie so die Sichtweisen sind. Gut, die 390er ist nicht so effizient vom Stromverbrauch her. Aber von der Leistung her ist
sie doch mindestens gleichwertig bzw. schneller als eine 970. Die Unterschiede werden eher nur messtechnisch zu belegen sein. Dazu ist z.B. die 390 Nitro noch ziemlich leise, schaltet auch Lüfter im Idle ab, kostet nicht mehr sondern sicher bald eher weniger und hat wohl auch kein Problem mit ekligem Spulenfiepen. Ich habe selbst eine 970 wieder zurückgeschickt weil das Fiepen extrem gestört hat.
Zudem hab ich mit 8GB zukünftig sicher kein VRAM Problem. Wahrscheinlich hätte ich auch mit 3,5GB kein Problem aber 8GB sind halt noch besser. Dazu der Fakt, dass Nvidia die Kunden vorsätzlich verarscht hat mit ihrer 4GB Angabe.
Ich kann irgendwie nicht verstehen, wie man eine GTX970 hier vorziehen kann.
 
Stinker88 schrieb:
was heißt heißt hier weder "deutlich" lauter, noch "deutlich" heißer
sie ist so kalt und so leise wie 970/980 teilweise sogar besser
[...]
mit einem € kannst du bei einem mehrverbrauch von 129watt über 31 stunden zocken

Was denkst Du, wo die 129W Mehrverbrauch landen? In den FPS ja offensichtlich nicht, oder? Und hättest Du den Post von Aldaric gelesen und nicht nur buchstabiert, wäre Dir eventuell zu "deutlich" noch das Wort "weder" aufgefallen...
 
Neos2c schrieb:
Ich kann irgendwie nicht verstehen, wie man eine GTX970 hier vorziehen kann.

Ich würde auch ne 970 vorziehen. Allein schon wegen Gameworks, CUDA und PhysX. Mag für manche kein Argument sein, für mich ist es fast schon Voraussetzung. Ich hoffe insgeheim dass die R9 390 noch etwas billiger wird und nVidia veranlasst den Preis der 970 nach unten zu korrigieren. Dann würde ich evtl. noch ne 970 als Zwischenlösung bis Pascal in Betracht ziehen.
 
@DocWindows
DU würdest in jedem Fall die GTX vorziehen, weil du ein Fanboy bist, hast du ja bisher überall unter Beweis gestellt ;)
Ansonsten gibt es kein Argument die 970 (lol :lol: ) der 390 vorzuziehen.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben