Test AMD Radeon R9 390X, 390, 380 und R7 370 im Test: Den Unterschieden zur R9-200-Serie auf der Spur

Status
Für weitere Antworten geschlossen.
max_1234 schrieb:
Das sind die üblichen Verbraucher.
Hier im Forum tut man sich manchmal schwer diese in den Gesamtverkauf mit ein zubeziehen (oder vergisst sie bewusst...), da sie selten in einem Forum aktiv dabei sind. Nennen wir es mal Laufkundschaft, die einen großen Teil ausmacht, auch wenn die eher in Preisbereichen bis 200€ unterwegs sind.

max_1234 schrieb:
Was bei der 3XX Reihe erstmal positiv auffällt sind die niedrigen Preise. Die 390@8GB gibts jetzt schon lieferbar für 320€ ... in 2 Wochen sind wir bei 2xx€. Für 8GB Karten wohlgemerkt, die bei der 2xx Reihe noch rund 400€ kosten.

Ja da bin ich auch gespannt wie sich das weiterentwickelt. Die 390 von Sapphire ist heute schon so günstig wie meine 290 ein halbes Jahr nach Launch. Da geht noch was :D Deutet alles auf Kostenführerschaft hin...

MfG tb

@pipip: Man denke nur mal daran wie lange AMD User (wie ich) auf den CCC 14 Omega gewartet haben. Der kommt schon noch da bin ich mir sicher ;)
 
Zuletzt bearbeitet: (Ergänzung)
kein displayport 1.3 -_-
warum nur 1.2a :/


und klar sinken die preise.. sind ja die selben grafikchips.. entwicklung ist bezahlt und bis auf kleinere änderungen kam bei 390 nicht so viel hinzu.. was hingegen 8gb schnellerer speicher zu 4gb kosten, kp.
 
MikelMolto schrieb:
Als die 290X heraus kam waren das eine GPU in der höchsten Leistungsklasse und hat sich gegen die 780ti behauptet. Jetzt nach dem rebrand auf eine 390X ist es eine Mittelklasse GPU, die von einer 980ti klar geschlagen wird.
Da ist also keine rede von AMD muß ja nichts machen weil die GPU immer noch genauso mit NVidia mithält. Es ist einfach eine Abstufung in der Leistungsklasse.
Wer damals eine 290X gekauft hat, hatte die beste AMD GPU im Rechner und wer heute eine 390X kauft spielt in der Mittelklasse. Ist das so schwer zu verstehen

Der Hammer ist natürlich, dass es einen Release Treiber für die 300er Reihe gibt, der auf den alten AMD GPU's nicht läuft.

Das hast du ganz vorzüglich erkannt. Ich weiß allerdings nicht, wie du darauf kommst, das ich die 390x der 980ti gegenüberstelle?? Klareres galt das der 980 ohne TI.

Mit dem Treiber ist natürlich erstmal nicht so schön aber - wie Volker schon sagt - nichts ungewöhnliches. Warten wir doch erstmal ab, wie es in ein paar Wochen aussieht. Wenn AMD uns das als Feature verkauft, kann man sich immer noch aufregen.
 
Also bei meinem Nutzungsverhalten hätte ich mit der AMD Karte ca. 100 Euro Mehrkosten in 4 Jahren.

Das mag ja für dich als evtl. gutverdienender Single nicht viel sein, aber soll ja auch noch sowas wie Familien geben, hab ich mal gehört.
Es soll auch Leute geben, die keinen Goldesel in der Garage haben.


Ja dann, bei 100€ Mehrkosten für Strom innerhalb von 4 Jahren ist die Sache ja klar, bei so einem Strom- pardon Geldverbrenner. Ich meine 25€ im Jahr oder 2,08€ im Monat macht den Unterschied zwischen Hungertuch und Familie gerade so durchbringen und Luxusurlaub an der Costa Amalfi:lol: und das bei einem Produkt, welches, wenn wir mal ehrlich sind, doch sehr weit hinten in der dekadenten Sparte der Luxusaufwendungen liegt.

Als verantwortungsbewusster Familienvater würde ich sicher keine 350€ in ein Produkt investieren, das für mein Hobby gedacht ist, welches ich auch mit einer weitaus günstigern Grafikkarte ausüben könnte und mir 2€ im Monat so weh tun würden, dass das Wohlbefinden meiner Familie dadurch in deutlichem Maße eingeschränkt wird. Aber garantiert nicht.
 
MikelMolto schrieb:
Der Hammer ist natürlich, dass es einen Release Treiber für die 300er Reihe gibt, der auf den alten AMD GPU's nicht läuft. Wie man in Österreich und Süddeutschland sagt ist das ganz schön hinterfotzig von AMD. Nicht nur das man mit so einem Treiber die Leistung der 300er Reihe pushen kann und somit in den Testberichten besser aussieht, sondern man läßt alle die eine 290X haben im Regen stehen.

Du denkst ernsthaft dass der Treiber für die 290er in den nächsten 2-3 Wochen nicht nachgeliefert wird? :rolleyes:
 
Hey Krauti, und an all die anderen Experten, die hier ernsthaft behauptet haben, eine AMD GPU im Rechner zu haben, erhöht auch den CPU Verbrauch :lol:


Ist etwas dran an der Behauptung, dass CPUs abhängig davon, ob eine (vergleichbar schnelle) Nvidia- oder AMD-Grafikkarte im System steckt, mehr oder weniger Energie aufnehmen? Heiße Luft, Wahrheit oder einfach nur alberner Fanboy-Mythos? Wir messen nach!

01-Metro-03.png


Im Umkehrschluss konnten wir jedoch nie nachweisen, dass eine aktuelle GCN-Karte von AMD zu höheren Leistungsaufnahmewerten der CPU führte - ganz im Gegenteil. Somit kann man durchaus davon ausgehen, dass die diesbezüglich oft geäußerten Befürchtungen jeglicher faktischen Grundlage entbehren.

Steckdosenmessungen sind hingegen immer etwas heikel. Die besten Geräte haben selbst im oberen Leistungsbereich noch eine Ungenauigkeit von zwei Prozent und mehr und messen zudem in sehr großen Intervallen. Die mögliche Messungenauigkeit von ca. 10 Watt (oder mehr) ist dann in jedem Fall höher als das, was wir bei unseren Messungen als Differenz zwischen den Leistungsaufnahmewerte der CPU beim Einsatz verschiedener Grafikkarten überhaupt ermitteln konnten. Damit disqualiziert sich hier jede Steckdosenmessung.

http://www.tomshardware.de/leistungsaufnahme-cpu-grafikkarten-amd-nvidia,testberichte-241818-3.html
 
@ Lobos84
Kannst Du mir die 25% Steigerung mal zeigen? Wir reden hier schon von einer Custom 780ti, oder?? Der Vergleich ging auch zur 290X, nicht 390X.
das Beisppiel galt an erster Stelle für die GTX 780 - nach der ja auch gefragt wurde!

Das ist ja das Problem, bei den nVidia Karten wird wenig getestet - da kommt am Anfang ein Referenz-Test und alles andere, Jahre später wird mit den Daten dann verglichen!
Hier ein alter Test mit einer GTX780 Custom-Karte im A1 Stepping und noch nicht mal 1.100 MHz (1.084 MHz) dauer Boost!
https://www.computerbase.de/2013-07/palit-geforce-gtx-780-super-jetstream-test/2/
Ergeben schon 17% gegen die getestet Referenz GTX780 und über der Leistung der Titan 1.

Mal zum Vergleich, meine eher durchschnittliche SuperJetstream macht 1.120 MHz ohne OC - mit OC sind es dann 1.290 MHz stabil.
So bist Du bei den 25% (mit OC deutlich darüber).

Bei der GTX780ti sieht es ähnlich aus!

Das ist doch das Interesse der Hersteller AMD & nVidia, die neuen Generationen GTX780 Custom --> GTX980 war nur unwesentlich schneller .
 
PiPaPa schrieb:
Was ist denn das für eine Logik? Und die Nebenkosten bezahlst du nicht etwa mit? :freak:
Natürlich zahle ich Nebenkosten aber mit mir rund 40 andere Leute ob da jetzt eine 50W Birne drinne steckt oder eine Energiesparlampe mit 12W die 2 minuten leuchtet weil jemand den Schalter drückt macht auf das Jahr/Monat gesehen keinen so großen Unterschied. Außerdem müsste man dann noch rund 20 Birnen(wahrscheinlich sogar mehr) im ganzen Haus tauschen. Ist eine ziemlich simple Logik und den Hausmeister kann ich nicht zwingen alle Birnen zu tauschen, allerdings kann ich darauf achten was für eine Grafikkarte ich kaufe.
Ebenso tausche ich nicht die Birnen in meiner Wohnung gegen Sparbirnen, warum nicht? Ganz einfach die leuchten ebenso nur ein paar Minuten am Tag (wenn überhaupt)

Wenn du jetzt die Wahl hast zwischen zwei Grafikkarten die in etwa die gleiche Leistung haben und die eine etwas teurer ist aber dafür deutlich leiser ist und deutlich weniger Strom verbraucht, würdest du wirklich die günstigere nehmen?
 
Zuletzt bearbeitet:
Lars_SHG schrieb:
@ Lobos84

das Beisppiel galt an erster Stelle für die GTX 780 - nach der ja auch gefragt wurde!

Das ist ja das Problem, bei den nVidia Karten wird wenig getestet - da kommt am Anfang ein Referenz-Test und alles andere, Jahre später wird mit den Daten dann verglichen!
Hier ein alter Test mit einer GTX780 Custom-Karte im A1 Stepping und noch nicht mal 1.100 MHz (1.084 MHz) dauer Boost!
https://www.computerbase.de/2013-07/palit-geforce-gtx-780-super-jetstream-test/2/
Ergeben schon 17% gegen die getestet Referenz GTX780 und über der Leistung der Titan 1.

Mal zum Vergleich, meine eher durchschnittliche SuperJetstream macht 1.120 MHz ohne OC - mit OC sind es dann 1.290 MHz stabil.
So bist Du bei den 25% (mit OC deutlich darüber

okay, jetzt versteh ich, wie du darauf kommst. OC muss man hier aber wahrscheinlich nochmal separat betrachten (auch für die 290).
 
@ Lobos84
OC muss man hier aber wahrscheinlich nochmal separat betrachten (auch für die 290).
Natürlich, OC ist von Karte zu Karte und auch von Serie zu Serie immer verschieden, kann man nicht vereinheitlichen!
Das Problem bei Vergleichen hier mit einer GTX780(ti) und warum die so rabiat im Vergleich / Diagramm abfallen ist aber ein anderer!
Das Referenz-Muster hing hier massiv im Temp.-Limit, weshalb es ja noch nicht mal den Boost halten konnte der dafür vorgesehen war.
Deshalb waren die GTX780(ti) Custom so deutlich stärker und auch immer vor der Titan (1)!
Ein Rückblick auf jetzige Vergleiche ist daher schwierig, da immer noch hier bei CB die alten, zwar für die Referenz-Karte der ersten Generation gültigen Werte genommen werden, diese aber nicht mehr gibt - auch kaum gekauft wurden!

Die Custom-Modelle waren deutlich schneller und das OHNE OC - hinzu kam dann auch noch, das man sie auch noch gut übertakten konnte.
So kommen diese gewaltigen Sprünge je nach Karte von Referenz GTX780(ti) --> Custom GTX780ti von 20% - 30% je nach Kühlung, Chipgüte (ASIC) und OHNE OC!
Mit OC kann man nicht vergleichen, da gehen die 290(x) ja auch etwas, mal mehr mal weniger!

Das Problem ist, AMD gibt einen Boost-Wert an der gehalten werden soll, nVdia gibt den auch an, liegt aber immer deutlich darüber!
 
Der Landvogt schrieb:
Was findest du denn besser? (...) Ich finde leider beim besten Willen nichts. (...)
Dazu kommen noch Treibertricks die die 300er Reihe besser dastehen lassen:
http://ht4u.net/news/31200_amd_trickst_ueber_treiber_und_laesst_r-300-serie_besser_aussehen/
Wenn sich NV derartiges erlaubt, würden hier so einige abgehen.

Dass es kein (an die Presse verschicktes) Referenzdesign gibt spricht auch Bände. Sprich, selbst da hat nicht nichts getan. Einfach nur enttäuschend wo man doch gerade hier sehr einfach hätte punkten können.


Jaja unser Landvogt, der immer wieder mal durch dezent verpacktes Bashing, Mutmaßungen und einseitige Polarisation hier im Forum auffällt. Und zwar häufig dann, wenn es erhobenen Hauptes und stolz voran schreitend ans AMD-schlechtmachen und gleichermaßen ans nvidia-verteidigen geht.

Du findest nichts besseres? Dann sind dir wohl z.B. die um fast 30% gestiegenen Benchmarkergebnisse der 390X nicht aufgefallen. Also einer der Kernaspekte dieses Tests und dieser Diskussion. Ignoranz in Reinform.

Treibermanipulation bei AMD? Skandal... Würde sich nvidia niemals erlauben. Oder? http://www.heise.de/newsticker/meldung/Nvidia-mogelt-sich-durch-Grafik-Test-79615.html
Lass doch bitte diesen verzweifelten Aktionismus, auch die letzte gekackte Korinthe in diesen Angelegenheiten zu suchen.

Und ist das wirklich dein Ernst? Du stellst es als etwas schlechtes und bedenkliches dar, dass es kein Referenzdesign gibt? Du stehst schon bis über beide Ohren in deinen eigenen Korinthen mit einer solchen Aussage, wie ich finde. Sei doch froh, dass auf ein offenkundig lautes und unerwünschtes Referenzdesign verzichtet wird und dass es sofort gute Custom Designs gibt. Wenn es so enttäuschend für dich ist, dann entferne doch einfach die guten Vapor-X Kühler etc. und bastel dir deinen Referenzkühler wieder drauf. Aufgrund dessen "Beliebtheit" wirst du sicherlich günstig an Selbigen heran kommen. Vorausgesetzt, die Gnade des Landvogts erlaubt überhaupt AMD-Hardware in seiner Nähe.
 
zeedy schrieb:
Hey Krauti, und an all die anderen Experten, die hier ernsthaft behauptet haben, eine AMD GPU im Rechner zu haben, erhöht auch den CPU Verbrauch :lol:




01-Metro-03.png




http://www.tomshardware.de/leistungsaufnahme-cpu-grafikkarten-amd-nvidia,testberichte-241818-3.html


hallo zeedy.

Zum Einen habe ich nicht behauptet, sondern vermutet, ein kleiner aber feiner Unterschied und mit Bezug auf das Delta des Gesamtsystems @ CB Last. Zum anderen bringt in deinem Screenshot eine GTX 970 mehr Frames, ergo mehr CPU Load, also ist da das Ergebnis quasi 0/0, die CPU Last etwa gleich hoch (pro Frame) und bei der Nvidia sogar im Gesamten etwas höher. Der Test selbst zeit aber das es in den getesteten Titeln ziemlich genau 0 Unterschied macht und die CPU Leistungsaufnahme gleich ist.

Bei der Vermutung meinerseits, dass die CPU auch am Mehrverbrauch beteilt sein könnte ging es ja um Entlastung der AMD GPU als Verbrauchsträger, falls dir das entgangen ist.

Außerdem ist ein Spiel hierfür recht unrelevant da Metro nicht wie zb Ryse, eine höhere CPU Last unter DX11 auf AMD GPUs vorweisen kann.

Der neue Treiber von AMD wird das zudem auch noch mal ganz ordentlich angehen. Also das DX11 Problem.

Ich hab übrigens selben, guten Test von THG schon gepostet - nicht hier aber in einer anderen News. Du brauchst dir also nicht selbst was beweisen weil du dich in deiner roten Vorliebe manchmal etwas angegangen fühlst. :)
Im Prinzip schiebst du damit den Verbrauch @ CB Gesamtsystem ja wieder an die GPU ab, ergo braucht die R9 390X zb wirklich ne Stange (teils fast Faktor 2 oder?) mehr Saft als die GTX 970 @ Gaming Last. Wie schon geschrieben ist es dem Anwender letztendlich ja egal welche Komponente, er zahlt das was aus der Dose gezogen wird. Deswegen ist der CB Test auch recht gut für, die Testmethodik stimmt.
Ergänzung ()

PiPaPa schrieb:
Irgendwie muss ich die ganze Zeit an Peter Zwegat und den Typen, der anstatt seine Schulden zu bezahlen gleich erstmal eine neue Grafikkarte kauft, denken... :freak:

was spielt das für ne Rolle? Angenommen ihm geht es tatsächlich um 2 € im Monat, was ist dann damit? Ich würde beim GPU Kauf auch eher mit 4 Jahren kalkulieren + steigenden Stromkosten. 2€ im Monat ja, wieso rechnest du es nicht gleich noch auf Minuten um? 2€ im Monat machen auf 3 Jahre schon nen guten Unterschied und je nach GPU bringt das durchaus das bessere P/L bei AMD zum wackeln, das kann man auch ohne rote oder grüne Brille ganz nüchtern feststellen.

Is natürlich super wenn man mit 120W Glühbirnen argumentieren muss um dem anderen das Stromsparen abzugewöhnen oder den Mehrverbrauch nichtig zu reden... auch nicht gerade die feine objektive Art oder? Selbst 50 Cent Stromverbrauch / Monat wären z.B. wesentlich relevanter als - DP Leistung beim GM200 ^^ mit denen du zB all Furz ums Eck kommst.
 
Zuletzt bearbeitet:
Das schöne bei Besserwissern ist, die wissen immer alles besser und haben auch für ALLES IMMER Argumente oder Gegenargumente.
Dem füg ich nichts hinzu, jeder soll in seiner Fantasiewelt leben wie er mag.

Meine Argumente waren ja wohl ziemlich klar: warum soll ich eine Grafikkarte kaufen, wenn es eine gleichteure bessere gibt, die in allen von mir genannten Punkten nunmal schlicht und ergreifend besser ist?
 
@flappes: mimimimimimimimimimimimimm
Als wenn es beim Bashing darum ginge jemanden zu überzeugen etwas zu kaufen, was dieser eh nicht kauft, auch wenn es besser wäre. Von daher wieder mal astreiner Kindergarten.

- Weitermachen - :king:
 
flappes schrieb:
Meine Argumente waren ja wohl ziemlich klar: warum soll ich eine Grafikkarte kaufen, wenn es eine gleichteure bessere gibt, die in allen von mir genannten Punkten nunmal schlicht und ergreifend besser ist?

Du hast dich auf die 3xx Reihe bezogen und das ist vollkommen ok :)
Für Effizienz gibt es bei AMD derzeit Fiji. Es wurde (nun endlich) klar dass diese für viele als Totschlagargument schlechthin hergenommen wird. Dazu gesellt sich die übliche Wärmeentwicklung.

Mit der Fury Nano wird alles besser werden. Ich denke mal spätestens mit der nächsten Generation bekommen wir auch im Mittelfeld HBM und effiziente Chips.

Wobei ich nochmal ganz ehrlich sagen muss: Das Leistungs/Temp Argument zieht aktuell nur noch, wenn man die 290/290X/390/390X mit der GTX970 vergleicht. Andere Preisbereiche sind dann in Bezug auf Effizienz/Wärmeentwicklung gleichwertig, wobei die Leistungsdaten noch darauf warten, erhoben zu werden ;)

mfg,
Max
 
Leute die 970 die mit der 390 mithalten kann - ist eine OC Version. Die 390 ist Standard.

Die 390 OC version würde die 970 OC version platt machen. Dafür halt mit viel Stromverbrauch (gilt für beide).

Wie Krank ist es, das immer wieder zu vergessen? Eine GTX 970 OC - hat einen anderen, höheren Stromverbrauch.

Leistung einer 970 OC nehmen, aber dann den Strom der Standard Version 970 nehmen. Ja so hätte die 390 gar keine Chance.
 
Zuletzt bearbeitet:
generell gilt dass die R9 390 / X mit ihren 8 Gb wohl deutlich länger überleben wird als die 4GB Versionen der GTX 980 / GTX 970 / R9 290X. Deswegen wenn ne GPU, dann wirklich die Hawaii Karten (außer man braucht wirklich Features wie HDMI 2.0 zwingend oder kauft eh nur auf 1-2 Jahre ein...)
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben