Test AMD Radeon R9 390X, 390, 380 und R7 370 im Test: Den Unterschieden zur R9-200-Serie auf der Spur

Status
Für weitere Antworten geschlossen.
kisser schrieb:
LOL. Da kommt ein Treiber, der die Tesselationsleitung steigert, aber das liegt nicht am Treiber. :freak:
Denkst du eigentlich nach vor dem Posten?

Und die Tesselationsleistung wurde mit Benchmarks eines SDK gemessen und nicht mit The Witcher 3.
Du behauptest AMD habe die Tesselationsleistung in The Witcher 3 alleine durch den Treiber verbessert, ohne es belegen zu können.
Denn wie dir evtl. aufgefallen ist, ist nicht nur der Tesselationslevel entscheidend, sondern der Content in Verbindung mit dem Tesselationsgrad.

Zuviel Daten haben bei AMD die Leitungen verstopft, vielleicht hat AMD das mit einem Workaround verbessert.
Allerdings dichtest du AMD wieder Treiberprobleme an, ohne überhaupt irgendetwas belegen zu können.
Heutzutage lassen sich Hardwarelimitierungen mit Treibern umgehen.
 
Zuletzt bearbeitet:
ampre schrieb:
Du vergleichst 390 mit 960 was geht hier ab...... es wird hier immer besser immer mehr an der Realität vorbei. Aber was will man in einem Computerforum erwarten außer virtuelle Welten wo alles möglich ist!

@conker
Du spielst jeden Tag 3 Stunden und das 365 Tage im Jahr hast du keine Freunde?

Und noch was bei einem Rechner der dann um die 1200 Euro mit diesen Komponenten kostet machen über 3 Jahre diese 150 Euro dann den Bock fett? das sind im Monat 4 Euro. Einmal nicht zu McDonalds und du hast das Geld wieder

Entweder man hat viel Geld im Leben oder muss sich halt sein Leben finanziell anpassen. Mit geht es nur darum dass 400W ganz einfach zu viel sind.
 
Naja und meinst du jemand der viel Geld hat und sich einen solchen Rechner kauft macht sich Gedanken um 4 Euro im Monat? Oder anders rum glaubst du das sich ein hatz4 Empfänger eine 390 kauft?

Denk mal drüber nach was du hier schreibst und wieviel 100w sind. Das sind ca. zwei alte 60w Lampen. Das wurde schon oft geschrieben das es sinnvollere Energiesparmaßnahmen gibt.
 
Zuletzt bearbeitet:
Luxmanl525 schrieb:
Hallo zusammen,

@ zeedy

Ich empfehle dir mal den nachfolgenden Artikel und zwar allerwärmstens:



Den sollten sich im übrigen auch all die anderen Fuzzys mal reinziehen, welche der Ansicht sind, AMD habe alles richtig gemacht oder ähnlichem.

Bin übrigens auch der Meinung, daß CB sich in diesem Fall auch hätte enthalten sollen, was Tests zum jetzigen Zeitpunkt angeht.

Sagmal, diskutiere ich mit einer Wand? Warum gehst du nicht auf meine Argumente ein? Ja danke für die warme Empfehlung, den Artikel kannte ich aber bereits. Was nun? Ist die persönliche Meinung eines Redakteurs ein Fakt, ist seine Sichtweise die einzig richtige? Der Artikel könnte subjektiver kaum sein, und die Reaktion von Peter auf die Kritik dazu finde ich schon ziemlich peinlich.

Nochmal für dich:

Jeder mit Menschenhirn in der Birne wird wohl wissen, dass der Hawaii Chip in einer R9 390 nicht schneller sein kann als der selbe Chip in einer R9 290, eben weil es der selbe Chip ist. Dass es sich um die bereits bekannten GPUs handelt, haben alle Reviewer auch bestätigt. Da kann AMD also niemanden "reinlegen". Das einzig interessante bei den Reviews sind die Frequenzen, Leistungsaufnahme und die Kühler der Partnerlösungen.

So nun hat AMD seinen neuen, verbesserten Treiber zum R300 Release für die Reviewer freigegeben, um die R300 Serie besser zu präsentieren. Man könnte dies einen Marketing-Trick nennen, aber ganz sicher nicht "Treiber-Trick" wie in der Überschrift von ht4u, denn der Treiber kommt ja noch für alle GCN Karten.

WENN wir nun mehrere Wochen auf den neuen Treiber für die 200er Serie warten müssen, oder WENN die gleichen GPUs der 200er und 300er Serie mit dem Treiber unterschiedlich schnell sind, dann können wir AMD noch mehr bashen als jetzt schon. Jetzt das Haar in der Suppe zu suchen, finde ich ganz schön albern.
 
Conker schrieb:
Entweder man hat viel Geld im Leben oder muss sich halt sein Leben finanziell anpassen. Mit geht es nur darum dass 400W ganz einfach zu viel sind.

Deine Verbrauchsrechnungen sind aber schon etwas schön gerechnet.

Nehme ich z.B. eine GTX980, käme ich bei 3 Stunden pro Tag auf Volllast auf 72€ im Jahr bei 24 Cent pro kWh. Bei einer AMD-Lösung in der gleichen Leistungsklasse, käme ich mit einer 390 auf 104€ im Jahr. Differenz von 32€. Dafür könnte ich die 390 für 200€ weniger erwerben als die GTX980. Das hieße, ich müsste die 980 über 6 Jahre laufen lassen, bei identischem System, damit sich der höhere Kaufpreis amortisiert hätte.

Mal davon abgesehen, dass 3 Stunden pro Tag relativ viel sind, steckt sich keiner für 6 Jahre eine Grafikkarte in dem Leistungssegment in den Rechner.

Da gibt es wesentlich sinnvollere Sparmechanismen. Da würde wahrscheinlich ein neuer Kühlschrank oder eine neue Waschmaschine schon mehr bringen als irgendwelche alten Dinger laufen zu lassen.
 
Zuletzt bearbeitet:
@SKu:

Richtig, deshalb kann man den Verbrauch ignorieren.
 
ampre schrieb:
Und noch was bei einem Rechner der dann um die 1200 Euro mit diesen Komponenten kostet machen über 3 Jahre diese 150 Euro dann den Bock fett? das sind im Monat 4 Euro. Einmal nicht zu McDonalds und du hast das Geld wieder

Das ist doch ein völliges Nullargument. Die Frage ist doch, warum sollte er 150€ mehr zahlen? Wenn deine Antwort ist "Weil ich AMD unterstützen will" schön und gut, aber aus logischer Sicht gibt es keinen Grund mehr Geld auszugeben, einfach weil man sowieso schon viel Geld ausgibt.
 
ampre schrieb:
Du vergleichst 390 mit 960 was geht hier ab...... es wird hier immer besser immer mehr an der Realität vorbei. Aber was will man in einem Computerforum erwarten außer virtuelle Welten wo alles möglich ist!

@conker
Du spielst jeden Tag 3 Stunden und das 365 Tage im Jahr hast du keine Freunde?

Und noch was bei einem Rechner der dann um die 1200 Euro mit diesen Komponenten kostet machen über 3 Jahre diese 150 Euro dann den Bock fett? das sind im Monat 4 Euro. Einmal nicht zu McDonalds und du hast das Geld wieder

Geht dich etwa an wieviel er täglich spielt? Bei dir läuft ja gewaltig was verkehrt. Warum an einem McDonald's Besuch sparen, wenn ich einfach eine Karte kaufen kann die weniger Strom frisst ?
 
Genauso gut könnte man sich statt dem 1200€ PC einen 1350€ PC hinstellen. Macht ja keinen Unterschied. Oder statt dem 1350€ PC einen 1500€ PC.

Warum überhaupt noch irgendwas anderes außer das Topmodell testen, soll einfach Jeder das Topmodell kaufen und fertig. Macht ja keinen Unterschied.
 
Weil man auch mehr Leistung bekommt und einen besseren Langzeitsupport? Oder man 200 Euro zu Nvidias Oberklasse spart ...
 
Welcher Langzeitsupport? Die neue 300 Reihe kann nichtmal das vor 6 Monaten eingeführte VSR. Von Neuerungen kann man da nur träumen.

200€ sparen ist kein Argument (von was zu was eigentlich?). Siehe dein McDonald Beispiel.
 
Wass soll hier abgehen, GTX 970, 46€ Ersparnis im Jahr zur 390?????

Tatsache ist eigentlich, umso früher man die R9 290X gekauft hat, desto mehr profitiert man von dieser Karte. Das gilt eigentlich sogar wahrscheinlich für die 7970 GHZ Edition erst recht.
Hier wurde ständig immer wieder davon geredet, dass der Verbrauch ja soviel mehr kostet und dass man unbedingt zu NV greifen muss. Was ist jetzt ? Viele die eine 770 gekauft haben, statt einer R9 280X denken eher ans aufrüsten zur neuen Generation. Die R9 280X bekommt offensichtlich ebenso VSR und scheinbar durch die Treiber wieder mehr Performance und setzt sich weiter von der 770 GTX bzw 680 GTX ab.

Was ist hier die Ersparnis ? Wer die Karten schon lange hat und sogar zu günstigen Zeitpunkten zugegriffen hat, kann die Karte noch lange fahren bevor er die die Mehrkosten oder sogar das Aufrüsten ausgleicht.

Also einfach mal den Ball flach halten, denn für das, dass die Chips von der Basic her alt sind, sind sie scheinbar noch sehr gute Chips, dessen einziger Manko ein höher Verbauch ist, was übrigens immer noch Personen-Bezogen ist, ob das ausschlaggebend ist oder nicht. Hier werden dann noch Sachen geäußert wie, der Raum wird aufgeheizt. Ich will euch mal ein Beispiel geben:

http://www.amazon.de/gp/offer-listi...=df2&childASIN=B00TG4M43W&smid=A2HZK97CNJJEZI

Solche elektrischen Heizstrahler sind mit 1000 Watt plus angegeben und aus Erfahrung weiß ich, dass selbst diese nicht unbedingt optimal einen Raum erwärmen müssen. Und ihr seid der Meinung 100 Watt mache es aus. Zeigt dass viele hier nur von Hören und sagen sprechen.
Bio-Physikalisch strahlt ein Mensch um die 80-100 Watt aus. Somit, wenn es mal kalt wird, lade ich am besten ein- zwei Freund ein damit es wärmer wird ? Solange dass keine Mädels sind, wird es wohl eher bei der Eiszeit bleiben.

Unyu
Laut einigen User im PCGH oder Guru Forum unterstützten ab den neuen Treiber auch ältere Karten VSR.
 
Zuletzt bearbeitet:
kisser schrieb:
LOL. Da kommt ein Treiber, der die Tesselationsleitung steigert, aber das liegt nicht am Treiber.

Naja. Vielleicht wird x32 oder x16 Tessellation nun standardmässig über den Treiber erzwungen. Dann wäre es nichts besonderes. Naja gut dann würden aber einige von euch wieder von Betrug und lästigen Tricks sprechen, selbst wenns in dem Fall keine Rolle spielt, weil Nachteile gibts so gesehen keine. Dafür Vorteile für die, die es nicht wissen.

Kann man vielleicht gut bestätigen, wenn man erst mal den Treiber nimmt und an der Tessellation im Catalyst nichts ändert, Witcher mit Hairworks testet und dann mit der Überschreibung auf x16 und x32. Wenn sich weiter was tut mit der Leistung, dann ist dies nicht mehr der Fall dann hat AMD irgendetwas anderes gemacht.
 
Zuletzt bearbeitet:
ampre schrieb:
Weil man auch mehr Leistung bekommt und einen besseren Langzeitsupport? Oder man 200 Euro zu Nvidias Oberklasse spart ...

Kriegst du? Momentan sehe ich davon nichts, ich hatte vorher 3 GPU's von AMD drin, da wurde genauso ein Schnitt gemacht, wie bei nVidia auch.

Ich frage mich was dieses Gegenargumentieren soll, bei einer GPU der gleichen Leistungsklasse. Jeder sucht sich das für ihn passende Produkt aus. nVidia bietet HDMI 2.0, schnelleren Treibersupport (!= besser), weniger Abwärme, weniger Stromverbrauch.

AMD geht in dieser Leistungsklasse rein über den Preis + 8 GB Speicher. Jeder kann dann wohl selbst entscheiden was er nimmt. Warum sollte sich irgendjemand rechtfertigen das er eine nVidia genommen hat, vor allem wenn er diese schon vor über nem halben Jahr kaufen konnte. Der Erfolg der AMD in dieser Leistungsklasse kann man schlecht voraussehen, jedoch muss man sagen das der Markt gut gesättigt ist, sieht man ganz gut an den Verkaufszahlen der 970.
 
pipip schrieb:
Laut einigen User im PCGH oder Guru Forum unterstützten ab den neuen Treiber auch ältere Karten VSR.
Quelle?

Die R9 280X bekommt offensichtlich ebenso VSR und scheinbar durch die Treiber wieder mehr Performance und setzt sich weiter von der 770 GTX bzw 680 GTX ab.
Warum vergleichst du die 280X mit der Vorgängergeneration? Wie auch immer, die GTX 680 hat sei weit über einem halben Jahr vollen DSR Support.
Bildqualitätcheats oder Tessellationschalter hat sie bis heute nicht nötig.

tic-tac-toe-x-o schrieb:
Naja. Vielleicht wird x32 oder x16 Tessellation nun standardmässig über den Treiber erzwungen.
Also doch wieder Bildqualitätcheats.
 
Mehrkosten pro Jahr hin oder her...

ganz einfach..

ich kann Computern mit Gratis Licht quasi..

dh meine nvidia verbraucht unter last 80-90 Watt weniger als amd, ich kann jedesmal wenn ich spiele(egal ob 20 minuten am tag oder 5 stunden)

gratis meine 60watt glühbirne dazu betreiben..

dh ich habe beim computerspielen gratis licht dazu, und das finde ich sehr angenehm..
 
Zuletzt bearbeitet von einem Moderator:
Unyu schrieb:
Also doch wieder Bildqualitätcheats.

Das war NUR NE VERMUTUNG, die sich erst mal bestätigen lassen muss.
Und von der Bildqualität merkst du auch NICHTS, WENN es denn so wäre. Das ist jedenfalls was anderes als die HD6000 AF Geschichte, wo so einige Spiele darunter leiden...
 
Zuletzt bearbeitet:
ampre schrieb:
1.) ja es ist die selbe Generation um so peinlicher für NVIDIA das sie sich mit einer neuen Generation nicht Leistungstechnich absetzen können. Jeder der vor 2 Jahren eine 290x gekauft hat hält heute noch mit der gtx980 mit denk mal darüber nach! Kein Updatewahn wie NVIDIA wo kein Reserven vorgesehen sind!
Schau dir nur den wicher3 shitstorm an im NVIDIA eigenen Forum
https://forums.geforce.com/default/...-performance-in-the-witcher-3-wild-hunt-/111/
2.) AMD hat eingesehen das sie keine Kühler bauen können und überlässt es nun denen die das können (den Boardpartnern) das ist doch Super! Deshalb ist der Chip doch nicht schlecht!
1. Genau, mit der 980Ti hatte man keinerlei Reserven und 290x und 390x können mehr als locker mithalten...
2. Warum ist das jetzt super? Dass man jetzt extrem darüber informieren muss welcher Lüfter was taugt anstatt im Zweifelsfall zur Referenz zu greifen?
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben