Bericht AMD Radeon RX 480: Crimson 16.7.2 legt bei der Leistung deutlich zu

@Nachoman: Mein Beileid.

@flappes: Vorsicht, sonst kommen Dir die Trolle wieder mit BLB! ;)
Im Ernst: Jeder der auch nur im Ansatz "Farbigkeit" statt "Bunt" haben will, nimmt einen IPS, oder Abkömmling. TN geht eigentlich nur noch, wenn überhaupt, für extrem schnelle Shooter. Und auch da kann man mit einem guten IPS mithalten.

@Notgnimner: hm. Ich würde sagen Jein. Es mag ja "gute" TN geben. Allerdings tue ich mir sowas nicht an. Andererseits lese ich natürlich erst mal die Tests, bevor ich mir überhaupt irgendwas kaufe. :)

@Tudeski: Es sind bis zu 6%. Für die Erklärung Siege z. B. den Post von Don Kamillentee etwas weiter oben.
 
Zuletzt bearbeitet: (New)
AMD Radeon RX 480: Crimson 16.7.2 legt bei der Leistung deutlich zu
ich sehe 1-4% leistungssteigerung - kann mir jemand erklären was daran deutlich ist?
 
Wenn die Customs jetzt bitte getestet werden könnten? Danke. ;)
 
Minutourus schrieb:
Sarkasmus on:
Eigentlich lächerlich; 30-40 Watt.!!, drehe ich halt am Sch...haus das Licht ab, 60 Watt gespart.....
Sarkasmus off:

Früher war es uns doch auch egal wie viel Strom so ein Teil verbrannt hat, sehe es schon kommen das sich die Leute wegen 1 Watt die Köpfe einschlagen werden....

aber sich dann die OC Super edition von der GTX 10x0 kaufen und glauben die Verbraucht das selbe wie die Referenzkarte ... >> hast du vergessen zu erwähnen ;-)
 
Also ehrlich, da sollte man den dicken Knüppel nehmen und auf die AMD Manager einschlagen. Die stellen eine Neue GPU vor und dann sammelt man erst einmal fleißig negativ Werbung um die GPU dann beim Kunden reifen zu lassen, bis die gut ist.
Man stelle sich den Erfolg vor, wenn die RX 480 vier Wochen später gekommen wäre und dann auch noch als gescheite Custom GPU's mit gutem Treiber.

Ich freue mich aber, dass AMD Druck macht auf NVidia. Umso mehr Druck umso mehr muß NVidia liefern und dieser Konkurrenzkampf kennt nur einen Gewinner, nämlich uns Kunden!
 
schidddy schrieb:
wieso hat man Polaris 10 dann nicht gleich bei TSMC fertigen lassen? Hätte ja praktisch nur Vorteile und die Karte wäre jetzt nicht so extrem stark durch Ihre TDP limitiert..?

Zum Beispiel weil TSMC mit der Fertigung von Apple Chips ausgelastet ist und man sich die Fertigung auch noch mit nVidia tielen müsste...

So hat man 'ne ganze Fab ganz für sich alleine (naja, more or less)...
Ergänzung ()

Nacho_Man schrieb:
Aber bei AMD ist das plötzlich in Ordnung, was???
Gab es denn jemals eine nVidia-Karte die zwei Wochen nach dem Start so einen Boost bekommen hat?

Tja, was ist dir lieber:
Eine Karte, die im Laufe ihrer Zeit an Leistung gewinnt?
Eine Karte, die im Laufe ihrer Zeit an Leistung 'verliert'?

Also hierbei meine ich jetzt die Benchmarks, in denen die R9-280X etwa gleichauf mit der GTX 780 ist...
 
Novasun schrieb:
Hast du Ahnung? - Anscheinend nicht - sonst wüsstest du dass, das mehr ausm 6Pin Anschluss keinen Elektriker ins Schwitzen bringt... Der 6er ist offiziell auf Wert x freigegeben. Er kann aber ohne Probleme (und das sagen alle die Ahnung haben) X+N liefern. Und dein Netzteil juckt es auch nicht. Ergo alles in Butter und im Kombatibilitäts-Modus bringt die Karte die Leistung die Sie laut Reviews bringen muss.

Gut, dann täusche ich mich eben und Menschen haben sich noch nie darüber beschwert, dass die eingesetzte Hardware bei billigen Netzteilen zicken, welche sich außerhalb der 5% Toleranz bewegen...

Man sollte nicht davon ausgehen, dass die Menschen irgendwann anfangen nicht bei Netzteilen zu sparen, sondern gerade hierauf Wert zu legen. Doch leider ist das der Punkt, wo die meisten nur zwei Sachen sehen: a.) Watt und b.) Preis. Ersteres möglichst hoch und letzteres möglichst niedrig. Ich bewege mich schon lange genug in Foren herum und habe auch selbst schon den Fehler begangen und ein billiges Netzteil gekauft, nur um eben festzustellen, dass es so überhaupt nicht passt.
Da braucht es keinen Elektriker dazu. Praxiserfahrung reicht aus.
 
oldmanhunting schrieb:
Also ehrlich, da sollte man den dicken Knüppel nehmen und auf die AMD Manager einschlagen. Die stellen eine Neue GPU vor und dann sammelt man erst einmal fleißig negativ Werbung um die GPU dann beim Kunden reifen zu lassen, bis die gut ist.
Man stelle sich den Erfolg vor, wenn die RX 480 vier Wochen später gekommen wäre und dann auch noch als gescheite Custom GPU's mit gutem Treiber.

Ich freue mich aber, dass AMD Druck macht auf NVidia. Umso mehr Druck umso mehr muß NVidia liefern und dieser Konkurrenzkampf kennt nur einen Gewinner, nämlich uns Kunden!

Stimme dir zu aber es ist doch schon die Regel das Produkte meistens bei den Kunden reifen oder verbessert werden, es fehlt einfach und das bei AMD besonders die Zeit, Mittel und Ressourcen aber generell haben Sie bis auf die PCIe Geschichte einen doch guten Start hingelegt, das Produkt war ein Hard Launch, es gab sogar für Lau ein Upgrade auf die 8GB VRAM und die Karte erfährt bereits div. Optimierungen die wiederum der Vorgänger GCN Generationen auch zu gute kommt, also uns als Endverbraucher.......
 
HITCHER_I schrieb:
Eigentlich kann es ja für den 6-Pin PCIe Stromstecker kein Problem sein auch 125W zu liefern, sofern er mit 3 x 12V Leitungen und 3x Masse belegt ist, wenn der PIV CPU 12V-Stecker mit 4 Kontakten (2x 12V, 2x Masse) für 95W freigegeben ist.

Aber wie macht das AMD eigentlich, den PCIe-Slot zu entlasten, und dafür mehr Strom vom PCIe 6-Pin Stromstecker zu beziehen? Kann der GPU-Spannungswandler seine Eingänge denn per Treibersoftware einfach umschalten? Dachte eigentlich, solche Lowlevel-Konfiguration wäre nur mit einer anderen Firmware für VRM, bzw. Grafikkarten-BIOS möglich.
Noch einmal:

Guggsu mal hier:
http://www.tomshardware.de/AFOX-HD-6850-Low-Profile-Review,testberichte-240837.html

Diese kleine Karte nuckelt 135W aus dem Slot und jetzt macht man solch einen Terz um etwa +0,25A pro Pin?!
Zumal bisher auch ziemlich klar sein sollte, dass die PCIe Spec verdammt konservativ ist...
Schauts doch mal den 6pin Stecker an (OK, offiziell nur mit 4pins belegt), der 75W bereit stellen soll...
75/12 -> 6.25A...
Und jetzt schaut mal bitte bei Molex, was deren 'Mini Fit jr' Serie ab kann...
Richtig, die 6.25A sind locker in Spec - für ein Aderpaar. Und hier hat man dann 2-3 sogar...
Praktisch könnte also der originale 6pin Stecker schon locker 150W, mit 3 Aderpaare sogar 225W, ohne Probleme.

Warum glaubt ihr jetzt, dass das beim Slot anders sein soll?!
Zumal die MoBo Designer eh mehrere Lagen haben und GND sowie Versorgung irgendwo nach innen legen und selbst die mit äußeren Lagen, wo ich sah, schauen jetzt auch nicht so kümmerlich aus...
Da ist dann eher der völlig veraltete ATX Stecker ein Problem, bei dem in der 24pin Ausführung nur 2x12V vorhanden ist (wir brauchen hier dringend die OEM Version davon!)
Ergänzung ()

Minutourus schrieb:
Früher war es uns doch auch egal wie viel Strom so ein Teil verbrannt hat, sehe es schon kommen das sich die Leute wegen 1 Watt die Köpfe einschlagen werden....

Früher haben auch die nVidia Karten mehr verbraucht und die AMD/ATi Karten waren sparsamer. Und das war durch die Bank von Rage 128 über die ersten Radeons bis hin zur Radeon HD6k Serie der Fall, wobei man die HD2900 hier ev. als Ausnahme rausfallen lassen könnte...
 
Stefan Payne schrieb:
Tja, was ist dir lieber:
Eine Karte, die im Laufe ihrer Zeit an Leistung gewinnt?
Eine Karte, die im Laufe ihrer Zeit an Leistung 'verliert'?

Also hierbei meine ich jetzt die Benchmarks, in denen die R9-280X etwa gleichauf mit der GTX 780 ist...
Wohlweislich "verlieren" in Klammern gesetzt um nicht gänzlich zu lügen?
Well done Fanboy ...
Treibersupport einstellen ist kein "verlieren" oder langsamer machen, merk dir das doch mal.
AMD "gewinnt" nur deswegen weil sie schon seit Ewigkeiten auf GCN setzen, da pushen sie zwangsläufig ohne es wirklich zu wollen auch die alten Serien.
 
Zuletzt bearbeitet:
oldmanhunting schrieb:
Also ehrlich, da sollte man den dicken Knüppel nehmen und auf die AMD Manager einschlagen. Die stellen eine Neue GPU vor und dann sammelt man erst einmal fleißig negativ Werbung um die GPU dann beim Kunden reifen zu lassen, bis die gut ist.
Na, erst einmal auf die Redakteure hauen, die (mal wieder) über AMD herfallen und aus irgendwelchen trockenen Fürzen Napalm Bomben machen (müssen)...
Dass die 0,25A pro Pin hier ein Problem sein soll, ist einfach völliger Bullshit. Zumal jeder Steckverbinder im PC weit weg von den Spezifikationen des Steckverbinders spezifiziert ist, siehe weiter vorn das Beispiel mit dem PCIe Stecker, bei dem man die Spec ohne Probleme um 100% überschreiten kann, ohne dass was abfackelt, wenn die dran hängenden Kabel von ausreichender Qualität sind.

Und kommt mir bitte nicht mit irgendwelchen billigen Netzteilen wie 'nem Inter Tech Combat Power. Das kann/darf nicht als Argument gelten!
Ebenso kauft man sich idR auch kein 300/350W Netzteil für 'nen Gaming Rechner sondern eher was in der Richtung 400W.
Und auch hier gibt es leider einige Geräte, die nur über einen 8pin PCIe Anschluss verfügten...
 
obz245 schrieb:
Warum habe ich immer das Gefühl bei einigen Artikeln, von CB Redakteuren, das alles immer Pro Nvidia ist.
Du scheinst dir da ja sehr sicher zu sein, wenn du dafür nicht einmal ein Beispiel nennst. Das ist kein AMD Fan Forum, hier darf durchaus Kritik an deren Produkten geäußert werden. Von dieser gab in diesem Artikel übrigens nicht viel.

[eTP]AcCiDeNt schrieb:
Meist liest man in jedem AMD Bericht minimum eine nVidia Werbezeile.
Ein Kommentar zur Konkurrenz ist keine "Werbezeile". Zumal der Vorwurf, dass man meist, minimum eine Zeile lesen würde ziemlich schwach ist, insbesondere wenn man dies unter einem Artikel erwähnt, der nicht ein Mal von Nvidia spricht. Selbst auf AMD.com wirst du davon nicht verschont werden.

Schnitz schrieb:
was für ein MURKS war der Treiber zum Release?
Beide Lager scheinen ihre Produkte möglichst schnell auf den Markt geworfen zu haben. Nvidia hat schon angekündigt, dass zwei Hotfixes kommen werden, ein weiterer wurde bereits released und ein vierter! wird von Konsumenten erwartet. Alles natürlich für verschiedenste Probleme.

Bei AMD gab es jetzt einen Fix und zwei weitere hat man ComputerBase im Launchartikel versprochen.
 
Stefan Payne schrieb:
...

Und kommt mir bitte nicht mit irgendwelchen billigen Netzteilen wie 'nem Inter Tech Combat Power. Das kann/darf nicht als Argument gelten!
Ebenso kauft man sich idR auch kein 300/350W Netzteil für 'nen Gaming Rechner sondern eher was in der Richtung 400W.
Und auch hier gibt es leider einige Geräte, die nur über einen 8pin PCIe Anschluss verfügten...

Es spielt für OEMs sehr wohl eine Rolle, ob sich eingekaufte Hardware an die Spezifikationen hält. Was die Leute hier in ihrem Keller rumeiern spielt da keine Rolle. Zudem ist das Problem tatsächlich sichtbar aufgetreten, dass der PC schlichtweg ausgeht (Schutzschaltung). Machts das besser?

Minutourus schrieb:
Sarkasmus on:
Eigentlich lächerlich; 30-40 Watt.!!, drehe ich halt am Sch...haus das Licht ab, 60 Watt gespart.....
Sarkasmus off:

Früher war es uns doch auch egal wie viel Strom so ein Teil verbrannt hat, sehe es schon kommen das sich die Leute wegen 1 Watt die Köpfe einschlagen werden....

Ich glaube den Stromverbrauch interessiert hier wirklich keinen primär. Allerdings ist es erstens ein Indiz dafür, wie gut und effizient eine Architekturweiterentwicklung tatsächlich ist (und viele haben hier schlichtweg mehr erwartet) und zweitens bedeutet hoher Stromverbrauch zumeist hohe Abwärme, die gekühlt werden muss.

Andere Länder, andere User mögen das unterschiedlich beurteilen, meine Grafikkarten dürfen unter Last aus einem geschlossenen Gehäuse nicht herausgehört werden. Wenn ich an die alten Produktreihen von AMD denke, waren das fast ausschließlich die Vapor-X von Sapphire.
 
Palmdale schrieb:
Ich glaube den Stromverbrauch interessiert hier wirklich keinen primär. Allerdings ist es erstens ein Indiz dafür, wie gut und effizient eine Architekturweiterentwicklung tatsächlich ist (und viele haben hier schlichtweg mehr erwartet) und zweitens bedeutet hoher Stromverbrauch zumeist hohe Abwärme, die gekühlt werden muss.

Aktuelle Benchmarks zum Start sind auch mehr oder weniger Momentaufnahme, wenn es um größere Architekturänderungen geht. Wirklich interessant ist es, wie sich die Karte in kommenden Games machen wird.
Siehe den anderen Tests mit Vulkan und AS. Man würde berücksichtigt von einer komplett anderen Effizienz ausgehen.
Tatsache ist, GCN ist auf APIs wie Mantle, Vulkan und DX12 optimiert und es war auch der Grund, wieso AMD so sehr mit Konsolen und Mantle den Anstoß geben wollte, damit die DX API von MS weiterentwickelt.
Stand der Dinge ist DX11 und für den Fall sieht man, dass GCN 4.0 eine bessere Effizienz hat, wobei gewisse Erneuerungen in aktuellen Games, bis auf eventuell Hitman (was recht aktuell ist) GCN 4.0 noch gar nicht ordentlich ausnützten kann.

@oldmanhunting
Lieber Produkte, die noch Probleme haben, weil die Treiber noch nicht passen, als Produkte, wo man Probleme durch Software kompensieren/simulieren muss. Wobei ja die Frage bezüglich 900 GTX und AS noch offen ist und das VRAM Feature der 970 GTX nur per Treiber einfach mal auf 3,5 GB limitiert wird (fraglich wie lange noch), obwohl auf der Verpackung fett 4GB steht. Da habe ich lieber das "unreife" Produkt, dass durch die User (GPUOpen) optimiert werden kann, selbst wenn der Nachfolger dann schon im Kommen ist. Ich wette die R9 290(X), 390 wird vermutlich die nächsten 2 Jahre noch weiter an Performance gewinnen, zwar vllt nicht unter DX11 aber vermutlich dank DX12.
 
Zuletzt bearbeitet:
Nacho_Man schrieb:
Wohlweislich "verlieren" in Klammern gesetzt um nicht gänzlich zu lügen?
Pardon, die Radeon HD7970 ist in diesem Benchmark in der Tat in der Lage, an der GTX 780 vorbei zu ziehen und schlägt sogar noch einige andere Karten...

Gugg mal wo sich die R9-280X bzw 7970 bei diesem Test einreiht:
http://gamegpu.com/action-/-fps-/-tps/doom-api-vulkan-test-gpu
Und das ist auch noch mit SMAA, wo laut id Software Asynchronous compute nicht aktiv ist...


Und mit 'langsamer' meinte ich im Vergleich zum damaligen Gegenstück von AMD, also sowas wie das hier:
http://www.pcgameshardware.de/Batma...ecials/Benchmarks-Interim-Patch-Test-1170419/

R9-270X (entspricht etwa Radeon HD7870) erreicht in diesem Spiel eine etwas bessere Performance als die GTX770...
 
Zuletzt bearbeitet:
Schnixus schrieb:
Hat sich bisher eigentlich keiner über die "krummen" Taktwerte der 1060 gewundert?! nVidia hat einfach mal wieder gewartet was AMD liefert und dann einfach die Taktraten so gesetzt, dass die 1060er vor der 480er landet...


Und? Das hätt ich nicht anders gemacht. Ich wäre doch bescheuert wenn ich ne karte bringe, die dann schlechter als das kommende Konkurenz produkt abschneidet, wenn ich noch luft habe und das noch ändern kann. Du willst Nvidia doch ernsthaft hier nichts falsches vorwerfen oder wäre es besser gewesen, nvidia schickt seine karte untertaktet raus, damit AMD auch mal was vom kuchen abbekommt? Ich glaub so funktioniert das geschäft nicht.
 
Ich finde, der neue Treiber wird jetzt aber auch schon wieder ein bisschen zu sehr abgefeiert ...
1. 3-4% mehr des neuen Treibers als beim noch teilweise unausgereiften Release-Treiber gab es doch schon bei sehe vielen Grafikkarten
(und schließlich sind es auch "nur" 3% mehr bei FullHD, nur bei WQHD sind es diese 6%)
2. kommt sicher auch ein nicht unerheblicher Teil aus dem weiter erhöhten Verbrauch, immerhin im Durchschnitt der Spiele ~5% der TDP ("7W") nochmal obendrauf, also ähnlich einem leicht angehobenen Powertarget! Das das auch zu mehr Leistung verhilft, hat man ja im Test schon gesehen...

Positiv ist sicherlich, dass das "PCIe-Problem" damit aus der Welt ist, ansonsten ist es aber die doch zu erwartende Leistungsteigerung von teils 3%, teils 6%

Kasjopaja schrieb:
Das hätt ich nicht anders gemacht. Ich wäre doch bescheuert wenn ich ne karte bringe, die dann schlechter als das kommende Konkurenz produkt abschneidet, wenn ich noch luft habe und das noch ändern kann.
Sehe ich genauso, ist doch legitim, bei einer später erscheinenden Karte die Taktraten so anzupassen, dass die Leistung über dem Konkurrenzprodukt liegt. Zumal nVidia ja anscheinend von Haus aus auch schon mehr Taktspielraum hat, nicht nur 60-70 MHz für OC mit der Referenzkarte ...

mal sehen, was die ganzen Customs (der RX 480 und GTX 1060) so bringen, eigentlich ideal, dass sie mehr oder weniger zeitgleich rauskommen und nicht 1-2 Monate versetzt
 
Zuletzt bearbeitet:
Zurück
Oben