News AMD: Radeon RX 480 mit 36 CUs kommt am 29. Juni für 199$

Hallo, wie viel fps mach ich damit in Battlefield? Bitte nur ernstgemeinte Antworten. Danke
 
forumuser05 schrieb:
Wurde nicht bei der GTX 1070 Vorstellung diese auch schon von ganz vielen als Mittelklassekarte bezeichnet? Ich hab es sogar hier im Forum mehrfach über die 1080 gelesen ;) ... und die hat ja anscheinend etwa die doppelte Leistung wie eine RX 480, wenn man den Ashes of Singularity Screenshot sieht (zumal das AMD's Top-Spiel für Benchmarks ist, da sie dort besonders gut dastehen)

Mit der TDP als maximaler Angabe ist schon richtig, nur wird sie dann auch nicht wirklich viel weniger verbrauchen, als die Nano, bei der 175W als TDP angegeben sind, denn wie ich ja auf den Seiten zuvor mit dem Computerbase-Leistungsaufnahme-Vergleich und auch einem externen Test versucht habe zu verdeutlichen sind die Differenzen der angegebenen TDPs fast 1:1 entsprechend den tatsächlichen Differenzen beim Verbrauch des Gesamtsystems bzw. der Karten selbst (gemessen mittels PCIe-Extender). Ich hoffe aber auch, dass sie nochmal deutlich weniger verbrauchen wird, als die Nano...

Ich bin mal gespannt, was die ersten wirklichen Tests zeigen, denn die idealisierten Präsentationen geben ja meistens nur eine Orientierung ...

GTX 970 = Performance/Oberklasse
GTX 1070 = Performance/Oberklasse
Beides so um die 400€ beim Release...

R9 380 = Mittelklasse
RX 480 = Mittelklasse
Beides um die 200-300€ beim Release

Was die TDP angeht, gest du vom worst case aus und ignorist anscheinend bewusst das an der Architektur gearbeitet wurde.
Der AMD Typ sagte was von unter 150Watt für diese Karte. Warte doch Tests ab die zeigen werden ob da was dran ist bevor du dir irgendwas zusammenreimst.
 
Das lustige ist ja, ich warte jetzt auch auf die 480 obwohl ich ne 1080 bestellt habe. Zweit-PC mit der Oculus Rift DK2 brauch auch ein Upgrade von der GTX 770 ^^
 
Hotshady schrieb:
Hallo, wie viel fps mach ich damit in Battlefield? Bitte nur ernstgemeinte Antworten. Danke
Welches Battlefield?
Battlefield 2? Bestimmt mehr, als du jemals benötigen wirst.
Battlefield 1? Kann niemand sagen.
3, 4, Hardline mit Sicherheit auch mehr als genug.

AMD Karten haben bei BF nie schlecht performt und die Karte hat schon verdammt viel Power, ich würde mir da keine sorgen machen ;)
Wenn du konkrete Werte haben willst musst du warten bis die Tests draußen sind, BF4 oder HL wird bestimmt getestet.
 
Hotshady schrieb:
Hallo, wie viel fps mach ich damit in Battlefield? Bitte nur ernstgemeinte Antworten. Danke

Woher soll das jemand wissen können? Guck dir einen Benchmark für ne R9 390 an und pack ein paar % oben drauf.
 
Teralios schrieb:
Sagt mal, warum geht ihr alle von einer RX 480X aus? Könnte es nicht so sein, dass es eine RX 480 und eine R 480 gibt? ;)
DANKE!!!
ich musste über 40 seiten lesen, in etwa 10 davon seit dem update mit dem treiber-pic, und du bist der ERSTE dem das aufgefallen ist!
Wie wir ja dem leak, der sich mehr oder weniger als wahr erwiesen hat, entnehmen konnten, sind dort 2 unterschiedliche Polaris 10 "getestet", wobei das C7 halt das high-spec (480X) und das C4 das low-spec (480 OHNE X) sein müsste.
Ist ja nicht so das sowohl AMD als auch Nvidia gelegentlich ihre Benennungen mal ändern! ;-)
denke daher:
199$ -> R 480 (C4,4GB)
229$ -> R 480 (C4,8GB)
249$ -> RX480 (C7,8GB)
würde halt erklären warum man für <500$ eine GTX 1080 beim AoS-bench schlagen kann, dem Parade-Beispiel für AMD-Karten, da das C7-CF-Gespann bei 3D-Mark nur "knapp" unter der GTX 1080 ist.
 
Zuletzt bearbeitet:
@Moriendor
Das ist recht abenteuerlich argument. Tatsache bleibt doch, dass die GTX 1080 offenbar Standards der verwendeten API ignoriert und die falschen Shader verwendet hat. Dass die Szene durch diese Fehler "meilenweit" besser aussehen soll, ist zunächst einmal ein subjektiver Eindruck. Was du dabei übersiehst ist, dass dieser subjektive Eindruck stark von den Umständen der berechneten Szene abhängt. Die GTX 1080 hat weniger Schnee berechnet und die falschen Shader verwendet. Dadurch sind die Schattendails in der von der GTX 1080 berechneten Szene dunkler, was den falschen Eindruck erweckt, es seien mehr Details vorhanden. In jeder anderen Szene kann die offenbar schlampige Umsetzung des NVidia-Treibers ein ganz andere Resultate haben, auch solche, bei denen "selbst ein Blinder mit Krückstock" sofort erkennt, dass das Spiel auf einer Geforce-Karte deutlich schlechter aussieht. Es bleibt eine fehlerhafte Umsetzung im Treiber, und aus dem resultierenden optischen Effekt kannst du nicht ableiten, dass die GTX 1080 die deutlich bessere visuelle Qualität habe. Was sollte AMD daran hindern, den gleichen, falschen Shader zu verwenden?

Wahr bleibt allerdings, dass diese Art der Präsentation nicht klug gewählt war. Wenn nach der Präsentation so viele Unklarheiten im Raum stehen und so viel diskutiert werden muss, dann war es keine gute Präsentation.
 
Del Torres schrieb:
9+1=10
10=X
Liegt für mich näher

ja, nur müssten dieser logik nach die 2x0(X)er ja R8 und R6 gewesen sein, oder eben bereits die 3x0(x)er schon RX bzw. R8, oder??
Und das war ja auch nicht gewesen.
 
Gnodab schrieb:
GTX 970 = Performance/Oberklasse
GTX 1070 = Performance/Oberklasse
Beides so um die 400€ beim Release...

R9 380 = Mittelklasse
RX 480 = Mittelklasse
Beides um die 200-300€ beim Release
Ist ja gut, dass du das so realistisch siehst, aber du brauchst nur mal im Forum beim GTX 1080-Test und den GTX 1070 Benchmarks gucken, da gibt es extrem viele, die einfach um mal bisschen zu provozieren die GTX 1070 (und einige sogar die GTX 1080 ^^) als obere Mittelklasse einstufen, obwohl es laut den Tests die derzeit besten 2 Single-GPU-Karten sind (vielleicht bei der GTX noch auf Augenhöhe mit 1-2 anderen) ...

Ich denke auch, dass die RX 480 sicher der Nachfolger ist der R9 380 vom Preis her ist, aber da nunmal die Preise gefallen sind, muss sie sich mit der ähnlich teuren Konkurrenz vergleichen, also der R9 390, der GTX 970 und der vielleicht auch bald erscheinenden GTX 1060 messen, nicht mit irgendwelchen anderen Karten ... das gleiche gilt ja auch für die GTX 1070, die selbst die GTX 980 locker in den Schatten stellt

Gnodab schrieb:
Was die TDP angeht, gest du vom worst case aus und ignorist anscheinend bewusst das an der Architektur gearbeitet wurde.
Der AMD Typ sagte was von unter 150Watt für diese Karte. Warte doch Tests ab die zeigen werden ob da was dran ist bevor du dir irgendwas zusammenreimst.
Nein, ich habe es ja schonmal geschrieben, ich ignoriere nichts und gehe auch von keinem worst case aus, sondern im Gegenteil vom Normalfall, nämlich dem durchschnittlichen Verbrauch des Gesamtsystems (hier bei CB getestet!).

Und Architekturen hab ich auch nicht außer Acht gelassen und extra verschiedene alte und neue Generationen bei dem Vergleich mit einbezogen, um niemanden zu benachteiligen ... und da fällt eben auf, dass zB die TDP Angabe einer neueren Nano (175W) verglichen mit einer älteren GTX 980 (165W) etwa 10W bei der Nano höher angegeben wird und genau diese 10-15W Differenz gibt es auch bei dem Gesamtsystem bei den Spielen ... dabei spielt es keine Rolle, ob die Karte nun 175W oder nur 105W verbraucht, Fakt ist, sie verbraucht genau diese 10-15W MEHR als die andere Karte, die auch schon der theoretische Wert erahnen lässt ... und das gleiche "Spiel" geht auch mit allen anderen Karten, zB alte 980 (165W) und neue 1080 (180W) und siehe da, die 1080 verbraucht auch bei den Spielen etwa die 10-15W mehr ...
mein Vergleich der theoretischen TDP-Differenzen und den tatsächlichen Differenzen des System bei den Spielen ist nunmal nicht subjektiv, sondern mit Ergebnissen zu belegen ...

klar, hier kritisieren einige diesen Vergleich, aber es hat hier auch noch keiner der Kritisierenden einen Test gezeigt, wo zB die "neue" Nano mit weniger Verbrauch beim Spielen getestet wurde, als es bei der "alten" GTX 980 der Fall ist, obwohl ja angeblich die AMD TDP Angaben viel zu hoch sind und die bei nVidia näher am tatsächlichen Verbrauch sind ... trotzdem scheint die theoretische Mehrangabe (175W vs. 165W) tatsächlich auch bei den Spielen in dieser Form aufzutreten ;) (und dabei habe ich AMD schon den Vortritt der neueren, effizienteren Nano gelassen und nur eine "alte" 980 dagegengestellt ... wie gesagt, wenn du mir ganz andere Ergebnisse zeigen kannst, dann nur her damit, ansonsten sieht man ja das Ergebnis beim CB-Vergleich:

https://www.computerbase.de/2016-05/geforce-gtx-1080-test/10/ --> siehe Leistungsaufnahme: Durchschnitt von 4 Spielen
 
Zuletzt bearbeitet:
EXTREM schrieb:
Meine Fresse bekommt jeder der die Hauptschule ohne Abschluss verlassen hat einen CB Premium Account?
Kann es mir nicht anders erklären wie sonst, so viel Leute, Müll in einem einzigen Thread hinterlassen können.
Das schlimme ist, wie viele hier meinen über Grafikkarten zu schreiben obwohl Sie noch nicht mal eine Grafikkarte von einer CPU unterscheiden können.

Bisschen extrem die Aussage, aber nomen est omen :D
Ich hege ja immer noch die Hoffnung, dass auch Hauptschüler qualifiziertere Aussagen bringen können, dennoch kommt mir immer öfters die Galle, wenn ungefähr jeder zweite Beitrag die TDP mit dem Verbrauch gleichstellt obwohl dies gerade davor wieder korrigiert wurde. Ich tippe da aber eher auf Kinder mit einem Leseverständnis von 0.

Die 480 wird sicherlich nicht einen 24/7-Verbrauch(!) von 150W besitzen, erstens würde damit der 6-Pin ausserhalb der Norm betrieben werden, was AMD sicher nicht einfach so macht und zweitens müssten dann die vollen 75W übers Mainboard kommen, die AMD laut Messungen auch nie zieht.

Dann gibt es noch die Aussagen, dass die 480 eine rote 970 wird: Die Fakten und Benches sprechen bisher dagegen (980 Niveau), letztendlich sehen wir aber erst mit den ersten Benches die wahre Leistung. Selbst wenn nur 970-Niveau erreicht wird hat die 480 wenigstens kein Speicheranbindungsproblem, es gibt sie mit mehr VRam und guter DX12-Unterstützung für weniger Verbrauch :D


Die schlimmste Sorte hier ist die schlimme Art von Fanboy, die offen sagt "Ich trolle, weil die AMDler im 1080-Thread angeblich Kritik geübt haben" - deshalb verhält man sich jetzt wie ein kleines eingeschnapptes Kind ;)

Da werden Dinge, wie offensichtliche Treiberfehler von nVidia schön geredet, denn es "sieht ja [angeblich - recht subjektiv] besser aus".
Das dadurch a) Rechenleistung gespart wird und b) die gewünschte Originaloptik und Vergleichbarkeit aufgrund von Bugs nicht gegeben ist wird vollkommen ausgeblendet. Tatsache ist, dass durch das Fehlen des Schnees einfach nur mehr Bodentextur zu sehen ist, sowie die mangelhaft aussehenden Enden der Straßen, die an sich aber auch niemals sichtbar sein sollten.

Ich finde es höchst erschreckend, dass solche irgendwo gestört/voreingenommen denkenden User hier so frei schreiben können, gar zugeben, dass sie trollen und dennoch die Moderation nicht eingreift? Wenn man solche Individuen, die einer Diskussionskultur nur schaden schon nicht bannt, wieso wird dann so ein "Beitrag" - ein unpassendes Wort für Trollmist - nicht wenigstens gelöscht? Bei anderen Personen hat es doch auch schon geklappt und es hat dem Grafikkartenbereich merklich gut getan. (SuddendeathSgt)

Sind euch die Klicks wirklich so viel wichtiger? So etwas wird ja schon langsam zu einer Verblödungskultur wie bei RTL. An sich sollte CB den Anspruch eines hochwertigen technischen Forums haben, wo Themen mit Argumenten nach geltenden Regeln diskutiert werden. Dem ist hier schon lange nicht mehr so und da mein Beitrag nur überlesen wird wird sich das auch nicht ändern.
 
forumuser05;18867461[QUOTE schrieb:
]Ist ja gut, dass du das so realistisch siehst, aber du brauchst nur mal im Forum beim GTX 1080-Test und den GTX 1070 Benchmarks gucken, da gibt es extrem viele, die einfach um mal bisschen zu provozieren die GTX 1070 (und einige sogar die GTX 1080 ^^) als obere Mittelklasse einstufen, obwohl es laut den Tests die derzeit besten 2 Single-GPU-Karten sind (vielleicht bei der GTX noch auf Augenhöhe mit 1-2 anderen) ...

Ich denke auch, dass die RX 480 sicher der Nachfolger ist der R9 380 vom Preis her ist, aber da nunmal die Preise gefallen sind, muss sie sich mit der ähnlich teuren Konkurrenz vergleichen, also der R9 390, der GTX 970 und der vielleicht auch bald erscheinenden GTX 1060 messen, nicht mit irgendwelchen anderen Karten ... das gleiche gilt ja auch für die GTX 1070, die selbst die GTX 980 locker in den Schatten stellt
Ach du fühlst dich provoziert? Warum? Bist du ein Fanboy? Soll das heißen das du jetzt deswegen hier provozieren willst? Wirkt irgendwie kindisch...
Es ist völlig irrelevant was in einem anderen Thread zu einer anderen GPU eines anderen Herstellers gesagt wird...
Hier geht es um die Mittelklassekarte Rx 480 die für um die $200 zu haben sein wird und wenn man nach den Daten der Karte geht, nach dem Benschmarkergebniss und die Architekturverbesserungen miteinbezieht, werden die gtx 980 und R9 390X übertroffen. Die 1070/80 sind weder das angepeilte Ziel noch der Markt für diese Karte. Wenn sie in die Nähe kommen kann, SUPER. Wenn nicht, ist es auch nicht schlimm.
Die RX 480 ist der Nachvollger der R9 380 und wird diese mehr als deutlich in den Schatten stellen.
Zurzeit ist die einzige nennenswerte Mittelklassekarte von Nvidia die gtx 960. Diese wird Wahrscheinlich deutlicher übertroffen.

Nvidia muss liefern. Im moment haben sie nichts. Die 960 wird langsamer sein und weniger Speicher haben. Die 970 wird langsamer sein und weniger speicher haben. Und die 980 wird höchstwahrscheinlich langsamer und teurer sein und weniger Speicher haben.

Was gibt es nun an der RX 480 zu mäkeln? Eigentlich garnichts. Deutlich mehr Leistung als der Vorgänger, mehr Speicher und dazu ein super Preis.

Zum Verbrauch wissen wir nichts außer das der unter 150Watt sein soll.


Nein, ich habe es ja schonmal geschrieben, ich ignoriere nichts und gehe auch von keinem worst case aus, sondern im Gegenteil vom Normalfall, nämlich dem durchschnittlichen Verbrauch des Gesamtsystems (hier bei CB getestet!).

Und Architekturen hab ich auch nicht außer Acht gelassen und extra verschiedene alte und neue Generationen bei dem Vergleich mit einbezogen, um niemanden zu benachteiligen ... und da fällt eben auf, dass zB die TDP Angabe einer neueren Nano (175W) verglichen mit einer älteren GTX 980 (165W) etwa 10W bei der Nano höher angegeben wird und genau diese 10-15W Differenz gibt es auch bei dem Gesamtsystem bei den Spielen ... dabei spielt es keine Rolle, ob die Karte nun 175W oder nur 105W verbraucht, Fakt ist, sie verbraucht genau diese 10-15W MEHR als die andere Karte, die auch schon der theoretische Wert erahnen lässt ... und das gleiche "Spiel" geht auch mit allen anderen Karten, zB alte 980 (165W) und neue 1080 (180W) und siehe da, die 1080 verbraucht auch bei den Spielen etwa die 10-15W mehr ...
mein Vergleich der theoretischen TDP-Differenzen und den tatsächlichen Differenzen des System bei den Spielen ist nunmal nicht subjektiv, sondern mit Ergebnissen zu belegen ...

klar, hier kritisieren einige diesen Vergleich, aber es hat hier auch noch keiner der Kritisierenden einen Test gezeigt, wo zB die "neue" Nano mit weniger Verbrauch beim Spielen getestet wurde, als es bei der "alten" GTX 980 der Fall ist, obwohl ja angeblich die AMD TDP Angaben viel zu hoch sind und die bei nVidia näher am tatsächlichen Verbrauch sind ... trotzdem scheint die theoretische Mehrangabe (175W vs. 165W) tatsächlich auch bei den Spielen in dieser Form aufzutreten ;) (und dabei habe ich AMD schon den Vortritt der neueren, effizienteren Nano gelassen und nur eine "alte" 980 dagegengestellt ... wie gesagt, wenn du mir ganz andere Ergebnisse zeigen kannst, dann nur her damit, ansonsten sieht man ja das Ergebnis beim CB-Vergleich:

https://www.computerbase.de/2016-05/geforce-gtx-1080-test/10/ --> siehe Leistungsaufnahme: Durchschnitt von 4 Spielen



Du vergleichst immer noch andere Architekturen miteinander und ziehst irgendwelche Schlüsse...
Nano, Haiti, Tahiti und wie sie alle heißen sind nicht Polaris.
Deswegen auch, "Was die TDP angeht, gehst du vom worst case aus und ignorist anscheinend bewusst das an der Architektur gearbeitet wurde.
Der AMD Typ sagte was von unter 150Watt für diese Karte. Warte doch Tests ab die zeigen werden ob da was dran ist bevor du dir irgendwas zusammenreimst."

Warte einfach ab bevor du irgendwelche Schlüsse ziehst.


Kuz zusammengefasst.
Dein Geschreibsel wirkt so als würdest du versuchen das Haar in der Suppe zu finden, obwohl es keine Hinweise für dieses Haar gibt.
 
Zuletzt bearbeitet:
sverebom schrieb:
Wahr bleibt allerdings, dass diese Art der Präsentation nicht klug gewählt war. Wenn nach der Präsentation so viele Unklarheiten im Raum stehen und so viel diskutiert werden muss, dann war es keine gute Präsentation.

Im Prinzip richtig, Total War (TW) - Warhammer wäre im Nachhinein vermutlich die bessere, allgemein repräsentativere (und aktuellere) Spielewahl für einen Vergleichstest zwischen einer GTX 1080 und einer Dual Crossfire RX 480 Combo gewesen, das sehe ich auch so.

Ob das Resultat ebi TW - Warhammer nicht so werbe-wirksam ausgefallen wäre, ist derzeit eine gute Frage und ich denke nicht, dass AMD AotS bewusst ausgewählt hat, damit Nachfragen bzgl. der Darstellung bei der Demonstration die fragwürdige Shader Auslastung durch nVidia (GTX 1080) Karten ans Licht bringen. Das wäre dann doch arg viel Verschwörungstheorie, selbst für nVidia Jünger, die das unterstellen mögen :p.

Allerdings dürfte das zukünftig Fragen aufwerfen (zur Vergleichbarkeit von Grafikkarten unterschiedlicher Hersteller), inwiefern nVidia bei den Treibern schummelt oder schummeln kann mit inakkurater Darstellung, wohingegen AMD Karten die (DX12) Effekte (hier Shader) treibermäßig - so wie eigentlich angedacht - ansteuern (hier wird die Problematik derzeit auch diskutiert: http://videocardz.com/60860/amd-explains-image-quality-in-aots-radeon-rx).
 
Warum AMD AotS ausgewählt hat ist doch ganz klar.
Es ist eines der wenigen Spiele das DX 12 sauber eingebunden hat und die Entwickler lassen sich zu 100% nicht bestechen. So kann AMD sicher sein das im Benchmark die echte Performance zu sehen ist welche nicht durch Nvidia geschönt wurde.
 
Zum Thema Verbrauch kann ich nur sagen, dass ich auf die schnelle keine 6-Pin karte gefunden habe die mehr als 130W verbraucht, manche sogar nur 80W. Also wird die 480 wohl auch bei <=130W liegen.

Ansonsten ist das Popcorn leider alle und der thread leider nur mäßig spannend, zuviele Wiederholung der ewig gleichen Meinungen. Wünsche noch viel Spaß bei den nächsten tausend Beiträgen.
 
Einfach witzig wie hier jeder 2te seine Kristallkugel anbetet und meint die Zukunft sehen zu können.

Warum soviel über Spekulationen streiten, wenn erste handfeste Tests noch ausstehen?!

Natürlich lebt ein Forum von Diskussionen, aber wenn 2/3 der Beiträge nur Müll sind, bringt das auch nichts.

PS: ja, mein Eintrag ist selbstverständlich auch unnötig

Bin gespannt auf erste Tests. Der Preis klingt schonmal nicht verkehrt.
 
Krautmaster schrieb:
...
Und wie ich AMD kenne haben sie wieder utopische Abnahmen bei GF gebucht um Preise zu drücken, egal ob mm dann 2 Jahre später Strafen zahlen muss ;)
Wie wir alle wissen, kennst du AMD nicht. Deine Aufgabe hier im Forum besteht nur darin, negative Beiträge über AMD zu verfassen. Zudem wärst du sicherlich die aller letzte Person die Zugang zu Verträge die AMD abschließt hätte.
 
aodstorm schrieb:
Einfach witzig wie hier jeder 2te seine Kristallkugel anbetet und meint die Zukunft sehen zu können.

Will auch mal nen Blick riskieren. Was haben wir denn da....ist ja ne Menge Nebel....aber die Schatten im Nebel sehen aus wie...

1. mein Speicherkrüppel 970 ist demnächst soviel Wert wie eine halbleere Flasche Cola. Nie wieder NVIDIA.
2. Ihr Nachfolger wird echte 4 GB haben, weniger Leistung aufnehmen, bei 1920x1200 minimal mehr FPS zeigen und dabei noch weniger Kosten.
 
Zurück
Oben