News AMD: Radeon RX 480 mit 36 CUs kommt am 29. Juni für 199$

Max007 schrieb:
Es ist so ärgerlich, dass man mit dem Kauf einer neuen Grafikkarte, sich auch gleich für Gsync oder Freesync entscheiden muss, somit für min 7 Jahre (Lebenszeit eines Monitors) an einem Hersteller gebunden ist.
Hört auf zu jammern. Ihr wollt einen herstellerunabhängigen Standard?
Ach den gibt es ja.


Der nennt sich Adaptive Sync und ist ein VESA Standard.
AMD unterstützt diesen Standard mit ihrem Treiberpart namens "FreeSync".
Nvidia unterstützt Adaptive Sync auch. Aber nur im Notebookbereich.

So Quizfrage: Warum unterstützt nvidia Adaptive Sync nicht auch auf dem Desktopmarkt.
Richtig, nvidia will dem Konsumenten mit G-Sync mehr Geld aus der Tasche ziehen.

Nächste Quizfrage: Warum sollte der Konsument das noch mitmachen und unterstützen?

Setzt doch einfach mal durch den Kauf eines Adaptive Sync Monitors ein Zeichen.
Nicht für AMD. Sondern für euch selbst als Konsument, der damit fordert das er eben nicht gezwungen werden will sich auf einen Hersteller fest nageln zu lassen.
Genauso könnt ihr auch nvidia über deren Foren, Facebook, Email auffordern den VESA Standard auch auf dem Desktop zu nutzen.

Im Endeffekt profitieren alle (Kunden). Ein offener Standard, mehr Geräteauswahl, sowohl Monitore als auch GPUs, mehr Wettbewerb.
 
Bei Newegg kommt mW. noch die Sales Tax drauf, weil die in den USA je nach Bundesstaat verschieden ist.
 
forumuser05 schrieb:
Warum regen sich denn alle so extrem auf?
Mir ist schon klar, dass die Werte nicht 1:1 verglichen werden sollen ... aber bei 2x150W und 1x180W ist es ja fast Faktor 1:2!

Und da ihr ja lieber auf den realen Verbrauch Wert legt, hier ein kleiner Vergleich:
theoretische Angaben:
- GTX 980 --> 165W
- GTX 1080 --> 180W
- R9 380 --> 190W
- R9 390 --> 275W
somit laut theoretischen Daten die 980 als "Basis", die 1080 etwa 10-15W drüber, die 380 wieder etwa 10W darüber und die R9 390 etwa 100 W über der 980

so und jetzt guckt euch den Computerbase-Test an, also einen realen Spiele-Test, und sagt mir, wo die Differenz deutlich zu Gunsten von AMD zu finden ist:
https://www.computerbase.de/artikel/grafikkarten/geforce-gtx-1080-test.54881/seite-10

im Gegenteil, ich sehe, dass die R9 390 sogar deutlich über 100W mehr verbraucht, als die GTX 980 ...

Ist das jetzt ernstgemeint? Niemand bezweifelt dass die Hawaiis Stromschlucker waren. Liefen ja auch total außerhalb ihrerseits SweetSpots, aber wenn wir mal die zugrunde liegenden Faktor von AMD, 2,5mal so effizient wie Die letzte Gen und ziehen wir da nochmal das typische Geblubber ab, können wir von einem Faktor von 2 glatt ausgehen, heißt bei gleiche Leistung um die Hälfte niedrigerem Stromverbrauch, sehen die Werte grob über den Daumen gepeilt deutlich besser aus.

Zu der Freesync Geschichte, soweit ich weiß, plant Intel den Standart auch zu verwenden, bzw mal einzusetzen und vielleicht wirds auch möglich bei Mobilen NVIDIA Chips, die ja Freesync unterstützen, auch über den HDMI 2.0b das mal hinzubiegen.
 
Zuletzt bearbeitet:
Nett. Mal sehen was dann die Tests zeigen. Was dann der Preis in DE macht wird sich auch zeigen. Ich habe da nicht soviel Ahnung davon aber und 250€ für die kleine 480 sollte drin sein. Sollte die dann in Richtung der 970 gehen (Leistung) wäre das sehr schön.
 
D708 schrieb:
Ist das jetzt ernstgemeint? Niemand bezweifelt dass die Hawaiis Stromschlucker waren. Liefen ja auch total außerhalb ihrerseits SweetSpots, aber wenn wir mal die zugrunde liegenden Faktor von AMD, 2,5mal so effizient wie Die letzte Gen und ziehen wir da nochmal das typische Geblubber ab, können wir von einem Faktor von 2 glatt ausgehen, heißt bei gleiche Leistung bei um die Hälfte niedrigerem Stromverbrauch, sehen die Werte grob über den Daumen gepeilt deutlich besser aus.
Nein, du verstehst mich falsch, es geht mir nicht darum, ob die neuen Karten effizienter sind oder dergleichen, das sollte glaube ich klar sein. Wie der Verbrauch am Ende sein wird, wird man eh erst in Tests sehen, Angaben sind wie der Name schon sagt eben nur Angaben.
Mir ging es einfach darum, dass mehrere hier meckern, dass der AMD-Verbrauch zu hoch angegeben ist und deshalb "überhaupt nicht" mit dem nVidia Verbrauch verglichen werden kann ... aber die Differenz der Ergebnisse im CB-Test entsprechen mehr oder weniger der Differenz bei der "theoretischen" TDP-Angabe, somit kann man die Verhältnisse der Karten schon vergleichen ...

zur RX 480 an sich kann ich sagen, dass der Preis auf jeden Fall schonmal verlockend klingt! Wenn sie dann auch wirklich etwas unterhalb der GTX 1070 verbraucht und die Leistung etwas oberhalb der R9 390 (ebenfalls 5,1 TFlops) bzw. GTX 980 liegt, könnte ich bei einem Custom OC Modell mit 8GB schwach werden :)
 
Zuletzt bearbeitet:
@forumuser05
Wen interessieren Grafikkarten von Gestern? Wir reden hier von einer neuen, zumindest teilüberholten Architektur in einer kleineren Strukturbreite. Außerdem vergleichst du Performance-Karten. Und es ändert nichts daran, dass man TDPs zwischen verschiedenen Herstellern nicht vergleichen kann, weil jeder Hersteller die TDP anders definiert. Die GTX1080 wurde übrigens in der Spitze weit über 300 Watt gemessen (die Durchschnittwerte waren aber knapp innerhalb der von NVidia definierten Grenzwerte.
 
forumuser05 schrieb:
Warum regen sich denn alle so extrem auf?
Mir ist schon klar, dass die Werte nicht 1:1 verglichen werden sollen ... aber bei 2x150W und 1x180W ist es ja fast Faktor 1:2!

Und da ihr ja lieber auf den realen Verbrauch Wert legt, hier ein kleiner Vergleich:
theoretische Angaben:
- GTX 980 --> 165W
- GTX 1080 --> 180W
- R9 380 --> 190W
- R9 390 --> 275W
somit laut theoretischen Daten die 980 als "Basis", die 1080 etwa 10-15W drüber, die 380 wieder etwa 10W darüber und die R9 390 etwa 100 W über der 980

so und jetzt guckt euch den Computerbase-Test an, also einen realen Spiele-Test, und sagt mir, wo die Differenz deutlich zu Gunsten von AMD zu finden ist:
https://www.computerbase.de/artikel/grafikkarten/geforce-gtx-1080-test.54881/seite-10

im Gegenteil, ich sehe, dass die R9 390 sogar deutlich über 100W mehr verbraucht, als die GTX 980 ...




Ich hoffe mal, dass AMD aus den Flops-Zahlen noch mehr rausholen kann, denn die R9 390 hatte ja auch schon 5,1 TFlops und laut den GTX 1070er Tests hängt die 390 etwa 30-35% zurück

Knieschuss, das sind die Werte fürs Gesamtsystem.
 
D708 schrieb:
Hm generell ist es schwierig, Grakas im Abverkauf mit Grakas im Ankauf zu vergleichen. Die Preise jetzt werden zum Teil gemacht, um die Lager freizubekommen und da regelt Angebot und Nachfrage. Hat mit dem OVP nichts zutun. Du muss wenn die jewaligen ehemaligen Neupreise vergleichen und dann kommt das mit 270€ schon hin.
Gegen diese Theorie spricht, dass der Umrechnungskurs bei allen Karten konsistent ~1:1 ist. Hinzu kommt, dass die GTX 960 ist bestimmt nicht im Abverkauf ist; NVidia hat erstmal nichts was sie ersetzen könnte.

HerrRossi schrieb:
Bei Newegg kommt mW. noch die Sales Tax drauf, weil die in den USA je nach Bundesstaat verschieden ist.
Die von Newegg auf der Webseite und die von AMD auf der Computex genannten Preise sind beides ohne sales tax.
 
forumuser05 schrieb:
Mir ist schon klar, dass die Werte nicht 1:1 verglichen werden sollen ... aber bei 2x150W und 1x180W ist es ja fast Faktor 1:2!
Dann erzähle uns doch mal bitte, am besten stellvertretend für gefühlt 50% der Kommentatoren hier, warum du davon ausgest, dass zwei teilweise ausgelastete Grafikkarten ihr gesamtes TDP-Budget brauchen sollen. Und warum hier die ganze Zeit versucht wird, die Effizienz eines CF-Gespanns auf eine Einzelkarte herunterzurechnen.

Dass zwei Karten eine ganze Ecke ineffizienter sind als eine, ist letztenendes nicht wirklich überraschend, immerhin hat man da jede Menge Redundanz - zusätzliche VRMs, die doppelte Menge an VRAM-Chips und was sonst noch alles auf dem PCB steckt. Wenn ihr euch schon irgendwie über die Effizienz aufregen wollt, sagt, dass die 1080 in den 3DMark-Werten ~50% schneller ist als die Polaris-Karte bei 20% höherer TDP. Aber rechnet euch doch hier nicht so einen unqualifizierten Blödsinn zusammen.

Zu dem R9 390-Vergleich sage ich jetzt mal besser gar nichts.
 
IceKillFX57 schrieb:
Soll jetzt keine Kritik sein, aber du bist da nicht so Fitt beim Thema oder?
Gerade die AMD Karten (selbst die 280X) sind da verdammt gut drin.
Ich Rede da natürlich nicht von den Bitcoints...

Ja das stimmt, bei dem Thema bin ich nicht gerade auf dem neusten Stand weil ich es nie betrieben habe und weiterhin nicht vor habe es zu tun. Somit interessiert es mich auch nicht sonderlich. Beimm Thema Mining denke ich automatisch an Bitcoins und dergleichen. Gehört hier aber ohnehin nicht wirklich zum Thema...

Back2Topic: Eine RX 480 8 GB mit der Performance auf dem Niveau einer R9 390 (mit OC vielleicht sogar Richtung R9 390X) für max. 250 € und ich könnte schwach werden. Die Karte sollte dann ausreichen, bis irgendwann in der ersten Jahreshälfte 2017 ein komplett neuer PC mit einer gescheiten 4K-Karte angeschafft wird. Gerne dann auch mit Zen. Go go AMD, ich will was sehen!
 
EchoeZ schrieb:
Knieschuss, das sind die Werte fürs Gesamtsystem.

logisch sind sie das ... ich sehe aber keinen Grund, warum bei einem gleichen Testsystem die CPU oder irgendeine andere Komponente bei AMD Karten deutlich mehr verbrauchen sollte, somit kann man die Differenz schon größtenteils der Grafikkarte zusprechen und die Differenzen entsprechen ja nunmal ziemlich auffällig den Differenzen der theoretischen TDP-Angaben, selbst wenn die Maximalwerte abweichen ... aber niemand kauft Grafikkarten, um stundenlang Furmark laufen zu lassen, sondern eben um zu spielen und dabei sid die Differenzen den TDP-Differenzen entsprechend :)

VikingGe schrieb:
Dann erzähle uns doch mal bitte, am besten stellvertretend für gefühlt 50% der Kommentatoren hier, warum du davon ausgest, dass zwei teilweise ausgelastete Grafikkarten ihr gesamtes TDP-Budget brauchen sollen. Und warum hier die ganze Zeit versucht wird, die Effizienz eines CF-Gespanns auf eine Einzelkarte herunterzurechnen.
Ich hab nie behauptet, dass sie voll ausgelastet sind, aber für einen "ähnlichen Verbrauch" gehe ich dann mal von 2x90W aus, weil das den 180W entsprechen würde ... und ich bezweifel, dass die beiden Karten bei 2/3 der maximal möglichen 150W die GTX 1080 gefährden können.

Es ist echt lustig, wie einige sich hier dermaßen aufregen und alles nur ins Lächerliche ziehen. Ich beziehe mich nur auf den CB-Test und dort ist nunmal die theoretische TDP-Differenz (egal welcher Grafikkarten-Generation, bei nVidia ist ja auch die 980 und 1080 vertreten) relativ dicht an den realen Verbrauchs-Differenzen des Gesamtsystems ...
Ich sage nicht, dass es 1:1 Fakten sind, aber es ist schon sehr auffällig, dass die Differenzen stark korrelieren
 
Zuletzt bearbeitet:
Man koennte ja auch sinnvoller Weise die Nano mit der 980 vergleichen.

Die Nano ist laut cb Test minimal schneller und verbraucht minimal mehr Strom.
Bloss eignet sich das ja nicht zum AMD Bashing ....
 
GreatEvil schrieb:
Man koennte ja auch sinnvoller Weise die Nano mit der 980 vergleichen.

Die Nano ist laut cb Test minimal schneller und verbraucht minimal mehr Strom.
Bloss eignet sich das ja nicht zum AMD Bashing ....

Hauptsache gleich mal als Bashing vorverurteilen ... was bringt das denn?
Ich überlege mir selbst, meine nächste Karte von AMD zu kaufen und habe ja auch schon gesagt, dass ich auf gute erste reale Tests hoffe! Also warum sollte es Bashing sein? Im Gegensatz zu vielen wechsel ich ständig zwischen AMD- und nVidia-Karten, je nachdem, was mir preismäßig und auch Preis-Leistungsmäßig gerade am besten passt, der Herstellername ist mir da ziemlich wurscht ... nur mag ich eben keinen extrem hohen Verbrauch, deshalb habe ich derzein eben eine GTX 960 und keine R9 380!

Aber für dich gerne auch noch der Vergleich zwischen alter nVidia-Technik und neuerer von AMD
theoretische TDP-Angabe bei der GTX 980 165W, bei der Nano 175W ... also 10 W etwa Differenz

https://www.computerbase.de/artikel/grafikkarten/geforce-gtx-1080-test.54881/seite-10
eigenartigerweise verbraucht sie in Spielen auch mindestens 10W mehr ... also egal welche Generation, die Differenzen sind sich schon sehr ähnlich. Wer Furmark-Maximal-Auslastungen vergleichen möchte, kann das gerne machen, ich bleibe realistisch und nehme nur solche Spiele-Tests und da sind nunmal die Differenzen (auch wenn es "nur" das Gesamtsystem ist) auffälligerweise fast identisch zu den Differenzen der TDP-Angabe, egal ob Nano, R9 390, GTX 980 oder auch die neue GTX 1080 ...

edit:
und für alle Kritiker dieses Vergleichs, weil es ja "nur" das Gesamtsystem widerspiegelt, gibt es auf anderen Seiten einen Vergleich, wo NUR die Grafikkarte gemessen wird mittels eines PCIe-Extenders:
http://www.pcgameshardware.de/Nvidi...255598/Specials/Benchmark-Test-Video-1195464/
(einfach runterscrollen zur Leistungsaufnahme --> passt fast identisch zu den theoretischen TDP-Angaben! --> GTX 980 ~ 165W, 1080 ~ 175W, Nano ~ 195W, R9 290X ~ 280W)
 
Zuletzt bearbeitet:
199,-$ für die 4GB Variante und 230,-$ für die 8GB Variante. Das sind ja mal gescheite Preisansagen in den letzten paar Wochen. Also wird es die 4GB für ~250,-€ und die 8GB für ~285,-€ hier bei uns geben.
 
AMDs Problem ist am ehesten sowas:

AMD: Chipkosten 40 + Gewinn 10 + 150 Board/RAM/Produktion/Vertrieb/...
Nvidia: Chipkosten 80 + Gewinn 120 + 200 Board/RAM/Produktion/Vertrieb/...

Selbst wenn die 4x mehr Karten verkaufen sollten als Nvidia, macht Nvidia den 3fachen Gewinn. Betriebswirtschaftlich ist Mainstream nen Scheiss Plan. Merkt auch Samsung mit seinen Handys...
 
SKu schrieb:
1. Beides VRAM-Krüppel, erst recht die 970.
2. Bieten kein neues Featureset, kein HDMI 2.0b, kein DP 1.4
3. Sind alt, will keiner.

1. die rückgaberate der 970 und der erfolg sagen da was anderes. in der preisklasse wird wohl keiner 8gb brauchen für 4k
2. 970/980 haben beide hdmi2.0a welche aktuell kaufbare amd karte hat hdmi 2? ;) und was ist der unterschied von a zu b? ^^
3. warte mal bis die 970 239.- und die 980 279.- kostet
 
Wo soll die Karte denn leistungstechnisch liegen ? R9 390 ? Der Preis ist auf jeden Fall ein Hammer. Hatte ehrlichgesagt schon vermutet das AMD sehr günstig sein muss. Die brauchen Stückzahlen um wieder Fuß zu fassen.
 
eyescream666 schrieb:
1. der erfolg
2. hdmi2.0a

1. der Erfolg zeigt nur, das Vilfredo Pareto recht hatte
2. HDMI 2.0 bringt ohne HDCP keine Vorteile und das fehlt sowohl der 970 also auch der 980, ist also (mal wieder) ne Mogelpackung
 
Zuletzt bearbeitet: (Typo)
Ihr könnt Euch auf den Kopf stellen und mit den Armen wedeln, die 970 war die meistverkaufte GPU und AMD träumt davon mit einer der neuen GPU's solche Verkaufszahlen zu bekommen und auch noch die Margen der 970 zu haben. Die 970 hat NVidia sehr viel Geld gemacht und das ist nun einmal ein Fakt.
Jetzt noch über die 970 herziehen bringt niemanden etwas, weil die GPU ja durch die 1070 abgelöst wurde. Somit muß AMD auf die 1070 schauen und sich nicht mit der 970 messen.
 
Eusterw schrieb:
AMDs Problem ist am ehesten sowas:

AMD: Chipkosten 40 + Gewinn 10 + 150 Board/RAM/Produktion/Vertrieb/...
Nvidia: Chipkosten 80 + Gewinn 120 + 200 Board/RAM/Produktion/Vertrieb/...

Selbst wenn die 4x mehr Karten verkaufen sollten als Nvidia, macht Nvidia den 3fachen Gewinn. Betriebswirtschaftlich ist Mainstream nen Scheiss Plan. Merkt auch Samsung mit seinen Handys...
Und wenn man etwas weitergeht dann fällt noch ein weiterer Grund auf, warum der Mainstream so wichtig ist: Marktanteile.
Genau die sind jetzt wichtig für AMD und da treffen sie mit dieser Karte genau den Nerv. Wem auch $199 noch zu viel sind, der greift dann eben etwas tiefer zu P11 oder dem Cut P10, sollte die RX 480 schon der Vollausbau sein.

dermatu schrieb:
Wo soll die Karte denn leistungstechnisch liegen ? R9 390 ? Der Preis ist auf jeden Fall ein Hammer. Hatte ehrlichgesagt schon vermutet das AMD sehr günstig sein muss. Die brauchen Stückzahlen um wieder Fuß zu fassen.
Leistungstechnisch wird 390X/980-Niveau vermutet. Als Anhaltspunkte gibt's u.a. das hier.

http://videocardz.com/60819/amd-radeon-rx-480-confirmed-as-polaris-67dfc7
http://videocardz.com/60253/amd-radeon-r9-480-3dmark11-benchmarks
 
Zurück
Oben