News AMD: Radeon RX 480 mit 36 CUs kommt am 29. Juni für 199$

Vergleich die Angaben die bei dem CF Vergleich genannt wurden.
Demnach hat in dem CF eine Karte ~90W geschluckt. Also ~180W für beide.
Das war auch der Wert bei der CES 2016 Anfang des Jahres. Der Verbrauch wird also zwischen 85-95W sein.
Gegen Ende Januar wurden bereits die OEMs mit den Karten versorgt.
 
Zuletzt bearbeitet:
Vergiss aber nicht das Karten nur 51% Auslastung oder so hatten.
 
Gerade deswegen ja.

Edit: CF läuft via DX12 anders. Daher gibt die Auslastung die Antwort auf den Verbrauch.
 
Zuletzt bearbeitet:
W4RO_DE schrieb:
Ja, ein Maximalwert kann unterschritten werden. Das ist nun nichts neues für mich. Deinen herablassenden Tonfall in der zweiten Hälfte des Posts kannst du dir sparen, ich kann beim besten Willen nicht erkennen, inwiefern dein Post meinen Ansichten nun widersprechen soll. Ich stimme dir inhaltlich zu.
Im Umkehrschluss könnte ich Behaupten, daß diese ganzen "Verbrauchskalkulationen anhand von TDPs" arrogant und anmaßend sind. Letzlich habe ich entsprechend geantwortet. ;)
Nein, nicht persönlich nehmen. Es ist immer eine Frage der Selbsteinschätzung. Wenn jetzt jemand meint, nur weil er regelmäßig Benchmarkbalken betrachtet, etwas über elektrische Arbeit (Wh) und elektrische Leistung (W) zu wissen meint, obwohl er Einzelhandelskaufmann ist und hier über den "Verbrauch" wie ein Experte spricht, als wüsste er was das heisst, ist das für mich ein Fall des Dunning Kruger Effekts
Um als Beispiel beim Fischen zu bleiben: In einem Angler-Forum würde ich nicht, ganz selbstbewusst und überzeugt, von feinen Techniken und Tricks des Angels erzählen, weil ich alle paar Jahre ne Angel ins Wasser halte. Ich würde Fragen und nicht so tun als wäre ich der Angelmeister HDGTX ProTiXT!
Genauso wenig wie ich über die feinheiten einer Archtektur rede, dasß überlasse ich Leuten wie Nai.
issenia schrieb:
Ja vielleicht.
Wäre schön, wenn Wolfgang seine Beweggründe mal dazu verlauten liese.
Da kannst Du lange drauf warten. So wie ich Wolgang anhand seiner bisherigen Stellungnahmen zu seinen Test einschätze.


Cohen schrieb:
Tja und andere Leute legen ihre Prioritäten noch anders aus. Die sind bereits mit ihrem PKW mit 75 - 115 PS (also 1/3 - 1/2 von deinem) wunschlos glücklich, gönnen sich dafür aber ein paar PS mehr bei den Grafikkarten, die auch nicht im Stadtverkehr ausgebremst werden.

Dafür werden die fetten Graks dann von zu schwachen CPU ausgebremst, ist auch nicht besser.
Laut Igor von THG limitiert so ziemlich jede CPU bei einer 1080. Demnach sind die meisten 1080 Käufer also Ferrari- Stadtfahrer, die ihre Leistung nicht abrufen können. Die wenigsten werden eine übetaktete 5960X im Rechner haben. ;)

Infect007 schrieb:
Ich habe mir mal auf Basis der aktuellen Gerüchte hochgerechnet, wie ich mit einem Upgrade von GTX670 auf 480 und von 1080p auf WQHD dastehen würde und muss leider feststellen, dass WQHD mit der 480 ein ganz schön knappes Unterfangen sein wird.
Das Plus an Leistung würde unterm Strich gerade mal 13-20% betragen

[TABLE="class: outer_border"]
[TR]
[TD]Graka[/TD]
[TD]Leistung[/TD]
[TD][/TD]
[/TR]
[TR]
[TD]GTX 670[/TD]
[TD]100%[/TD]
[TD][/TD]
[/TR]
[TR]
[TD]GTX 770[/TD]
[TD]116%[/TD]
[TD][/TD]
[/TR]
[TR]
[TD]GTX 960[/TD]
[TD]124,12%[/TD]
[TD][/TD]
[/TR]
[TR]
[TD]390X[/TD]
[TD]201,07%[/TD]
[TD][/TD]
[/TR]
[TR]
[TD]480 Benchmark[/TD]
[TD]213,93%[/TD]
[TD][/TD]
[/TR]
[TR]
[TD][/TD]
[TD][/TD]
[TD][/TD]
[/TR]
[TR]
[TD]Auflösung[/TD]
[TD]Bildpunkte[/TD]
[TD][/TD]
[/TR]
[TR]
[TD]1080p[/TD]
[TD]2073600[/TD]
[TD]100%[/TD]
[/TR]
[TR]
[TD]WQHD[/TD]
[TD]3686400[/TD]
[TD]177,78%[/TD]
[/TR]
[TR]
[TD][/TD]
[TD][/TD]
[TD][/TD]
[/TR]
[TR]
[TD]390X Niveau[/TD]
[TD]113,10%[/TD]
[TD][/TD]
[/TR]
[TR]
[TD]480 Benchmark[/TD]
[TD]120,33%[/TD]
[TD][/TD]
[/TR]
[/TABLE]
Dabei hast Du vergessen, das bis auf Pascal (allen Anschein nach) AMD die bessere Skalierung für höhere Auflödungen hat.


ClashHexmen schrieb:
Ich zitiere an dieser Stelle nochmal AMDs Pressemitteilung:

Zudem sprechen sie über die RX Serie und ihre Rolle im Preisbereich von 100-300 USD.
Und überhaupt gab es doch bisher immer ein x90 Modell. Ich denke nicht, dass das Vega sein wird. Die werden eher mit HBM2 wieder einen Fury-Namen bekommen.

Das alles lässt mich glauben, dass wir aktuell die Karte in der Mitte bekommen haben und es noch eine für 299 USD geben wird, sowie günstige Karten auf Polaris 11 Basis für 99 USD.
Das ist auch meine Vermutung, Polaris für die Rx-Serie, Vega für Fury
Ergänzung ()

BlauX schrieb:
Gerade deswegen ja.

Edit: CF läuft via DX12 anders. Daher gibt die Auslastung die Antwort auf den Verbrauch.
Nein. Sie gibt Antwort auf die maximal aufgenommene Leistung ;)
 
Zuletzt bearbeitet:
Wäre zu wenig als maximal... aber DX12 und Ashes gibt da halt keine genaue Sicht (war eh mGPU kein CF) CES16 zeigte 85-90W ...
Auch gibt es bei der auf der Computex verwendete Karte kein finales Bios. Und es wurde der 16.5.2 verwendet. Wenn AMD es wie bei Fiji macht, gibt es das Finale Bios erst kurz vor Ende.
Ashes dient hinsichtlich DX12 und AMD ja als "best case" was aber ist, wenn AMD genau darauf abzielte?
 
Zuletzt bearbeitet:
Das Problem ist ja nicht die Zahl an sich, nur das was da reininterpretiert wird.
Verbrauch ist die Leistung (in W) über einen gewissen Zeitraum. Und eine Verbrauchsmessung hat noch kein Tester der Techseiten durchgeführt.
Der echte "Verbrauch" (eigentlich gehts mir über die Verwendung dieses Begriffes) eine Graka ist schwer bist garnicht zu ermitteln.
Ein PC läuft 12h am Tag, die Grak idled vor sich in und zieht kaum Leistung, also verbraucht sie wenig, bei zocken zieht sie mehr, also verbraucht sie mehr.
Ein Torture Test, wo die Graka zu 100% über den Benchzeitraum 100% ausgelastet ist, und selbst Average einen Wert in Grössenordnung der TDP ausgibt, kann man sagen: (Bsp.Nano) 175W TDP, 185W avg(!) beim Torture. Da kann man sagen: läst man 1 Stunde Furemark laufen, verbraucht die Graka 0.185kWh. Das ist beim zocken so gut wie nie der Fall, weswegen der tatsächliche Verbauch deutlich darunter liegt.
Selbst eine fordernde Benchmarkszene ist jedoch keine Grundlage um den realen Verbrauch zu berechnen.
Das geht nur, wenn man einen Stromzähler dranhängt, und einfach aufschreibt, wieviel kWh der komplette PC benötig wenn man 1 Stunde zockt.
Und da wird so manch einer erstaunt sein, das der gemessene Wert deutlich unterhalb der ganzen maxPeak/TDP Geschichte liegt.

Ich habe schon oft darum gebeten, wenigstzen einen Real-Verbrauchs Test durchzuführen. 3 Spiele, für jedes ein vollständiger mittlerer Level als Benchmarksequenz. 2Graka der selben Leistungsklasse unterschiedlicher Hersteller. Ein Stromzähler der mißt, wieviel elektrische Arbeit während der Sequenz verbraucht wird. Die Differenz beider Systeme wird weit unter den Werten liegen, die hier immer als "Verbauch" dargestellt wird, und Fanboys sich daran aufgeilen oder hochziehen.

Es ist einfach das Basisverständnis, welches schon in der 8. Klasse Mittelstufe Physik gelehrt wird. Leistung und Arbeit, wobei Leistung über Zeit = Arbeit ist. Das eine Graka so dynamisch in der Leistungsaufnahme schwankt, macht die Sache sehr kompliziert.
Aber es sich einfach zu machen, entspricht eben nicht der Realität.

Ps: Würde man den Benchmark von Polaris unter Battlefront hernehmen und den eine stunde lang laufen läßt, könnte man grob sagen, das die Graka 0.05kWh (50W Last) verbraucht hat. Das gilt aber nur für Battlefront und diese eine Szene pro Stunde. Ich wette, das die genutze Polariskarte für Battlefront während einer Spielstunde nur 0.035kWh verbraucht, weil nicht alle Szenen eine Graka zu 100% auslasten.

PS2: Wenn hier im Forum diverse Leute kreischen,: "Die verbraucht 300W", geht ein unbedarfter Leser hin und rechnet " 300W mal 1000 Betriebsstundenpro Jahr, also macht das 300.000Wh oder 300kWh aus. Bei 25Cent/kWh macht das 75€ stromkosten aus." Und das ist sowas von falsch!

PS3:Wo ich eben die Nano erwähnte, ist die ein Hinweis auf das deutlich verbesserte Power-Managment von AMD. Gleicher Prozess wie 970/980 und ebenso effizient. Und wenn man diese Verbesserung zusammen mit der neuen Architektur hernimmt, wird deutlich das AMD seine Hausafgaben genacht hat, und das werden die bei Polaris und Vega nicht wegwerfen.
Es ist fast schon in trockenen Tüchern, daß ich dieses Jahr meine erste AMD Graka in meinem Rechner verbaue. :D


Sorry für die edits, ist in so einem Monsterthread eigentlich schei$$e..
 
Zuletzt bearbeitet:
Du hast noch vergessen zu erwähnen das die Steckdosen Messungen genauso Banane sind, um den Verbrauch der GPU zu bestimmen.

Alle Messungen die so gemacht wurden und werden sind nun mal nicht Praxis orientiert. Sondern nur Moment bezogen.
Und wenn man dann mit den Werten rechnet wird nicht mal ein Schuh draus, da wird auch keine Banane draus, da kommt nur Braune Gülle bei raus.

Da ich meinen Strom selbst erzeuge, sehe ich z.B. wie viel ich verbrauche bzw. kann es auf das Zimmer und Steckdose beschränken (Live) Der Zähler ist von den Stadtwerken entsprechend geeicht und beglaubigt worden. Kann zwar nur den Verbrauch des gesamten Rechners bestimmen, aber der sagt schon mehr aus, als alles andere. Nimm ich mal die Werte von den Tests der 290x Lightning ( THG ) rechne die dann so schön hoch wie das hier die Leute immer machen ( 12 Monate ):

THG > Lightning Messung besagt 272,38 Watt (avg) @1150Mhz > 2.379,51 kWh (24/7) Anteil der verbraucht wird nach 12 Monaten. ( Nur die GPU )

Gesamtsystem mit der Lightning bei fast selben Takt (40mhz mehr als bei THG) verbrauch gemessen wurde hier mit EON EM600 Expert Messgerät und beträgt 483,2 Watt bei 1190mhz Takt
auf 12 Monate > 4.221,24 kWh (24/7)

Nun vergleiche ich es jetzt mal mit meinen Werten meines Zählers (ohne Monitore):

Mein Zähler > Rechner Betriebszeit/Nutzzeit 12 Monate/8760 Stunden: 3.407,04 kWh (24/7) - Von Januar 2015 bis Januar 2016 > 425,88 kWh - Durchschnittliche Betriebszeit: 6 Stunden

Arbeite aber auch damit. Wird nicht nur gezockt.
 
Zuletzt bearbeitet:
Hodges schrieb:
... Kann den Release der neuen ATI Karten kaum abwarten, Fallout 4 in 720p, alles auf low und es ruckelt trotzdem xD
66002144.jpg
nur ist es bei mir eine alte GTX 560 (non Ti)
 
Jahrelang wurde uns hier im Forum von Leuten die AMD GPU's nutzen gepredigt, dass der Stromverbrauch vollkommen egal ist und keine Geige spielt und jetzt fangt Ihr untereinander an Euch wegen ein paar Watt mehr oder weniger die Köpfe einzuschlagen? Einfach lächerlich so etwas!
 
oldmanhunting schrieb:
Einfach lächerlich so etwas!

Die komplette Stromverbrauchsdiskussion ist einfach nur lächerlich. Das ist in etwa so, als würde man sich einen Sportwagen kaufen und sich dann beim Schwanzvergleich nicht an den PS, der Beschleunigung und dem Topspeed sondern am Spritverbrauch aufgeilen :freak: Nänä nä nänä, mein Maserati braucht aber 3 Liter weniger als dein Ferrari :baby_alt:
 
oldmanhunting schrieb:
Jahrelang wurde uns hier im Forum von Leuten die AMD GPU's nutzen gepredigt, dass der Stromverbrauch vollkommen egal ist und keine Geige spielt und jetzt fangt Ihr untereinander an Euch wegen ein paar Watt mehr oder weniger die Köpfe einzuschlagen? Einfach lächerlich so etwas!

es geht mehr darum dass hier so viele behaupten dass das die karte 150watt benötigt was ja nicht stimmt
die ganze diskussion über den stromverbruch ist auch lächerlich
aber man kann auch etwas anderes dadurch noch ableiten
zb glaube ich auch gerade wegen der nur 90watt dass es mit ziemlicher sicherheit noch eine größere polaris geben wird
 
oldmanhunting schrieb:
Jahrelang wurde uns hier im Forum von Leuten die AMD GPU's nutzen gepredigt, dass der Stromverbrauch vollkommen egal ist und keine Geige spielt und jetzt fangt Ihr untereinander an Euch wegen ein paar Watt mehr oder weniger die Köpfe einzuschlagen? Einfach lächerlich so etwas!
Eine Diskussion um den Verbrauch ist lächerlich?
Lächerlich ist es vor allem hier zu provozieren, ohne Tests von der TDP (entstanden aus PCIe Slot und 6Pin Spezifikation) auf den Verbrauch zu schließen (der zwischen 76 und 150W liegen kann) und den Verbrauch von nvidia Karten in den Himmel zu loben, gleivhzeitig die Karten (samt CPU) bis zum erbrechen zu übertakten und weitab vom sog. Sweetpoint und der damit gelobten Effizienz zu betreiben.

Ebenso sich 500-1000€ GPUs sich ins System kloppen, zu betonen das ein Hobby auch was Kosten darf, aber dann rumzulullen "heul, die verbraucht 100W mehr, ich muss dann pro Monat 5,23€ mehr Abschlag zahlen määääh"
 
oldmanhunting schrieb:
Jahrelang wurde uns hier im Forum von Leuten die AMD GPU's nutzen gepredigt, dass der Stromverbrauch vollkommen egal ist und keine Geige spielt und jetzt fangt Ihr untereinander an Euch wegen ein paar Watt mehr oder weniger die Köpfe einzuschlagen? Einfach lächerlich so etwas!
Frei nach dem Motto: "Was interessiert mich mein Geschwätz von letzter Woche?" :D
 
oldmanhunting schrieb:
wegen ein paar Watt mehr oder weniger die Köpfe einzuschlagen? Einfach lächerlich so etwas!


oldmanhunting schrieb:
Ich gebe gerne zu, das ich extrem bin, wenn es um zu hohen Stromverbrauch geht. Habe meine 20W Stromsparlampen gegen 9W LED getauscht. Mein Rechner braucht beim zocken 180W und ich habe deshalb ein schlechtes Gewissen. Damit will ich sagen, das ich da empfindlich bin und dementsprechend auch kaufe. Kann aber verstehen, das es Leute gibt denen es egal ist.

Wenn du es kannst, wieso dürfen es dann andere nicht auch? Und zwischen 90-150W liegt mehr als deine 11W :P
Kurzum: Scheiß doch drauf!?


CCIBS schrieb:
Frei nach dem Motto: "Was interessiert mich mein Geschwätz von letzter Woche?" :D

:rolleyes: ^^
 
Zuletzt bearbeitet:
BlauX schrieb:
Vergleich die Angaben die bei dem CF Vergleich genannt wurden.
Demnach hat in dem CF eine Karte ~90W geschluckt. Also ~180W für beide.
Das war auch der Wert bei der CES 2016 Anfang des Jahres. Der Verbrauch wird also zwischen 85-95W sein.
Gegen Ende Januar wurden bereits die OEMs mit den Karten versorgt.

Nach meinem Kenntnisstand war das aber Polaris 11 und nicht 10.
 
Polaris 11 war bei 40-50W... gab 3 Notebooks da.
Mich interessiert atm nur, sollte es bei 90W sein, und bei machbaren OC um die vollen 150W auszuschöpfen bei Performance Plus bis ~Fury, kann ich noch in den nächsten ~3 Wochen meine beiden Karten für 600€ loswerden und mit Gewinn die 2 Polaris rein hauen. Meine Games unterstützen alle CF und ich bin in 2 Beta Phasen wo mGPU mittels LiquidVR supportet wird. Will das unbedingt testen (GPU pro Auge)
 
Zuletzt bearbeitet:
Meint ihr es lohnt sich von einer GTX 970 zu vorerst einer RX 480 zu wechseln? Oder doch eher auf eine 490 warten?
480 würde dann wohl früher oder später auf Crossfire herauslaufen.
 
Gleiche Frage, nur andere Karten, gleiche Antwort: Bisher mit der 970 zufrieden oder nicht?
 
Nä... lohnt nicht. Allerhöchstens wenn du unbedingt die neuen Features benötigst. Oder du +/- bei 0€ landest wenn du deine jetzige verkaufst. Wäre zumindest hinsichtlich Grafikkartenspeicher und DX12 nicht ganz so verkehrt und der erneute Wiederverkaufswert wäre höher. Musst du selbst wissen, was dir wichtiger ist :)
 
Das lohnt sich nicht wirklich, da es sich um eine sehr ähnliche Leistung handelt. Wenn du aber noch ~200,- € für die 970 bekommst, würde ich die verkaufen, die 480 hat schon einige Vorteile (volle 8GB, neue Features, bessere DX12 Unterstützung), da kann man ein paar Euro Aufpreis in Kauf nehmen.
 
Zurück
Oben