Test AMD Radeon RX 590 im Test: Das Full-HD-Angebot zum Weihnachtsfest

Luxmanl525 schrieb:
Hallo zusammen,

@ foxio
Es ist mir ein Rätsel, wie du auf so einen Schluß kommst. Offenbar ist es nicht einfach, meinen Silben dies zu Entnehmen, was ich Aussagen will. Allerdings ist Respektive deiner Silben auch noch ein anderer Schluß möglich.

Ich kann dir bei der Lösung des Rätsels gerne helfen:

Es stellte sich heraus, daß bei 3 Stunden Gaming der Unterschied alleine zwischen der 5850 und der jetzig implementierten GTX 1060 ca. 0,3 kwh ausmacht. Und die beiden Karten trennen gerade einmal 45 - 50 Watt, je nach Auslastung.

Der Unterschied in deiner Gamingsession zwischen 5850 und 1060 beläuft sich tatsächlich auf 100W (3h * 0.1kW). Mit deiner Aussage "trennen gerade einmal 50W", implizierst du, dass mit der RX590 noch höhere Kosten zu erwarten wären.
 
Luxmanl525 schrieb:
Und wenn dich "die Paar Watt Mehrverbrauch" nicht interessieren, heißt das noch lange nicht, daß dies auch für andere gilt.

Wir drehen uns irgendwie im Kreis. Du kannst den Kommentaren doch entnehmen, dass dein Herumreiten auf diesem Thema kaum jemanden interessiert. Es schickt auch niemand seine CPU an Intel zurück, weil die TDP immer überschritten wird und er durch die Stromkosten zum 2. Mal arm wird, nachdem er das durch die 700 € schon geworden ist. Ich spiele auch mal länger, lasse die Kirche aber im Dorf. Der PC spielt im Vergleich zum restlichen Haus einfach keine Rolle. Wenn ich Strom sparen will, dann kümmere ich mich um die wirklichen Baustellen, die ich dank langwieriger Vermessung auch ganz gut kenne. Für die gibt es keine bunten Balken auf einer Webseite. Der Strompreis ist natürlich die allererste Maßnahme. Wenn ich oben Rechnungen mit 30 Cent sehe, kann man solche Postings einfach nicht ernst nehmen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dittsche, baizer, Yar und eine weitere Person
Wer sich wegen dem Stromverbrauch seiner Grafikkarte bepisst sollte sich vielleicht ein anderes Hobbie suchen.
Ein PC verbraucht nun mal Strom. Ist nun mal so.
Finde aber das es einige mit dieser Erbsenzählerei übertreiben.
Ist ja nicht so, das Ihr plötzlich 100te an Euros nachzahlen müsst.
Zahle immer ca. 200€ Im Monat für Strom, Wasser und Gas für mein kleines Reihenhaus.
Ist mir egal ob ich mal 50Euro im Jahr zurück bekomme oder Nachzahlen muss.
Geniest Euer Hobbie und schaut nicht immer auf die allerletzte Kilowattstunde.
 
  • Gefällt mir
Reaktionen: Beyazid, Yar, Sun-Berg und eine weitere Person
eLdroZe schrieb:
Amd und Freesync sind nicht schlecht, sage ich nicht aber ob ich das jetzt kaufen würde kann ich echt nicht sagen.

Naja dein Kommentar zuvor war eher die gegenteilige Aussage. Zumindest was die Leistung angeht gibt es nun wirklich keinen nennenswerten Unterschied zwischen Vega 56 und 1070.

Konkurrenzlos ist nVidia zur Zeit nur bei der 1080Ti/2080/2080Ti, also in einem Preisbereich jenseits der 800€. Ob sich das nächstes Jahr ändern wird, können wir nur hoffen.
Für wahrscheinlicher aber halte ich es allerdings, dass AMD im Bereich 100-500€ (zumindest vorläufig) konkurrenzlos sein wird, denn dazu ist aktuell garkein so riesiger Sprung notwendig. Selbst wenn es zeitnah eine RTX2060 geben wird, muss diese mit dem Preis punkten, da sie leistungstechnisch entweder zwischen den Vegas oder noch darunter angesiedelt werden muss.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
UNRUHEHERD schrieb:
Ich meine gelesen zu haben, dass die Karte die Spannung und den Speichertakt in diesem Fall nicht weit genug absenkt. Dieser "Bug" wurde mit der 5X0er Generation behoben. Meine 480er lief damals beim Browsen mit relativ hohen Taktraten, das kann aber auch ein Einzelfall gewesen sein.

Ich bin erst bei deinem Beitrag angekommen, wenn also in den nächsten 17 Seiten die Antwort gegeben wurde, dann betrachte meinen Beitrag als erledigt.
Wenn ich mich nicht irre, lag es nämlich daran, dass mit der 5XXer Gen weitere P-States hinzugefügt wurden und diese den Takt (ergo Verbrauch) durch feinere Justierung reduzierten.
Nvidia hat zum Beispiel eine ziemlich feine Abstufung weshalb sie auch dazu tendieren verbrauchsärmer zu sein als ihre AMD-Pendants.
 
  • Gefällt mir
Reaktionen: UNRUHEHERD
Stimmt, wenn man sich die Raytracing-Leistung der RTX2070 bei BF5 ansieht, dann macht das wirklich keinen Sinn eine noch kleinere RTX verkaufen zu wollen.

@Aldaric87
Ich kann mir nicht wirklich vorstellen, wie das mit einem Produkt sinnvoll zu gestalten wäre. Da würde es schon mehr Sinn machen, wenn man eine GTX 2050, GTX 2060 und GTX2070 in den Ring wirft und Pascal komplett ablöst.
 
10% Performancevorteil gegenüber einer GTX 1060 werden mit 100 Watt mehr erkauft. Bahnbrechende Entwicklung...
 
  • Gefällt mir
Reaktionen: Luxmanl525
foxio schrieb:
da ja bereits die schnelleren Karten mit RTX zu kämpfen haben.

Ich gehe davon aus, dass RTX nach ein paar bezahlten Techdemos, die wir jetzt sehen, bis auf weiteres wieder einschläft. Bis irgendwann die Leistung ausreicht, um es sinnvoll einzusetzen.
 
Zuletzt bearbeitet:
Piter73 schrieb:

Ob es dann wirklich im ersten Halbjahr klappt, steht wieder auf einem anderen Blatt.
Es sind immer noch zu wenig Details zum Release da.
Auch war mal die Rede von der 2. Jahreshälfte. Dauert also wahrscheinlich noch (deutlich) mehr als 6 Monate.

Man hätte sich die RX 590 trotzdem sparen können.

Martinfrost2003 schrieb:
Wer sich wegen dem Stromverbrauch seiner Grafikkarte bepisst sollte sich vielleicht ein anderes Hobbie suchen [...]
Gratuliere zum Reihenhaus.
Trotzdem sollte man anderen ihre Meinung lassen.
Mich stört beispielsweise die erhöhte Abwärme.
Das ganze Gehäuse erwärmt sich durch die Blower-Konstruktion. Resultat ist dann meistens ein lauterer PC.
Bei High-End ist es noch eher vertretbar, was die RX aber definitiv nicht ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Luxmanl525
Valdorian schrieb:
Ich habe im ersten Mining-Wahnsinn quasi ohne zusätzlich Geld in die Hand nehmen zu müssen von einer R9 290 auf die GTX 1060 gewechselt (die auch noch 5 Jahre Garantie besitzt) und bzgl. der Wärmeentwicklung ist es spürbar weniger geworden.

Sind wir uns also einig darüber dass die 590 keine [gute] Miner-Karte abgibt? Dann bin ich erleichtert, gut dass wir diesen wichtigen und überaus praxisrelevanten Aspekt mal geklärt haben.

Edit: ansonsten sind wir uns ja einig. Mehr Watt ist immer doof und NV das Böse unter der Sonne. ;-)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Luxmanl525
lowkres schrieb:
Ich verstehe einfach nicht wieso AMD keine Vega GPU mit 36CUs rausbringt????? Wenn eine Vega56 schon weniger verbraucht oder gleich viel, ist dieser zweite Aufguss echt nur noch enttäuschend. Polaris 30 kam nur bestimmt wegen den geringen Kosten in der Produktion und deshalb sehen wir auch keine kleinere Vega GPU. ...
Du hast Dir Deine Frage schon selbst beantwortet und ich kann Dir nur zustimmen.
Selbst eine kastrierte Vega wäre mit dem teuren HBM2-Speicher viel zu teuer und dadurch kein Konkurrent im Midrange-Bereich, wo mit jedem Euro Produktionskosten gegeizt wird. Eine dedizierte 4GB HBM2-Karte - um die Speicherkosten zu drücken - wäre mMn zu uninteressant, da es ja die Polaris schon mit 8GB VRam gibt. Vega mit billigem GDDR-Speicher kombiniert geht nicht. Nur, um eine Effizienz-Karte in Form einer Vega im Midrange zu haben, geben vermutlich zu wenige Kunden Geld aus und AMD kanibalisiert sich dadurch auch noch selbst.
Übrigens, das erwünschte Konzept funktioniert im Premium Notebook-Bereich beim Apple Macbook Pro mit der Vega 20 und 4GB HBM2 bestimmt besser. Da spielen dann vermutlich die hohen HBM2-Kosten auch eine weniger bedeutende Rolle und die Kunden sind mit 4GB Graka-Speicher am Laptop auch schneller zufrieden gestellt.
 
Revan1710 schrieb:
Ich finde die RX590 Nitro+ auch sinnvoll. 300€ sind zwar noch etwas viel, aber wenn ich mir die 10 % Leistung für, sagen wir 15 % Aufpreis kaufen kann, finde ich das i.O.

Ich "muss" mehr Geld ausgeben weil meine gegenwärtige HD Graphics 3000 (Sandy Bridge IGP) nicht in der Lage ist, Elite Dangerous (und vermutlich auch nicht mein nächstes Spiel X4) in 1920*1200 Pixel auch nur ansatzweise flüssig darzustellen.

Wenn ich das richtig sehe wird eine RX 570 für die Auflösung knapp oder zu knapp bemessen sein, eine RX580 aber mehr als ausreichend (da die ja bereits in die Region QHD hinein geht). Da fehlt mir dann allerdings die Motivation um mehr Geld auszugeben für das ich keine Mehrleistung erwarten kann. Die 15% Aufpreis spare ich mir lieber und kaufe entsprechend früher in zwei Jahren das dann aktuelle Modell. Etwas sähe das aus wenn die 590er mehr fps / W liefert. Da fahr ich drauf ab und bin auch bereit etwas mehr Geld in die Hand zu nehmen. Entsprechende Erfolgsmeldungen stehen aber noch aus.

Was wäre denn Deine Motivation für die 15% mehr?
 
Hayda Ministral schrieb:
Sind wir uns also einig darüber dass die 590 keine [gute] Miner-Karte abgibt? Dann bin ich erleichtert, gut dass wir diesen wichtigen und überaus praxisrelevanten Aspekt mal geklärt haben.

Edit: ansonsten sind wir uns ja einig. Mehr Watt ist immer doof und NV das Böse unter der Sonne. ;-)

Ähhh.. Mining ist mir Wumpe, aber wenn die Preise für gebrauchte Karten hoch sind und ich eine alte Karte verkaufen kann und mir für das Geld, was ich dabei erhalte, sogar eine effizientere Karte kaufen kann, auf die es 5 Jahre Garantie gibt: immer her damit. Weniger Stromverbrauch, weniger Abwärme und eine Absicherung im Schadensfall ;-)

Ich glaube nicht, dass es prinzipiell sinnvoll ist, Mining zu betreiben, aber da machen wir sicherlich ein neues Diskussionsfeld auf, dass dann doch etwas zu sehr Offtopic ist.

Und ja: Nvidia böse aber im äquivalenten Leistungsbreich effizienter. Juhu, wir sind uns einig ;-)
 
  • Gefällt mir
Reaktionen: Hayda Ministral
foxio schrieb:
Also in Tyranny, was eine ähnliche Engine nutzt wie Pillars of Eternity, benötigt meine RX 470 33W (ausgelesen mit HWInfo).

Du kannst mit einem Softwaretool nicht die Leistungsaufnahme einer Consumer-Grafikkarte "auslesen". Das ist vollkommen ausgeschlossen. Abschätzen ja, auslesen nein.

Was die Genauigkeit des Software-Schätzeisens angeht würde ich ein Fieberthermometer direkt am Kühlblech vorziehen. <scherz>
 
Hayda Ministral schrieb:
Wenn ich das richtig sehe wird eine RX 570 für die Auflösung knapp oder zu knapp bemessen sein, eine RX580 aber mehr als ausreichend (da die ja bereits in die Region QHD hinein geht).

Ouch, jetzt wirs doch Offtopic...
Wenn das nicht hypothetisch ist - ich habe den Thread nur sporadisch verfolgt - dann stehe ich aktuell beim PC meiner Frau auch vor dem Problem, dass eine neue GPU her muss. Für Full-HD und 60 FPS... schwere Entscheidung. nVidia doof, AMD viel Strom/Wärme - Die 570 scheint mir recht leistungsstark zu sein und wenn man etwas die Regler bedient, dann schafft die sicherlich auch noch die 60 FPS eine Weile. Glaube, die 570 lässt sich ganz gut untervolten, zumal die ja z.T. bloß einen 6 oder 8 Pin-Anschluss benötigt (die 580er brauchen ja idR 6er und 8er). Der Test auf CB hat ja gezeigt, dass der Verbrauch zwischen den Partnerkarten doch teilweise um 50W schwankt. Bei ca. 160/170W mit Undervolting und AMD-Chill.. ob man da 50W unter Vollast rausholen kann? Ich hab keine Ahnung - jemand mit Erfahrungen?
 
Hayda Ministral schrieb:
Du kannst mit einem Softwaretool nicht die Leistungsaufnahme einer Consumer-Grafikkarte "auslesen". Das ist vollkommen ausgeschlossen. Abschätzen ja, auslesen nein.

Was die Genauigkeit des Software-Schätzeisens angeht würde ich ein Fieberthermometer direkt am Kühlblech vorziehen. <scherz>

Natürlich ist es ein Auslesen - ich lese ja die Werte aus dem Tool ab. :)
Über die Genauigkeit kann ich nichts sagen, da ich nicht weiß, wie der Wert zustande kommt.
Um die Genauigkeit ging es mir aber auch überhaupt nicht - entscheidend ist die Größenordnung, die in meinem Beispiel deutlich unter dem Maximum liegt.
 
Ablesen ist ungleich auslesen.

Ich kann Dir in 5 Minuten eine Exe erstellen die Dir CPU und GPU Temperatur als Werte anzeigen. Du kannst diese Werte ablesen. Sie sind dann dennoch frei erfunden und nicht gemessen.

Ja, ich spalte scheinbar gerade Korinthen. Aber es ist mir wichtig dass der Unterschied nicht verwässert wird und im Bewußtsein bleibt. Sollte kein Angriff auf Dich sein, Thema für mich erledigt.
 
  • Gefällt mir
Reaktionen: Luxmanl525
Verstehe ich es richtig, dass für dich "Auslesen" ein Synonym für "akkurat Messen" ist?
Dann hast du mich vielleicht missverstanden.
 
Martinfrost2003 schrieb:
Wer sich wegen dem Stromverbrauch seiner Grafikkarte bepisst sollte sich vielleicht ein anderes Hobbie suchen.

Was du machst ist dein Problem. Wenn jemand sein Hobby hier betreibt und dabei auf den Stromverbrauch achtet, dann ist das eine feine Umwelt bewusste Sache und hat nichts mit Erbsen zutun.
Nebenbei ist Effizienz auch leichter zu kühlen und Komponenten schonend.
Aber proll mit deinem Reihenhaus ruhig herum.. juckt hier eh keinen ob du dir Strom leisten kannst oder nicht, dass können wir sowieso alle und darum gehts auch gar nicht.
 
  • Gefällt mir
Reaktionen: Schnefferaunzn, Luxmanl525, Valdorian und eine weitere Person
Auslesen kann ich einen verfügbaren Wert. Es gibt aber keinen Sensor der die Leistungsaufnahme der Grafikkarte bestimmt, ich kann folglich diesen Wert nicht auslesen. Ob der Sensor bei Vorhandensein akkurat messen würde oder mit phantasiewerten (Phenom II anyone?) ist nur ein weiteres Teilproblem.
 
Zurück
Oben