Test RX 5700 (XT) und RTX 2070 Super: Overclocking, Undervolting und PCIe 4.0 im Test

miagi schrieb:
jo hier


Naja stundenlag Autorennen ist eher selten aber 6 oder 8 Stunden bei Anno auf den Bildschirm starren wie ein Zombie ist so normal dass das Spiel selber darauf hinweist wie lange man schon spielt.
Diese Pseudoargumente wurden hier (anderer Thread) schon zu Hauf widerlegt :rolleyes:
Was du nennst sind Extremfälle (natürlich gibt's die!), leider finde ich gerade keinen Verbrauchstest zum aktuellen Anno.
Alleine wenn man sich seine Aktivitätskurve beim Gaming ansieht muss einem doch klar werden dass die GPU nicht ständig am Limit läuft (was wie du oben siehst ohnehin schwammig definiert ist!).
Und ja, selbst mit SSDs gibt es noch immer gewisse Ladezeiten :p

Aber nahezu kein Mensch zockt 40 Stunden die Woche, jede Woche, das ganze Jahr über!
Hör auf!
Das machen vielleicht ein paar Pro ESport Teams und da sollen die paar Watt relevant sein?
Ja ne...

Ergänzung ()

Metallmann schrieb:
Mehr Bilder pro Sekunde bei weniger Stromverbrauch.
Joa da sieht Navi aber, wie schon tausend mal belegt, sehr gut gegen Nvidia aus: https://www.computerbase.de/2019-09...hme-der-grafikkarte-shadow-of-the-tomb-raider

Die schnelleren Turings verbrauchen auch ein wenig mehr Strom, da bleibt vom Effizienzvorsprung im Falle der 2070 Super ca. 3% über - Wahnsinn!
Ergänzung ()

xexex schrieb:
Wo hast du bei abgeschalteten VSYNC nicht durchgehend Vollast? Bestenfalls dann, wenn deine CPU nicht schnell genug die Daten liefern kann oder wenn du dich irgendwo im Inventar oder Ladescreen befindest.
Siehe meine Screenshots in #239, ich kann's dir technisch nicht erklären weil ich da nicht tief genug drinstecke aber Fakt ist: Der Verbrauch einer Grafikkarte schwankt zwischen verschiedenen Spielen trotz ~100% Auslastung.

Das obige Beispiel tritt durch die Bank bei diversen Titeln auf.
Darum: 100/99% ist nicht gleich komplette Auslastung!

Vsync ist btw. bei fast allen Titeln standardmäßig "On" und da wir uns mit diesen Verbrauchsdiskussionen ja auch auf die allgemeine Gamerschaft beziehen wollen, kann man davon ausgehen dass viele das wohl auch benutzen werden.
Ich kenn's eigentlich nur aus'm ESport Bereich dass man VSync extra abschaltet, oder wenn man Free/G-Sync hat. Dann rendert die Graka aber auch nicht mehr 100+ Bilder ^^ (jaja schon klar, gibt auch 144/240Hz usw. AdaptiveSync Monitore, müssen wir jeden kleinen Spezialfall abhandeln?!)
Zumal es ja auch immer wieder Engines gibt die nicht ohne weiteres mehr als 60 FPS zulassen (hallo Bethesda).
Ergänzung ()

CrustiCroc schrieb:
Zumal die Dinger auch viel zu teuer sind.
Im Vergleich zu was? 😅
Vergleichbare NVidias sind doch noch teurer, ich versteh's nicht
🙈
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: amorosa und Charminbaer
Nilson schrieb:
Aber nur, wenn du im PT hängst. Sobald du unter dem PT bist, sinkt der Takt mit der Spannung.

Stimmt absolut. Macht meine V64 auch. Ist extra so designed worden von AMD und nennt sich AVFS.
Hier ist ganz gut erklärt warum AMD AVFS verwendet , Stichwort Binning ;)
https://www.extremetech.com/gaming/...ficiency-improvements-update-on-25x20-project


Es gibt bei Vega einen interessanten Effekt bei nahe zusammen liegenden Spannungen der Taktstufen. Je näher diese zusammenliegen desto geringer der Takverlust. Dabei gilt P3 als Referenzpunkt.
Also z.B. [ P3: 1000, P4:1050, P5: 1100, P6: 1150, P7: 1200 ] hat deutlich höhere Taktverluste als
z.B. [ P3: 1200, P4:1200, P5: 1200, P6: 1200, P7: 1200 ] .
Ich beziehe mich damit auf Werte die unabhängig vom Powerlimit sind. Also Powerplay gemodded damit das Powerlimit hoch genug ist das es nicht mehr limitiert.
 
Zuletzt bearbeitet:
Sennox schrieb:
Aber nahezu kein Mensch zockt 40 Stunden die Woche, jede Woche, das ganze Jahr über!

Muss er auch nicht.... Gehe mal von einem Schnitt von 2h am Tag aus. (bei 0,28 Euro pro kWh)
1572006049547.png

https://www.stromverbrauchinfo.de/stromkosten-im-alltag.php

Keine riesige Summen, aber wieso sollte man was verschenken?

Sennox schrieb:
Der Verbrauch einer Grafikkarte schwankt zwischen verschiedenen Spielen trotz ~100% Auslastung.

Natürlich tut es das, die CPU Stromaufnahme ist auch mit Prime eine andere wie mit richtigen Anwendungen. Allerdings testet CB die Stromaufnahme der Grafikkarten ja auch nicht mir Furmark, sondern in Spielen, also kann man sich darauf auch beziehen.

Wenn dann eine Grafikkarte 100W mehr als eine andere verballert, dann muss man das letztlich auf die voraussichtliche Nutzungsdauer auch im Preisvergleich einbeziehen.

Wenn du dir jetzt mal das extreme Beispiel heranziehst und beide getesteten Karten im vollen OC vergleichst, dann relativiert der höhere Stromverbrauch den Preisunterschied der beiden Karten komplett.
1572006878946.png


Das Problem ist mit Navi aber bei weitem nicht mehr so schlimm wie mit den Vega Karten.
 
  • Gefällt mir
Reaktionen: miagi
R00kie schrieb:
@Enurian Besten Dank für die Benchmark-Ergebnisse.
Ich habe V-Ray mal eben noch mit der 1080 Ti laufen lassen und bin ein bisschen erschrocken, dass die AMD-Karte so sehr das nachsehen hat. 229mpaths sind es bei mir geworden. Dass ich den Test auf Linux (Manjaro) ausgeführt habe, wird ja vermutlich keinen Unterschied machen.
Irgendwie hatte ich gehofft und mir gewünscht, dass AMD mindestens gleich auf ist.
Wie dem auch sei, danke! :)

Nvidia Linux Treiber sind seit ca. nem halben bis dreiviertel Jahr deutlich schneller als AMD wenn man nicht die aktuellsten Mesa und Kernel gits verwendet, welche nicht in Manjaro enthalten sind.
Ergänzung ()

scratch schrieb:
2.0 16x sollte vergleichbar sein mit 3.0 8x.
Ansonsten, genau die Schlussfolgerung Deines Artikels ist auch den anderen Tests zu entnehmen mit Ausnahme der Frage, ob die 2080 TI tatsächlich in einigen Situationen am x8-Limit kratzen kann. Das kommt einfach auf die Komplexität / Menge der Rohdaten an, die über den Bus gehen müssen. Macht aber schlussendlich tatsächlich keinen Unterschied, da alle modernen Boards mindestens PCIe3 x16 unterstützen, welches also noch "ein gutes Weilchen" ausreicht.
Um aussagekräftige Tests durchzuführen müsste man eigentlich eine und die selbe Platform und immer exakt den selben PCIe-Slot verwenden und per Software/Bios durch alle PCIe Gens und Beschränkung der Lanes schalten können. Ausserdem braucht es noch stärkere Grakas die PCIe 4.0 unterstützen. 2080ti+ Niveau

Ich denke einige Leistungsunterschiede ergeben sich auch aus dem geringeren Overhead und der verbesserten Signalintegrität jeder neuen PCIe Generation. Wenn weniger Datenpakete auf dem Transportweg korrumpiert werden benötigt man weniger Retransmissions, also hat man entsprechend bessere Auslastung durch weniger Leerlauf-/Wartezeiten der GPU auf die Daten.
 
Zuletzt bearbeitet:
xexex schrieb:
Wo hast du bei abgeschalteten VSYNC nicht durchgehend Vollast? Bestenfalls dann, wenn deine CPU nicht schnell genug die Daten liefern kann oder wenn du dich irgendwo im Inventar oder Ladescreen befindest.

Selbst mit VSYNC wirst du letztlich nur dann keine Vollast haben, wenn deine GPU überdimensioniert für die eingestellten Settings ist.
Ich habe z.B. mit meiner UVten V64 fast immer 100+ fps auf 3440x1440 in BF5 mit fast allen Einstellungen auf Ultra und limitiere die FPS auf 90 weil mein Bildschirm nur mit 90hz läuft. Entsprechend ist die Karte meistens nur zu 80-90% ausgelastet.
Und wie Sennox schon erwähnt hat gibts ja noch GSync/FreeSync.
Ergänzung ()

xexex schrieb:
Muss er auch nicht.... Gehe mal von einem Schnitt von 2h am Tag aus. (bei 0,28 Euro pro kWh)
Anhang anzeigen 834660
https://www.stromverbrauchinfo.de/stromkosten-im-alltag.php

Keine riesige Summen, aber wieso sollte man was verschenken?



Natürlich tut es das, die CPU Stromaufnahme ist auch mit Prime eine andere wie mit richtigen Anwendungen. Allerdings testet CB die Stromaufnahme der Grafikkarten ja auch nicht mir Furmark, sondern in Spielen, also kann man sich darauf auch beziehen.

Wenn dann eine Grafikkarte 100W mehr als eine andere verballert, dann muss man das letztlich auf die voraussichtliche Nutzungsdauer auch im Preisvergleich einbeziehen.

Wenn du dir jetzt mal das extreme Beispiel heranziehst und beide getesteten Karten im vollen OC vergleichst, dann relativiert der höhere Stromverbrauch den Preisunterschied der beiden Karten komplett.
Anhang anzeigen 834667

Das Problem ist mit Navi aber bei weitem nicht mehr so schlimm wie mit den Vega Karten.

Die 40€ hat man aber mindestens schon beim Kauf einer AMD gegenüber einer NVidia gespart.

Der OC mit +50% Powertarget von CB ist absolut unsinnig, zumal es nur ein paar FPS Mehrwert ergibt. Das ist einfach nur mit der Brechstange auf Teufel komm raus den höchsten Takt herausgekitzelt. Wenn man das selbe mit der Nvidia machen könnte hätte man genauso grausame Verbrauchswerte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sennox und v_ossi
Charminbaer schrieb:
Und wie Sennox schon erwähnt hat gibts ja noch GSync/FreeSync.

Und was ist damit? Im Normalfall würde die Grafikkarte mit eingeschaltetem Gsync genauso mit Vollast laufen und jedes Bild was fertig ist an den Monitor übertragen.

Charminbaer schrieb:
Die 40€ hat man aber mindestens schon beim Kauf einer AMD gegenüber einer NVidia gespart.

Ob du die 40€ beim Kauf drauf rechnest oder letztlich nachträglich drauf rechnen musst, ist für die meisten Jacke wie Hose. Nach der Nutzungszeit hast du dann unter Umständen für die billigere Grafikkarte mehr ausgegeben.

Es würde auch niemand auf die Idee kommen ein halb so teures Auto zu kaufen was 8l/100km schluckt, statt eines doppelt so teuren mit nur 4l/100km Verbrauch, wenn der Rest praktisch gleich ist..... Außer man nutzt es so selten, dass einem der hohe Verbrauch am Ende nichts ausmacht.

Aber wie gesagt, das Problem haben/hatten vor allem die vermeintlich so günstigen Vega Grafikkarten, hier kommt die Rechnung halt erst später. Seit Navi tun sich die beiden Hersteller was den Verbrauch angeht nicht viel, trotzdem sollte man es nicht aus den Augen verlieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: miagi
xexex schrieb:
Und was ist damit? Im Normalfall würde die Grafikkarte mit eingeschaltetem Gsync genauso mit Vollast laufen und jedes Bild was fertig ist an den Monitor übertragen.

Aber nicht überhalb der Refreshrate des Monitors. Zumindest nicht wenn Vsync ebenfall aktiv ist. (Was eigentlich normalerweise aktiviert sein sollte wenn man Gsync verwendet)
Ohne diese unnötig berechneten Frames sinkt der Verbrauch natürlich.

Ganz streng genommen arbeitet die Karte pro Frame auf Volllast, aber auf Zeit normalisiert hast du geringere Auslastung durch die Pausen in der Berechnung. Die Karte hat ja nichts mehr zu tun bis zum nächsten Frame. Also z.B. bei 60fps sind das immer 16.7ms untätige Zeit.
Während ohne Sync Technologie soviele Frames berechnet werden wie die Grafikkarte halt berechnen kann.
Wenn sie z.B. stark genug ist um 120Frames in der selben Zeit zu berechnen die ein Monitor für die Darstellung von 60Frames benötigt, werden entsprechend alle 8,3ms ein Frame berechnet. davon werden natürlich 60Frames verworfen aber man hat trotzdem ca. die doppelte Energie verbraucht, für die selbe Darstellung mit netten Nebeneffekten wie Tearing.

xexex schrieb:
Ob du die 40€ beim Kauf drauf rechnest oder letztlich nachträglich drauf rechnen musst, ist für die meisten Jacke wie Hose. Nach der Nutzungszeit hast du dann unter Umständen für die billigere Grafikkarte mehr ausgegeben.

Es würde auch niemand auf die Idee kommen ein halb so teures Auto zu kaufen was 8l/100km schluckt, statt eines doppelt so teuren mit nur 4l/100km Verbrauch, wenn der Rest praktisch gleich ist..... Außer man nutzt es so selten, dass einem der hohe Verbrauch am Ende nichts ausmacht.

Aber wie gesagt, das Problem haben/hatten vor allem die vermeintlich so günstigen Vega Grafikkarten, hier kommt die Rechnung halt erst später. Seit Navi tun sich die beiden Hersteller was den Verbrauch angeht nicht viel, trotzdem sollte man es nicht aus den Augen verlieren.
Da hast du recht, es nimmt sich wohl nicht sonderlich viel für Leute die recht häufig zocken.
Ich behaupte aber mal das die Mehrheit aller User weniger als im Schnitt 2h pro Tag spielt. Da lohnt sich eine günstigere Karte schon. Vorrausgesetzt sie sind gut designed wie so manches aktuelles Navi Partnermodell in puncto Lautstärke.

Der Autovergleich hinkt etwas weil man am Desktop PC keine Begrenzung der Energiezufuhr hat.
Bei Laptops würde der Vergleich funktionieren und dort macht die effizientere Karte eigentlich so gut wie immer Sinn.

Navi ist in meinen Augen auch ein lange überfälliger Schritt nach vorne. Da bin ich bei dir.
 
@Sennox guck dir doch einfch den test an um den es hier eigentlich geht. Erst recht beim UV. AMD hat sich sehr verbessert, wenn man mal vega 56 und 64 betrachtet.
Nvidia hat aber nunmal eine bessere Effizienz, ist einfach so.
 
Sennox schrieb:
Es geht nicht um "niedrige Last" sondern um "nicht durchgehend Volllast"

Ich hab gerade Screenshots von einem neulichen Test zur Hand wo der HBM OCed und das PPT um 50% angehoben wurde (Vega 56 PowerColor Red Dragon):
Monster Hunter World:
Anhang anzeigen 834636
Furmark:
Anhang anzeigen 834637

Obwohl die Karte in beiden Fällen an die Kotzgrenze belastet zu sein scheint (MHW kann echt fordernd sein :D) fährt die V56 unter Furmark mit mehr VDDC einen geringeren Takt und hat viel weniger RAM in use, trotzdem ist der ermittelte Verbrauch 14W/6% höher (6% wurden hier ja teilweise schon als wesentlich effizienter eingestuft ;))

Es ist immer auch davon abhängig wie die Karte belastet wird, ich weiß nicht genau warum das da oben so aussieht aber ich weiß dass das zwei Extremfälle sind.

Bevor mir hier noch ein Troll auf den Keks gehen will dass die Karte so ja mega ineffizient wäre: Ist mir klar :rolleyes: das war nur für den Test :p
Dein Problem ist wieder das du FurMark und Spielen vergleichst, raus mit dem FurMark aus dem Kopf. Wir gucken uns nicht die FurMark-Verbräuche an und wir gucken uns nicht die FurMark-Auslastung an! Wir gucken uns deutlich realistischere Spiele-Benchmark-Verbräuche zum Vergleich zweiter Karten an. Diese Spiele-Benchmarks sind nicht dafür da die GPU auszureizen, sie sind dafür da die Spielelast zu repräsentieren und der Ist-Verbrauch ist auch nicht der absolut entscheidnde Punkt, sondern das Verbrauchs-Delta zweier ähnlicher Karten. Dein Argument geht auch deshalb ins leere weil es eigentlich egal ist ob zwei vergleichbare Karten im mittel auf 99% oder 85% Auslastung laufen, wenn man zwischen zwei Karten ein Delta von X Watt messen kann, kann man es mit Y Zeit in Stunden pro Jahr multiplizieren und auf Z Euro Stromkosten pro Jahr umrechnen. Dies kann dann in die Kaufentscheidung einbezogen werden oder eben nicht wenn man denkt der Strom ist umsonst oder man annimmt, dass man mit seiner High-End Grafikkarte eh kaum aufwendige 3D-Spiele spielt.

Noch ein Wort zur Auslastung der GPU an sich die ja mit dem Argument nicht direkt etwas zu tun hat. Setzt man den FPS-Cap und Qualität so niedrig dass die GPU mit 70-80% in der Spitze läuft, hat man ohnehin zu viel Geld für die Grafikkarte ausgegeben, weil man sie nicht ausnutzt. Wenn man sich anschaut, dass in CB-Benchs eine 2070 Super 120% der Performance einer 2060 Super hat und man für die 2070 Super ~150€ mehr bezahlt, kann man sich theoretisch ausrechnen wie viel 10% oder 20% verschenkte Performance im high-end bis Enthusiasten-Bereich in € sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex
miagi schrieb:
Noch ein Wort zur Auslastung der GPU an sich die ja mit dem Argument nicht direkt etwas zu tun hat. Setzt man den FPS-Cap und Qualität so niedrig dass die GPU mit 70-80% in der Spitze läuft, hat man ohnehin zu viel Geld für die Grafikkarte ausgegeben, weil man sie nicht ausnutzt. Wenn man sich anschaut, dass in CB-Benchs eine 2070 Super 120% der Performance einer 2060 Super hat und man für die 2070 Super ~150€ mehr bezahlt, kann man sich theoretisch ausrechnen wie viel 10% oder 20% verschenkte Performance im high-end bis Enthusiasten-Bereich in € sind.

Naja so absolut kann man das nicht sehen. Man hat ja nicht durchgängig die selben FPS in jedem Spiel.
BF5 läuft bei mir auf 100+ fps und Control z.B. auf ~45-50fps. Also greift der Framelimiter nur bei BF5 in dem Beispiel.
Und sogar in dem unwahrscheinlichen Fall das man immer 10-20% Leistung verschenkt steigen die minimalen FPS bei mehr GPU Power. Und die sind gerade in Shootern deutlich wichtiger als Average FPS.
 
Charminbaer schrieb:
Naja so absolut kann man das nicht sehen. Man hat ja nicht durchgängig die selben FPS in jedem Spiel.
BF5 läuft bei mir auf 100+ fps und Control z.B. auf ~45-50fps. Also greift der Framelimiter nur bei BF5 in dem Beispiel.
Und sogar in dem unwahrscheinlichen Fall das man immer 10-20% Leistung verschenkt steigen die minimalen FPS bei mehr GPU Power. Und die sind gerade in Shootern deutlich wichtiger als Average FPS.
Das stimmt es gibt immer mal das Spiel das mehr Anforderungen generiert oder einfach mieser optimiert ist. Wobei Control mit Raytracing viel Performance zieht? Stimmt das? Das wäre dann sozusagen ein Special Feature das wirklich einen optischen Qualitätsunterschied darstellt.
Aber diese Minimum-FPS-Bedenken gehen auch stark Richtung professionelle Spieler Überlegungen. Für den normalen Gamer lohnt es sich nicht deshalb 100-150€ mehr auszugeben. BF5 ist da vll auch ein Positivbeispiel was die Optimierung und Konzeptionierung der Spiele-Anforderungen angeht(Konsolen). Ansich ist unausgenutzte GPU-Performance bei 1440p+ im Spiele-Durchschnitt eher ein Luxus-Probleme der Kategorie 2080 bis 2080Ti. Vor allem die letzte ist in Punkto Preis-Leistung jenseits des normalsterblichen Bereichs.
 
DasUnding schrieb:
Hier siehst du den Einfluss von Bandbreite auf die Bildrate ganz gut
Hab deinen Edit erst eben gesehen. Du willst hiermit also wirklich deine Aussage bestätigten, PCIe Bandbreite würde im Falle von Vram Mangel ein deutliches Leistungsplus bringen? Mit einem APU Test?
Selbst hier sehe ich aber keinen Zusammenhang zwischen Vram Knappheit und PCIe Bandbreite.
 
Metallmann schrieb:
@Sennox guck dir doch einfch den test an um den es hier eigentlich geht. Erst recht beim UV. AMD hat sich sehr verbessert, wenn man mal vega 56 und 64 betrachtet.
Nvidia hat aber nunmal eine bessere Effizienz, ist einfach so.
Turing hat mehr UV Potential, das ist es was dieser Test hier aussagt.
So schwer einzusehen dass man Quatsch erzählt hat? ;)
Im "Normalzustand" nach dem Kauf nehmen sich Navi und Turing kaum noch was!
Komisch dass das immer das Argument gegen AMD zu Vega Zeiten war 😂
Ergänzung ()

miagi schrieb:
Dein Problem ist wieder das du FurMark und Spielen vergleichst, raus mit dem FurMark aus dem Kopf. Wir gucken uns nicht die FurMark-Verbräuche an
Es geht hier darum an einem Beispiel zu zeigen wie sich Grafikkarten verhalten können!
Wenn du dich an FurMark so aufgeilen möchtest: bitte!
Mir geht es darum dass eine Auslastung immer anders aussehen kann, FurMark dient nur zur Veranschaulichung und um ein Extrembeispiel zu zeigen genau so wie deine 40h Zockerwoche :rolleyes:


Edit:
Aber da Furmark ja so böse ist hier bitte:

MHW:
MHW_stock+50PT.png


Remnant from the Ashes:
remnant_stock+50PT.png


In beiden Fällen habe ich ca. 15 Minuten gezockt dabei nur das PT um 50% angehoben und den Rest @Stock gelassen.
Trotzdem ein sichtbarer Unterschied.

Oh ich hätte da noch etwas, ich hatte beim ersten Remnant Run vergessen das PT anzuheben aber was ist das denn? Trotzdem 99% Auslastung und das bei nur 166W :confused_alt: 😂
remnant_stock.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Charminbaer
Kommt der wieder mit dem FurMark an. Noch mal, es ist egal ob die Karte 99%, 80% oder 50% Last hat, und es ist auch egal ob die Karte 166 W oder 221 W verbraucht. Wenn Böses Ausgehdaches Beispiel die Vega da mit 166 W läuft und eine grüne Karte mit vergleichbarer Performance im selben Spiel mit selben Einstellungen mit 116 W läuft ist das ein Delta von 50 W. Das Delta kann man mit der Anzahl an Spielstunden pro Jahr multiplizieren und Stromkosten pro Jahr errechnen.
Noch ein Rechenbeispiel jemand Spielt abends an 4/5 Werktagen 3 Stunden am Abend und am Wochenende 5h. Dann sind das in der Woche 17h. Bei zwei Karten mit 50 W Verbrauchsunterschied sind das in 3 Jahren knapp 40 €. Kann man eventuell in die Kaufentscheidung aufnehmen. Bei einem Netzteil das Eventuell von PC zu PC wandert und 10 Jahre im Betrieb bleibt lohnt es sich auch mal über den Daumen zu peilen ob das etwas teure aber effizientere Gerät in der Langzeitbetrachtung nicht deutlich günstiger ist.
 
  • Gefällt mir
Reaktionen: xexex
Wie kommst du wieder auf Furmark?
Meine letzten Screenshots sind von Remnant from the Ashes und Monster Hunter World
Du verstehst es aber nicht wobei ich bin eher der Meinung du willst nicht 🤷‍♂️
Den Beweis mit 116W im selben Beispiel bist du hiermit übrigens schuldig ^^ Ich weiß nicht mal woher du diese Zahl nimmst.
Ah jetzt verstehe ich "Böses Ausgehdaches Beispiel" was soll das?
Wozu jetzt Beispiele ausdenken?
Ja wenn eine Karte bei vergleichbarer Leistung 50W mehr verbraucht ist das nicht wenig aber gerade bei Navi sind diese 50W total utopisch, nicht realistisch und eher ein Traum einzelner Seltsamer.

Edit:
"und es ist auch egal ob die Karte 166 W oder 221 W verbraucht "
Hä? Ich dachte es geht die ganze Zeit um Verbrauch?

In meinem Beispiel liegen immer 98/99% Last an und dennoch gibt es nennenswerte Unterschiede im Verbrauch.
Daher funktionieren diese Milchmädchenrechnungen mit dem Stromvebrauch auf's Jahr so nicht.

Wer das nach all den Beispielen und Erläuterungen nicht versteht der will es auch nicht verstehen, meine Mühen finden hier ein Ende.
Irgendwann wird die Zeit dafür echt zu schade ^^

~ So fertig mit editieren, sorry ~
 
Zuletzt bearbeitet:
miagi schrieb:
Das stimmt es gibt immer mal das Spiel das mehr Anforderungen generiert oder einfach mieser optimiert ist. Wobei Control mit Raytracing viel Performance zieht? Stimmt das? Das wäre dann sozusagen ein Special Feature das wirklich einen optischen Qualitätsunterschied darstellt.
Ich kann dir leider nicht über den Performanceverlust von Raytracing aus erster Hand sagen. Habe eine Vega64.
Aber was man auf Techseiten so lesen kann ist der meistens schon enorm hoch.
So hoch das es für mich leider noch kein Kaufargument wäre, obwohl ich Echtzeit-Raytracing von der Technik her eigentlich absolut genial finde.

miagi schrieb:
Aber diese Minimum-FPS-Bedenken gehen auch stark Richtung professionelle Spieler Überlegungen. Für den normalen Gamer lohnt es sich nicht deshalb 100-150€ mehr auszugeben. BF5 ist da vll auch ein Positivbeispiel was die Optimierung und Konzeptionierung der Spiele-Anforderungen angeht(Konsolen). Ansich ist unausgenutzte GPU-Performance bei 1440p+ im Spiele-Durchschnitt eher ein Luxus-Probleme der Kategorie 2080 bis 2080Ti. Vor allem die letzte ist in Punkto Preis-Leistung jenseits des normalsterblichen Bereichs.
Sicher haben gerade Professionelle Spieler solche Anforderungen aber auch Otto-normal Gamer profitieren von hohen minimum FPS.
Wenn die zu niedrig sind hat man sehr viele Mikroruckler und erhöhten Inputlag.
Wird vielleicht nicht jeder bemerken aber wenn man z.B. einen direkten Vergleich durchführen kann denke ich schon das die meisten das registrieren werden. ( 2 PCs, einer mit hohen min. FPS und einer mit niedrigen | beide gleiche average FPS bzw. Framecapped)
Und diejenigen die total abgestumpfte Sinne haben werden wahrscheinlich auch den Unterschied zwischen 45fps und 60fps nicht bemerken.

Ich persönlich finde das Mikroruckler die Immersion stören.
Ein zitterndes Bild wirkt auf mich einfach nicht natürlich.

Ich denke dieses Thema ist aber Ansichtssache. Wenn man absolute Effizienz/Vollauslastung anstrebt dürfte man auch keine CPU kaufen mit 8 oder mehr Kernen. Werden von Spielen ja meistens eh nicht genutzt.

Meine Maxime ist aber eher:
Lieber etwas mehr Power zu Verfügung haben die man nicht immer braucht anstatt in Engpässe zu laufen.
Ergänzung ()

Was diese Diskussion zwischen Nvidia und AMD Effizienz bzw. UV-Potential angeht wird hier viel um die falschen Punkte herumdiskutiert.

Ja Nvidia hat momentan einen besseren UV Spielraum als AMD trotz 12nm vs. 7nm Fertigung.
Man könnte aber auch argumentieren das 12nm TSMC deutlich ausgereifter/ausoptimierter ist als 7nm TSMC, welcher ja noch in den Kinderschuhen steckt.
Intels 14nm Prozess war am Anfang auch ziemlich schlecht verglichen zum heutigen 14nm+++. Sogar schlechter vom Yield als der hauseigene 22nm.

Wenn man natürlich die derzeitige Momentaufnahme als Maßstab nimmt dann kann man schon sagen das Nvidia beim UV die Nase vorne hat. Gerade bei Mobilechips merkt man das extrem. Die kann man teilweise mit extrem niedrigen Spannungen betreiben. ( z.B. RTX2070 1400Mhz@0,625V in einem Gigabyte Aorus Notebook)
Mobile Chips sind aber das Extrembeispiel da äußerst gut gebinnt.

Wenn Nvidia nächstes Jahr auf 7nm aufspringt wird sich dieser Vorsprung wahrscheinlich weiter vergrößern.
Außer AMD setzt bei den großen Navis schon direkt auf EUV 7nm+ und Nvidia nur auf den normalen.

Solche technischen Details interessieren aber die normalen Kunden nicht, geschweige denn sie wissen überhaupt das solche Unterschiede existieren.
Im Auslieferungszustand unterscheiden sich Navi und Turing momentan nicht von der Effizienz.

Im Endeffekt kommt es auf die eigenen Anforderungen und Geschmäcker an.
Sowohl Nvidia als auch AMD haben ihre Vor- und Nachteile.

Z.b. hat AMD bessere Softwarefeatures wie "Anti-Lag", "FX-Sharpening", "TrueAudio Next" und grundsätzlich sehr viel OpenSource Software.

Nvidia dagegen den Vorteil von im Schnitt besser optimierten Spielen, Raytracing und der ausgereifteren Architektur.

Ich persönlich meide Nvidia die letzten Jahre aufgrund ihrer sehr kundenfeindlichen Entscheidungen.
Wenn ich die Wahl habe lasse ich mich nicht gerne für dumm verkaufen und an allen Enden und Ecken einschränken.
Wenn sie nicht solch eine Politik fahren würden und ich rein technisch gesehen entscheiden müsste, hätte ich wohl eine Nvidia Karte gekauft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: miagi
Sennox schrieb:
Turing hat mehr UV Potential, das ist es was dieser Test hier aussagt.
So schwer einzusehen dass man Quatsch erzählt hat? ;)
Im "Normalzustand" nach dem Kauf nehmen sich Navi und Turing kaum noch was!
Komisch dass das immer das Argument gegen AMD zu Vega Zeiten war 😂

Du verstehst das mit der Effiziens nicht so recht, wa?
Wie die standart Bios einstellungen der jeweiligen Karten sind spielt bei dem Thema eine nebensächliche Rolle, für den Nutzer im Alltag vielleicht, aber nicht wenn man die Prozessoren miteinander vergleicht.
Die GPU's von Nvidia sind einfach etwas effizienter, da kann man trampeln und schreiben wie man will.
Ich habe nichts gegen AMD, ganz im Gegenteil, ohne AMD würde der MArkt ganz anderst aussehen, nämlich nicht ansatzweise so "gut" für den Verbraucher. Stell dir mal vor was die Hersteller (Intel und Nvidia) in einer Monopelstellung für Preise aufrufen könnten/würden.
Und die neuen Ryzen CPU's sind einfach spitze, genau das braucht Intel.
 
  • Gefällt mir
Reaktionen: miagi
xexex schrieb:
Muss er auch nicht.... Gehe mal von einem Schnitt von 2h am Tag aus. (bei 0,28 Euro pro kWh)
Anhang anzeigen 834660
https://www.stromverbrauchinfo.de/stromkosten-im-alltag.php

Keine riesige Summen, aber wieso sollte man was verschenken?



Natürlich tut es das, die CPU Stromaufnahme ist auch mit Prime eine andere wie mit richtigen Anwendungen. Allerdings testet CB die Stromaufnahme der Grafikkarten ja auch nicht mir Furmark, sondern in Spielen, also kann man sich darauf auch beziehen.

Wenn dann eine Grafikkarte 100W mehr als eine andere verballert, dann muss man das letztlich auf die voraussichtliche Nutzungsdauer auch im Preisvergleich einbeziehen.

Wenn du dir jetzt mal das extreme Beispiel heranziehst und beide getesteten Karten im vollen OC vergleichst, dann relativiert der höhere Stromverbrauch den Preisunterschied der beiden Karten komplett.
Anhang anzeigen 834667

Das Problem ist mit Navi aber bei weitem nicht mehr so schlimm wie mit den Vega Karten.

Ja,zieh aber bitte den Stromverbrauch bei 144hz mit ein, was wohl heute viele Gamer haben die sich so ne karte holen, da Nvidia´s karten nicht mehr in 2d modus gehen wenn die Montierer zu viel Herz haben, mit 3 karten und 3 pc´s getestet
System 1 hat eine Titan Rechner, 2 eine gtx 1080 und Rechner 3 eine gtx 1660

Es handelt um den Idle Stromverbrauch

Rechner 1(Titan):
49w bei 60 hz
70w bei 120hz
123w bei 144hz


Rechner 2(GTX 1080):
48w bei 60 hz
65w bei 120 hz
112w bei 144hz.


Rechner 3(GTX 1660):
44w bei 60 hz
58w bei 120 hz
77w bei 144 hz.


Fotos oder ein video dazu könnte ich dir machen, würde aber etwas dauern, wegen der zeit


Würde mich echt freuen wenn Computerbase das auch mal selbst testet, Treiber Versionen wurden 4 verschiedene getestet, die alle nicht alt waren.
 
  • Gefällt mir
Reaktionen: Charminbaer
happylol schrieb:
Ja,zieh aber bitte den Stromverbrauch bei 144hz mit ein, was wohl heute viele Gamer haben die sich so ne karte holen, da Nvidia´s karten nicht mehr in 2d modus gehen wenn die Montierer zu viel Herz haben, mit 3 karten und 3 pc´s getestet
System 1 hat eine Titan Rechner, 2 eine gtx 1080 und Rechner 3 eine gtx 1660

Es handelt um den Idle Stromverbrauch

Rechner 1(Titan):
49w bei 60 hz
70w bei 120hz
123w bei 144hz


Rechner 2(GTX 1080):
48w bei 60 hz
65w bei 120 hz
112w bei 144hz.


Rechner 3(GTX 1660):
44w bei 60 hz
58w bei 120 hz
77w bei 144 hz.


Fotos oder ein video dazu könnte ich dir machen, würde aber etwas dauern, wegen der zeit


Würde mich echt freuen wenn Computerbase das auch mal selbst testet, Treiber Versionen wurden 4 verschiedene getestet, die alle nicht alt waren.
Um fair zu sein muss man aber auch dazu sagen das AMD Karten das selbe Verhalten zeigen
 
Charminbaer schrieb:
Um fair zu sein muss man aber auch dazu sagen das AMD Karten das selbe Verhalten zeigen

Jein :D mein pc verbraucht mit 240hz "80-100w"
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Charminbaer
Zurück
Oben