News Leistung pro Euro: Welche Grafikkarte leistet wie viel zu welchem Preis?

Oppagolf schrieb:
Und so sieht es bei den Consumer Grafikkarten doch auch aus - wozu werden die genutzt? Damit man vorm Bildschirm sitzt und spielt. Und wenn ich damit eine Gleichung aufstelle und das z.B. mit mir bis vor einem Jahr vergleiche, der mit einer RX6600 XT genauso gespielt hat, wie eben auch heute einer mit einer 4080 oder 4090 tut und dazu in Relation den Stromverbrauch setze, so komme ich zu dem Ergebnis, dass die RX 6600 XT effizienter war (RX 6600 XT - 148 Watt in UHD bei Doom Eternal laut Test hier bei CB, 4090 laut dem Diagramm beim 7900 Test 244 Watt in UHD).
Der Vergleich hinkt trotzdem extrem. Mit einer RX 6600 XT wird man kaum mit 144 FPS in UHD auf Ultra Einstellungen zocken können (zumindest nicht bei aktuellen AAA Titeln). Wem 60 FPS auf mittleren Einstellungen auf WQHD reicht, könnte das entsprechend auf der RTX 4090 limitieren, dann benötigt diese sogar weniger Watt, als eine RX 6600 XT. Und das ist es doch, was Effizienz ausmacht -> bei gleichen Voraussetzungen weniger Watt zu benötigen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ragnarök88, angband1, b|ank0r und eine weitere Person
Houndmux schrieb:
Wünschenswert wäre das natürlich, aber wie willst Du bewerten, wie gut dieses Ziel derzeit erreicht wird? Die Grafikpower steigt immer mehr an und dieser Rechenaufwand will halt mit Energie gefüttert werden, daher ist es unrealistisch zu erwarten, dass die Grafikpower steigt, der Verbrauch aber nicht.
Es ging doch in der Vergangenheit sehr gut, dass die Power nicht ins Unermessliche gestiegen ist.
Bei den Prozessoren hat AMD z.B. mit dem 5800x3d doch auch gezeigt, dass es anders geht. War für mich übrigens einer der Kaufgründe, bzw. der Hauptgrund, diesen zu kaufen.
Für mich ist die Annahme, dass man keinen Fortschritt erwarten dürfe, ziemlich unrealistisch. Um mal wieder zurück zum Thema zu kommen: Genauso unrealistisch wie die Annahme, dass eine neue Grafikkarte um den Prozentsatz teurer sein dürfe, um den sie schneller ist. Das wäre kein Fortschritt, sondern Stillstand.
 
@Oppagolf

Wenn man keinen Rückschritt kennt ist es natürlich schwer sich auch mal mit einem Stillstand zufrieden zu geben und das Glas halb voll statt halb leer zu betrachten.. Auch das hat die Welt schon mehrmals erlebt. Ich erinnere mal an die Ölkrise der 70er .
 
Stefan1200 schrieb:
Der Vergleich hinkt trotzdem extrem. Mit einer RX 6600 XT wird man kaum mit 144 FPS in UHD auf Ultra Einstellungen zocken können (zumindest nicht bei aktuellen AAA Titeln). Wem 60 FPS auf mittleren Einstellungen auf WQHD reicht, könnte das entsprechend auf der RTX 4090 limitieren, dann benötigt diese sogar weniger Watt, als eine RX 6600 XT. Und das ist es doch, was Effizienz ausmacht -> bei gleichen Voraussetzungen weniger Strom benötigen.
Der Punkt ist der, dass man aber genauso spielt. Habe ich ja selbst getan, deshalb habe ich bewusst die Grafikkarte gewählt. Und wie du selber schreibst, man "könnte" die 4090 limitieren, Fakt ist aber, dass die ab Werk alles andere als limitiert ist und sich über 400 Watt genehmigt, statt 150.
Realistisch gesehen spielt einer mit einer RX 6600 oder vergleichbarem mit ca. 150 Watt von der Grafikkarte, und einer mit einer 4080 oder 90 eben mit 250 Watt oder gar noch viel mehr. In beiden Fällen sitzt eine Person vorm Bildschirm (meinetwegen steht sie auch ;) ) und die Energie "verpufft" in Abwärme. Nur einmal halt deutlich mehr - bei der Betrachtung von Effizienz kommt es eben darauf an, was man als Maßstab nimmt. Wenn man die FPS nimmt, so ist die aktuelle Generation wohl die beste, das steht ja auch nicht zur Debatte.

Wenn aber das Ergebnis ist, dass dennoch mehr verbraucht wird, dann könnte man zumindest mal kritisch hinterfragen, ob die FPS überhaupt das richtige Maß sind um die Effizienz zu betrachten. Klar ist man immer der Meinung, man bräuchte jetzt unbedingt diese oder jene Karte, um die neuesten Marketingerfindungen wieder zu "haben" (z.B. DLSS, Frame Generation, RTX...), aber in ein paar Jahren gibt es wieder was neueres, besseres. Wenn ich mich z.B. an die frühen 2000er zurückerinnere, da dachte ich teilweise schon, dass es realistischer bald ja nicht mehr aussehen kann. Nun, wenn ich mir das heute begucke, kann ich nur müde lächeln, natürlich ist es noch viel realistischer geworden.

Jetzt bin ich etwas abgeschweift, worauf ich hinaus will: Das entscheidende ist letztendlich, dass die Grafikkarte ihren primären Zweck erfüllt, ein Bild auf den Bildschirm bringen, so dass der vorm Bildschirm sitzende damit spielen kann. Wenn das erfüllt ist, dann gut, dabei interessiert es eben nicht, ob 10 FPS mehr oder weniger, sondern nur, ob das Bedürfnis erfüllt ist. Und hier erwarte ich einfach, dass neue Generationen sowohl bei der Effizienz besser sind, als auch bei der Preis-/ Leistung (worum es hier ja eigentlich geht), im Vergleich zu den vorherigen Generationen.

Wie so manche schon geschrieben haben, vielleicht ist es auch einfach Zeit, dass hier mal ein Deckel in Form einer Verbrauchsgrenze draufkommt, um von der gestiegenen Effizienz auch tatsächlich zu profitieren, nicht nur theoretisch.
 
  • Gefällt mir
Reaktionen: angband1
Oppagolf schrieb:
Und so sieht es bei den Consumer Grafikkarten doch auch aus - wozu werden die genutzt? Damit man vorm Bildschirm sitzt und spielt. Und wenn ich damit eine Gleichung aufstelle und das z.B. mit mir bis vor einem Jahr vergleiche, der mit einer RX6600 XT genauso gespielt hat, wie eben auch heute einer mit einer 4080 oder 4090 tut und dazu in Relation den Stromverbrauch setze, so komme ich zu dem Ergebnis, dass die RX 6600 XT effizienter war (RX 6600 XT - 148 Watt in UHD bei Doom Eternal laut Test hier bei CB, 4090 laut dem Diagramm beim 7900 Test 244 Watt in UHD).
Links zu den entnommenen Daten:
https://www.computerbase.de/artikel...-3#abschnitt_energieeffizienz_in_fps_pro_watt
https://www.computerbase.de/artikel...nitt_leistungsaufnahme_spiele_youtube_desktop

Der Vergleich in 1440p wäre deutlich sinnvoller, da die 6600 XT selbst hier unter 144 fps liegt:

https://www.computerbase.de/artikel...98/seite-2#abschnitt_benchmarks_in_2560__1440

Und schon steht die 6600 XT mit 148 Watt für schwankende fps von 110+ fps den 126 Watt (4090 FE) bzw. 139 Watt (4080 FE) mit absolut stabilen 144 fps gegenüber.

eternal_4080.pngeternal_6600XT.png
 
Oppagolf schrieb:
Der Punkt ist der, dass man aber genauso spielt. Habe ich ja selbst getan, deshalb habe ich bewusst die Grafikkarte gewählt. Und wie du selber schreibst, man "könnte" die 4090 limitieren, Fakt ist aber, dass die ab Werk alles andere als limitiert ist und sich über 400 Watt genehmigt, statt 150.
Realistisch gesehen spielt einer mit einer RX 6600 oder vergleichbarem mit ca. 150 Watt von der Grafikkarte, und einer mit einer 4080 oder 90 eben mit 250 Watt oder gar noch viel mehr. In beiden Fällen sitzt eine Person vorm Bildschirm (meinetwegen steht sie auch ;) ) und die Energie "verpufft" in Abwärme. Nur einmal halt deutlich mehr - bei der Betrachtung von Effizienz kommt es eben darauf an, was man als Maßstab nimmt. Wenn man die FPS nimmt, so ist die aktuelle Generation wohl die beste, das steht ja auch nicht zur Debatte.
Naja, aber deswegen ist die Karte doch nicht weniger effizient, nur weil ich auf höheren Grafikeinstellungen spiele. Bei der RTX 4090 habe ich halt die Wahl: Will ich jetzt Leistung abrufen, oder will ich Strom sparen.

Aber mal im Ernst, die RTX 4090 ist zu teuer, um sich diese Frage zu stellen. Jemand der diese Karte kauft, wird sicherlich nicht auf mittleren Einstellungen bei 30 FPS limitiert spielen wollen, nur weil er dann bei den Stromkosten 2/3 einsparen kann. ;)
 
  • Gefällt mir
Reaktionen: Anion
Ragnarök88 schrieb:
Es geht um 1080p und 1440p.
Und ja auch ein 720p Bild sieht hochskaliert auf einem Notebook gut aus.
Was hat jetzt Notebooks mit Desktopgrafikkarten zu tun?

Ragnarök88 schrieb:
Es geht immer nur explizit um das was du dir vorstellst. Kein RT, kein VR, kein Featureset, kein FG, nur reine Rasterleistung und selbst da zählen nur genehme Testberichte.
Hast irgendwo VR Benchmarks? Hab noch niemand drueber reden gehoert da bei hoeheren Aufloesungen meist der Speicherverbrauch zu nimmt tippe ich dadrauf das der Nvdia Speichergrueppel da schlecht abschneidet. FG weiss ich nicht mal was du da meinst, kenn nicht deine persoenlichen 2 Buchstabenabkuerungen alle, alle Benchmarks testen in der Regel Raster und RT, wenn du gerne tausend andere Benchmarks machen willst kannst das gerne machen und verlinken.

Ragnarök88 schrieb:
Unter den Voraussetzungen etwas von absurden Annahmen zu erzählen, die 4080 wäre gleichauf zur 7900XTX, aber dann auch nur in einer Disziplin und Auflösung ( ohne Rasterfeatures wie DLSS und FG) zu berücksichtigen, ist halt für einige nicht nachvollziehbar.
Wenn ich aber klar sage was ich vergleiche, und in dem Artikel das eine Diagram nunmal FPS Rasterisation / Euro misst, dann kann ich doch sagen das man dieses Diagram mit vorsicht geniesen sollte, da die CB Werte nunmal zu den schlechteren Tests für AMD gehört. Wenn dich ausschließlich oder 99% RT interessiert dann ist das ja schön für dich... sei dir nicht genommen, aber muss ich das deshalb auch so sehen?

Ragnarök88 schrieb:
Die Karte befindet sich im Abverkauf und ist für 649 erhältlich. Preis-Leistung ist zu den erwarteten 899 Euro für eine 4070 Ti auch nicht besser.
Du vergleichst einen echten Preis mit einem von dir vermuteten, ok sehr serioes damit hast mich und den schreiber des Artikels aber widerlegt das AMD das beste Preis/Leistungsvehaeltnis hat.
Ragnarök88 schrieb:
Diese Mär von der besseren Preisleistung bei AMD ist einfach nicht haltbar.
Momentan schon ich habe niemals behauptet das das immer der Fall ist, aber sofern der Autor des Artikels recht hat ist das der Jetzt zustand.
Ragnarök88 schrieb:
Welcher wäre das denn?
Der wo Nvidia 4% vorne sah z.B. aber auch dieser Pauls Youtube Test hab doch genau aufgelistet muss ich mich jetzt widerholen?
Ragnarök88 schrieb:
Ich hate AMD weil ich sage es gibt keine?
Es gibt keine was?
Ragnarök88 schrieb:
Das Problem ist, dass der Wunsch der Vater des Gedanken ist. Schau in den 4080 Launchthread und schau was da los ist. Die User wollen einfach glauben, dass AMD der Retter ist und werden jedes Mal aufs neue enttäuscht.
Ich hoer nicht von so vielen enttaeuschten, dafuer gibts ja tests das man sieht was man bekommt. Ich seh auch massenhaft Leute Linux haten obwohl 100% ihrer Probleme oft daher ruehren das sie ne Nivdia Karte gekauft haben. Wenn man den Preis mit einbezieht gibts nunmal keinen klaren Gewinner und selbst der Computerbase also pro Nvidia Test, hat erwaehnt das per Treiber einiges an Leistung noch freigesetzt werden koennte, sie haben es fuer die Bewertung ignoriert, aber das kann fuer manche Leute auch wichtig sein, und wie gesagt es gab hier extra eine Umfrage zu RT und den meisten geht es weitgehend am Arsch vorbei, ja es soll dabei sein, aber ne hohe prioritaet, setzen es Leute noch nicht. Das den Leuten RT wichtig ist ist bei dir der Wunsch der Vater des Gedankens :)
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Oppagolf schrieb:
Es ging doch in der Vergangenheit sehr gut, dass die Power nicht ins Unermessliche gestiegen ist.
Tut sie ja auch nicht. Die Auswertungen der Rechenleistung gegen den Verbrauch zeigen ja, dass die modernen Karten im Schnitt immer effizienter werden, sprich wenn ich die gleiche Rechenleistung von einer neuen Karte abrufe, braucht sie weniger elektrische Leistung als die alte. Wenn jemand also 450W Spitzenleistung absolut gesehen für viel Bums hält, bedeutet das im Umkehrschluss nicht, dass die Hardware ineffizient ist.
Aber wie gesagt, relativier das mal: alleine schon die Autofahrt ins Restaurant ist ein gutes Stück energieverschwendender als ein Abend hardcore-Zocken. Nicht jedem schmecken Alternativhobbies wie den Hund bürsten oder Acrylmalerei für besseren CO2-Fußabdruck.

Oppagolf schrieb:
Für mich ist die Annahme, dass man keinen Fortschritt erwarten dürfe, ziemlich unrealistisch. Um mal wieder zurück zum Thema zu kommen: Genauso unrealistisch wie die Annahme, dass eine neue Grafikkarte um den Prozentsatz teurer sein dürfe, um den sie schneller ist. Das wäre kein Fortschritt, sondern Stillstand.
Wenn Du das mit Fakten untermauern kannst, würde ich mitgehen, aber das einfach so in den Raum zu stellen, weil einem die Preise gefühlt als Wucher vorkommen, sagt nichts aus.
Zu den Zeiten, in denen die CPUs noch weit vom physikalischen Taktlimit entfernt waren, war es noch relativ einfach, durch Takterhöhung mehr Rechenpower rauszukitzeln. Aber heute ist da nicht mehr viel Luft und daher müssen Leistungssteigerungen mit aufwendigeren Mitteln erkämpft werden. Dass heute immer mehr Kerne in die CPUs gepresst werden, obwohl es programmiertechnisch viel besser wäre, das sequentiell auf einem einzigen sehr schnellen Kern abzuarbeiten, kommt ja nicht von ungefähr.
Der Beim 5800X3D kam der Leistungsgewinn in erster Linie durch den großen Cache und das ist schonmal eine gute Lösung, aber kein Allheilmittel. Wenn es so einfach wäre, die Leistung durch Vergrößerung des Cache immer weiter aufzubohren, würden wir viel mehr solche Prozessoren auf dem Markt sehen. Aber solche Verbesserungen kommen eben auch schnell an ihre Grenzen, wenn man das nicht nochmal durch deutlich verkleinerte Strukturbreiten und schnellere Cache-Speicher umsetzen kann.
 
Cohen schrieb:
Der Vergleich in 1440p wäre deutlich sinnvoller, da die 6600 XT selbst hier unter 144 fps liegt:
(...)
Und schon steht die 6600 XT mit 148 Watt für schwankende fps von 110+ fps den 126 Watt (4090 FE) bzw. 139 Watt (4080 FE) mit absolut stabilen 144 fps gegenüber.
Hm, ich sehe bei den 4080, bzw. 4090 trotzdem noch 285 bzw. 356 Watt. Erst bei einer Begrenzung wird es (deutlich) sparsamer - das heißt aber, ich als Anwender muss da eingreifen. Wie bei meinem letzten Beitrag geschrieben, vielleicht bedarf es hier einfach mal einer Regulierung, damit sich da was ändert.
Ergänzung ()

Stefan1200 schrieb:
Aber mal im Ernst, die RTX 4090 ist zu teuer, um sich diese Frage zu stellen. Jemand der diese Karte kauft, wird sicherlich nicht auf mittleren Einstellungen bei 30 FPS limitiert spielen wollen, nur weil er dann bei den Stromkosten 2/3 einsparen kann. ;)
Ich finde das immer etwas unpassend, wenn davon ausgegangen wird, dass höhere Anschaffungskosten ein Grund dafür sind, nicht sparsam sein zu dürfen/ müssen. Gerade in der jetzigen Zeit, wo doch endlich mal in der Allgemeinheit angekommen sein sollte, dass Strom eben nicht einfach aus der Steckdose kommt. Wenn man nur nach den Kosten geht, spielt es natürlich keine Rolle, da stimme ich zu.
 
Oppagolf schrieb:
Hm, ich sehe bei den 4080, bzw. 4090 trotzdem noch 285 bzw. 356 Watt. Erst bei einer Begrenzung wird es (deutlich) sparsamer - das heißt aber, ich als Anwender muss da eingreifen.
Ergänzung ()
Nein, bei einem entsprechenden 60/120/144Hz/165 Hz-Monitor muss man als Anwender normalerweise nicht eingreifen, da die FPS normalerweise durch die Hertz-Zahl der eingestellten Bildausgabe begrenzt sind. Diese Limitierung muss der Anwender in den meisten Fällen schon selbstständig manuell deaktivieren.

Zudem sind auch die zusätzlichen Möglichkeiten (FPS-Limiter im Treiber aktivieren, niedrigere Aufflösung und/oder Bildwiederholrate wählen) keine Raketenwissenschaft.

Und auch das höchste Preset wird von den meisten Spielen nicht automatisch gewählt, nur weil starke Hardware erkannt wurde. Ultra-Settings und darüber ("epic", "psycho", "nightmare" usw. verraten schon in ihrer Namensgebung, dass diese Settings selbst von den Entwicklern nicht mehr als "normal" angesehen werden).

Warum nicht erstmal mit "high" oder "very high" ausprobieren, ob die Grafik bereits für die individuellen Ansprüche bereits vollkommen ausreicht. Einzelne Regler von den Einstellungen, die einem besonders wichtig sind, kann man von dieser Basis dann immer noch raufziehen.
 
Zuletzt bearbeitet:
bondki schrieb:
Damit gibts wohl nur noch Intel, die nicht versuchen den Rechner mit der GPU in Flammen aufgehen zu lassen.
Epic Fail von AMD
Kleinserien für Enthusiasten mit typischem Kleinserien-Problem. Das ist, was man sich dann kauft für den hohen Preis. Bei einem typischen Massenmarkt-Produkt mit simplem Alukühler kann sowas gar nicht passieren.
 
flaphoschi schrieb:
Nvidia stellt bisher nur quellgeschlossene Treiber bereit.

Man landet in einer Wartungshölle und kann sich weder Kernel, Wayland, X11 oder Konsorten frei aussuchen.
Mag vielleicht auch am Nutzer vor dem Bildschirm bzw. dem Admin-Team liegen? Ich nutze die Kombo aus Ubuntu und Nvidia seit etwa 12 Jahren und bin hochzufrieden, Hauptanwendungsfelder sind das Gaming, maschinelles Lernen sowie CUDA. Ähnliches gilt für den Job, auch dort sind meine Compute-Nodes mit Ubuntu Server sowie Nvidia-Karten ausgestattet, funktioniert wunderbar.

Nvidia liefert hervorragende Hardware und Software, mit der sie gerne Geld verdienen dürfen. AMD hinkt im Compute-Bereich wo weit hinterher, dass der Gang in die Quelloffenheit eher aus Not denn aus Überzeugung geboren wurde.
 
Oppagolf schrieb:
Jetzt bin ich etwas abgeschweift, worauf ich hinaus will: Das entscheidende ist letztendlich, dass die Grafikkarte ihren primären Zweck erfüllt, ein Bild auf den Bildschirm bringen, so dass der vorm Bildschirm sitzende damit spielen kann. Wenn das erfüllt ist, dann gut, dabei interessiert es eben nicht, ob 10 FPS mehr oder weniger, sondern nur, ob das Bedürfnis erfüllt ist.
Dieses Bedürfnis kann man aber auch mit einer Nintendo Switch (5 - 18 Watt, je nach Spiel und Settings), einem Steam Deck (5 - 25 Watt, je nach Spiel und Settings) oder einer Xbox Series S (50 - 80 Watt, je nach Spiel und Settings) erfüllen.

Bis zu 150 Watt alleine für die 6600XT-Grafikkarte zu verballern + den Strombedarf des restlichen Systems ist nun auch nicht soooo effizient.
 
Ja geil, GPUs ab 500 € werden als »günstig« bezeichnet.

Die 6800 und 6700X werden als die »kleinen Radeon« bezeichnet, lol.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und FGA
Stefan1200 schrieb:
Meine RTX 2080 Super benötigt mehr Watt bei weniger als der halben Gaming Leistung.
Die Turing Generation von nVidia war ja auch nicht gerade ein Effizienz-Meilenstein, insbesondere, weil es die erste RTX-Generation war, aber klar, mit kleinerer Fertigung kommt i.d.R. auch (deutlich) bessere Effizienz, nur sind die Karten mit den grossen Chips dafuer meist ab Werk zu hochgezuechtet und nicht primaer darauf ausgelegt sondern traditionell eher die Einsteiger- bis Mittelklasse-Modelle da interessanter, wenn man wirklich an energetischer Nachhaltigkeit (beim Gaming) primaer interessiert sein sollte.

Die Senkung des Verbrauchs bei der RTX 3050 um 15W ist da bspw. ein gutes Beispiel fuer, auch wenn die Karte leider weiterhin preislich bei dem Leistungsniveau sehr unattraktiv bleibt gegenueber den Konkurrenzprodukten.

Taxxor schrieb:
btw läuft meine 4090 meist zwischen 100 und 180W

Daran sieht man aber auch, wie weit die Karte hochgezuechtet wurde (am Effizienz-Sweetspot vorbei) bei den Werkseinstellungen um ja den laengsten Benchmarkbalken zu zeigen.
Ob so ein extremes UV dann noch lohnend/sinnvoll ist, sei einmal dahin gestellt, denn bei dem resultierenden Leistungsverlust fuer bessere Effizienz kann man sich auch eine deutlich guenstigere dGPU mit niedrigerer Leistung kaufen (bspw. RTX 4080 oder RX 7900 XTX) und die ohne oder mit weniger UV laufen lassen, aber das duerften Chipentwickler mittlerweile wohl wissend einkalkulieren.

Das deutet doch auch darauf hin, dass eine RTX 4090 fuer fast alles in Sachen Gaming aktuell "overpowered" ist (deshalb wird auf UV und Strom sparen gesetzt bei einer 2000(+) Euro dGPU, womit man dann auch den eigenen Kauf besser rechtfertigen kann) und man schon immer extremere Szenarien konsturieren muss (spielen in 5K(+), "Upselling"-Preispolitik mit der preislich extrem hoch angesetzten RTX 4080), um dafuer zumindest mehr Gamer mit einem Kauf zu locken.
Fuer (semi-)professionelle Anwender halte ich die Karte noch fuer sinnvoll, aber ich bleibe dabei, dass es fuer mich keine echte Gaming-Karte ist (ebenso wie der Vorgaenger schon) sondern auf Titan-Pfaden wandelt.

Ich kenne auch Leute die sich damals die erste Titan-Karte gekauft haben um dann im Nachinein hauptsaechlich Online-Multiplayer-eSports-Titel zu spielen fuer die locker eine Grafikkarte drei Klassen darunter ausgereicht haette.

Den Konzern (nVidia oder AMD/RTG) freut es natuerlich, wenn der Kunde viel mehr bezahlt als das was dieser eigentlich benoetigt und somit verwundert es wenig, wenn immer mehr bei der Entwicklung am Kundenbedarf vorbei entwickelt wird und dieser mit unfertigen Aufpreisfeatures (RT-RT, DLSS3/FSR3/FG, usw.) als Beta-Tester gekoedert wird.

Mittlerweile ist den Leuten auch Prestige/Status, welches/welchen diese unsinniger Weise damit verbinden, wichtig und leider sind das auch Gruende fuer die immer mehr ausartenden Produktpreise, aber Du wirst mit Sicherheit eine RTX 4090 nicht aus den o.g. Gruenden gekauft haben, schaetze ich 'mal ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn und Oppagolf
Chismon schrieb:
Ob so ein extremes UV dann noch lohnend/sinnvoll ist, sei einmal dahin gestellt, denn bei dem resultierenden Leistungsverlust fuer bessere Effizienz kann man sich auch eine deutlich guenstigere dGPU mit niedrigerer Leistung kaufen (bspw. RTX 4080) und die ohne UV laufen lassen
In meinem Fall nicht. Mit dem UV hole ich ja auch einen Teil der Performance wieder zurück, die durch das reduzierte Power Limit verloren gegangen ist..

Der Takt ist bei mir aktuell auf 2565Mhz fest.
Wo die 4090 im CB Test mit 300W Limit 9% FPS verloren hat, weil sie teilweise von 2750MHz auf 2300MHz oder weniger runter takten musste, bleibt sie bei mir durch das UV auch bei 300W entweder auf besagten 2565MHz oder zumindest allgemein höher als ohne UV, sodass ich generell etwas weniger verliere, außer in dem Spielen, wo sie auch ohne UV bei 300W mehr als 2565MHz geschafft hätte, da verliere ich dann etwas mehr, habe aber dort auch eine enorme Verbrauchseinsparung weil ich dann nicht mal in die Nähe von 300W komme.

Eine RTX4080 auf 300W ist aber in jedem Fall deutlich (>20%) langsamer als eine 4090 auf 300W und da die 4080 ohne UV bereits knapp unter 300W im Schnitt verbraucht aber die 4090 eigentlich für ihren vollen Takt mehr als 300W braucht, wird der Unterschied nur größer, wenn man beide undervoltet.

Und eine 7900XTX wäre bei 300W noch mal langsamer als eine 4080.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Stefan1200 und Chismon
Super Vergleich, danke! Bin noch auf der Suche und da ist sowas auf jeden Fall hilfreich.
Bin mal gespannt, wo sich da die 4070Ti einsortiert.

Noch ein Vorschlag an den Ersteller: Du sagst es ja selbst, es gibt Karten, die vom Rating her recht weit oben sind, mit denen das Spielen aber teilweise keinen Sinn macht, da die Performance schlicht und einfach zu gering ist. Kann man das soweit eingrenzen, dass diese Karten herausausgefiltert werden?
Viele Grüße
 
Bender275 schrieb:
Noch ein Vorschlag an den Ersteller: Du sagst es ja selbst, es gibt Karten, die vom Rating her recht weit oben sind, mit denen das Spielen aber teilweise keinen Sinn macht, da die Performance schlicht und einfach zu gering ist. Kann man das soweit eingrenzen, dass diese Karten herausausgefiltert werden?
Tja, ebenfalls nicht ganz einfach. Auch mit z.B. einer 6700 XT lässt sich noch auf 4K spielen, wenn man die Details (stark) runterdreht. Wie will man da eine Grenze ziehen, die Ansprüche der Spieler sind halt höchst individuell. Dementsprechend wäre es irgendwie unfair, die langsameren Karten rauszunehmen.
 
  • Gefällt mir
Reaktionen: iWeaPonZ und Oppagolf
Laphonso schrieb:
Wer glaubt, dass PC Gaming ein „teures Hobby“ ist, ist Schüler oder hat keine Lebensverpflichtungen oder von der Welt noch nichts gesehen.
Wenn ich meinen Alltag, Hobbys und Aktivitäten der letzten zehn Jahre mit allen erforderlichen Geld Ausgaben mal aufliste, landen die Kosten für PC Gaming wahrscheinlich irgendwo auf Platz 27.

naja, sagen wir mal so:

die zielgruppe für gamer sind ja traditionell eher die jungen leute, wobei die ja auch kein problem damit haben mit einem smartphone für XXX euro rumzulaufen

ich betrachte das eher aus einer anderen sparte:

die 1080ti hat damals 650 E gekostet und war eine top FHD karte, und gut für WQHD.

wie teuer ist heute eine top FHD/brauchbar WQHD karte?
3060 ti / 6700XT (450,-/430,-)

Fortschritt beim TOP FHD gaming ist -32% im Preis


TOP WQHD Karten 3080 / 6800 XT
(910,-/660,-)

Im Top WQHD bereich hat AMD das niceau der 1080 ti, 3080 ist leider preislich noch zu abgehoben und nur gebraucht zu empfehlen (ca. 650,-)

d.h. Fortschritt in Sinne von preislich erschwinglichem Shift zu einer höheren Auflösung bietet zum Neupreis aktuell nur AMD, die 3080 sind gebraucht konkurrenzfähig.

Fortschitt in den Sinne ist im Bereich WQHD, das nun Top performance für WQHD möglich ist, zum Preis der alten FHD top Performance

4K gaming ist brauchbar ab 6800XT/3080
im Top Bereich natürlich weiterhin sehr teuer mit 1000+
(und wohl nur was für Gamer-Daddys die entsprechend solvent sind, für den Studenten oder Schüler ist das eher nichts)

Für die User ist ein Fortschritt zu erkennen, man kann grafisch qualitativ bessere Spiele spielen zum selben Preis oder weniger.

Der Vergleich mit dem absoluten Top Bereich ist natürlich ernüchterjnd, da hier die Preis immer noch hoch liegen, das gilt aber auch für die gute Pheripherie, so 27" 4K kisten kriegste ja heutezutage auch schon hinterhergeworfen für "kleines geld". aber die kann man mit einer 600/700 Euro Karte gut befeuern

Wenn sich die neue Generation P/L mäßig obendrauf setzt, dann ändert sich im Sinne von Fortschritt nichts für die Gamer. Der Gebrauchtmark wird aber rege bedient werden.


Fazit:
----------

  • Top FHD gaming ist deutlich preiswerter geworden
  • WQHD als neues FHD zum Preis des alten FHD
  • TOP 4K weiterhin extrem teuer
  • setzt sich die neue generation preislich obendrauf stagniert der Fortschritt/Benefit (der eigentliche Kritikpunkt, eine "verlorene" Generation)



EDIT:
und ich habe mir nochmal angeschaut wie übelst stark die 4090 auch im vergleich zur 6900XT ist,
die 4090 ist einfach eine komplett abgehobene Karte, für Leute, die abgehobene Preise bezahlen.
Die ist schon eine Generation weiter und deutlich über der Upgrade Marke von +50%, wobei im vergleich zur 3090 ti passts dann wieder :)

wie gesagt, wer entsprechend solvent ist, der freut sich und kauft
die anderen zocken weiter.

ich würde auch upgraden, aber ich schätze das meine 3080 mich noch durch diese generation tragen könnte, immerhin habe ich die ja neu, im gegensatz zu jenen, die schon seit 2 jahren dabei sind :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Maine, Houndmux, Vigilant und eine weitere Person
Zurück
Oben