News Leistung pro Euro: Welche Grafikkarte leistet wie viel zu welchem Preis?

Marcus Hax0rway schrieb:
Hat AMD damit bei den neuen Karten nicht massiv zu kämpfen, während Ada Lovelace ständig für die hervorragende Energieeffienz gelobt wird?
Es ist wahrscheinlich relativ gemeint, denn noch gibt es keine Einsteiger und Mittelklasse-Karten mit Ada Lovelace Chips (so dass da noch Ampere und RDNA2 zum tragen kommen) und Verbraeuche von High-End Karten um die 250-300(+)W sind absolut gesehen alles andere als effizient und nachhaltig ;).
 
Bin mit meiner 6800 auch noch super happy, die ich mal für 450 € fast neu (=wenige Monate alt) geschossen habe.
 
Chismon schrieb:
Es ist wahrscheinlich relativ gemeint, denn noch gibt es keine Einsteiger und Mittelklasse-Karten mit Ada Lovelace Chips (so dass da noch Ampere und RDNA2 zum tragen kommen) und Verbraeuche von High-End Karten um die 250-300(+)W sind absolut gesehen alles andere als effizient und nachhaltig ;).
Mit der Einschränkung, dass Ampere Karten zu aktuellen Preisen eher nicht zu empfehlen sind.
 
BamLee2k schrieb:
Wie wohl eine RX 6700 XT mit nem FX-8350 laufen würde.
Der 8350 bringt doch in vielen Games gar keine 60+ FPS mehr..
 
  • Gefällt mir
Reaktionen: BornBad und Kai85
Tja, Glueck/Angebote und wo man sich befindet kann auch eine Rolle spielen beim Grafikkartenkauf, z.B. 539 US$ (+Steuern) fuer eine RTX 3080 Founders Edition (opened package Spezialangebot), was natuerlich ein Super-Angebot ist, davon kann man vermutlich als normaler Kaeufer bei Microcenter nur traeumen, aber coole Aktion von JayzTwoCents & Microcenter :):

 
  • Gefällt mir
Reaktionen: Öcher Tivoli, DERHansWurst, MehlstaubtheCat und eine weitere Person
BamLee2k schrieb:
und ich hab nen 24 Zoll FHD
Da kriegt die 6700XT locker bzw oft 60+ FPS hin, bei dem FX 8350 bezweifel ich das halt wirklich. In Full HD wirst du die 6700XT mit nem 8350 aber mal sowas von hart bremsen :)

Was ich damit sagen will: Kauf lieber eine GPU Klasse drunter. Sparst noch Geld und wirst wahrscheinlich keinen bzw. kaum nen Unterschied merken auf Full HD mit dem Prozessor.
 
  • Gefällt mir
Reaktionen: Öcher Tivoli und MehlstaubtheCat
BamLee2k schrieb:
Wie wohl eine RX 6700 XT mit nem FX-8350 laufen würde.
Ein lohnendes Update zur R9 380 wäre es.

Ganz ehrlich, dann würde ich auch eine neue CPU+Board+Ram nehmen, ab 250€ (gebraucht noch günstiger) gibt es bereits ordentliche Upgrades.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Öcher Tivoli
mahama schrieb:
Ich Depp hätt zuschlagen sollen bei dem eBay sale der 6600 für 250€ im Asus shop.
Jetzt is wieder alles über 300€... einfach irre der Markt in Europa. in den USA werden die für $199 verramscht wie die 580er damals.
wenn du dir wegen 50,- ins hemd kackst, iss PC-Gaming wohl nicht das richtige für dich :D
 
  • Gefällt mir
Reaktionen: Pisaro
Chismon schrieb:
Verbraeuche von High-End Karten um die 250-300(+)W sind absolut gesehen alles andere als effizient und nachhaltig ;).
Wobei selbst die RTX 4090 mit Power Target von 300 Watt bei aktivem VSync auch mal sehr nah an die 200 Watt herankommt (bei Gaming Last ohne RT, je nach Spiel sogar auch mal unter 200 Watt). Das ist für die Leistung, die die Karte dann trotz niedrigem Power Target abliefert, sehr effizient. Meine RTX 2080 Super benötigt mehr Watt bei weniger als der halben Gaming Leistung.
 
flaphoschi schrieb:
Läuft die Karte einwandfrei unter Linux, führt das immer zu AMD oder Intel
Wieso das denn? Der Linux-Support ist bei Nvidia mittlerweile auf einem sehr annehmbaren Niveau. Warum sollte es auch anders sein? Linux und CUDA sind die dominierende Plattform für GPU-Computing, speziell das maschinelle Lernen. Nvidia kann es sich gar nicht leisten dort zu murksen.
 
BamLee2k schrieb:
Die 6700 XT auch nicht.
Cyberpunk läuft mit FRS Quality auf 4k/60 mit besten Texturen und mittleren bis hohen Settings. FX mit modernen GPU zu kombinieren, ist keine gute Idee. Selbst wenn beide theoretisch 60fps schaffen, ruckelt es leider selten an den gleichen Stellen:-)
 
Damit gibts wohl nur noch Intel, die nicht versuchen den Rechner mit der GPU in Flammen aufgehen zu lassen.
Epic Fail von AMD
 
Backfisch schrieb:
Wieso das denn? Der Linux-Support ist bei Nvidia mittlerweile auf einem sehr annehmbaren Niveau. Warum sollte es auch anders sein? Linux und CUDA sind die dominierende Plattform für GPU-Computing, speziell das maschinelle Lernen. Nvidia kann es sich gar nicht leisten dort zu murksen.

Nvidia stellt bisher nur quellgeschlossene Treiber bereit.

Man landet in einer Wartungshölle und kann sich weder Kernel, Wayland, X11 oder Konsorten frei aussuchen. Niemand interessiert sich für gemeldete Bugs, weil der Kernel beschmutzt (tainted) ist.. Der jahrelange Ärger mit KMS, Wayland, Suspend-To-RAM und Konsorten sollte selbst Nvidia-Fans kuriert haben. Nvidia verwendet man nur noch unter Linux wenn man durch äußere Umständge gezwungen wird, wenn dem so ist, kann man halt nicht anders.

Hintergrund:
Im Jahr 2002 - bevor Intel gute queloffene Kernelmodule für Linux geboten hat - war Nvidia stark. Bis etwa 2012 hatte Nvidia zumindest beim Spielen etwas zu melden, dann hat AMD umgeschwenkt und auch (wieder) quelloffene Kernelmodule bereitgestellt, inklusive Dokumentation. Seitdem ist Nvidia unter Linux raus, vor allem als sie Wayland nicht unterstützen wollten. Nvidia möchte sie nun langsam bewegen und immer mehr Teile quelloffen legen. Nun ja? Zu wenig? Zu spät? Bei Tegra verfährt Nvidia übrigens anders.
 
bondki schrieb:
Damit gibts wohl nur noch Intel, die nicht versuchen den Rechner mit der GPU in Flammen aufgehen zu lassen.
Epic Fail von AMD
Naja, da sehe ich nach wie vor einen großen Unterschied, schließlich besteht hier ja eben keine Brandgefahr.
Aber auf jeden Fall kommt da auf AMD einiges zu, nicht nur die unerwartet nicht so gute Leistung, zudem auch noch ein großer Rückruf.
Könnte für mich eventuell die Chance sein, auf eine 7900 XTX und Custom Wasserkühlung umzusteigen, sollte es die Referenzdesigns jetzt günstig geben... Allerdings muss ich dazu auch mal erwähnen, dass das Referenzkühldesign weder bei AMD, noch bei Nvidia für mich nicht in Frage käme, bzw. halt nur als Basis zum Umbauen.
 
Chismon schrieb:
Es ist wahrscheinlich relativ gemeint, denn noch gibt es keine Einsteiger und Mittelklasse-Karten mit Ada Lovelace Chips (so dass da noch Ampere und RDNA2 zum tragen kommen) und Verbraeuche von High-End Karten um die 250-300(+)W sind absolut gesehen alles andere als effizient und nachhaltig ;).
Effizienz ist immer relativ, denn sie beschreibt die Leistung relativ zum Verbrauch.
Es gibt keine "absolute" effizienz, was du meinst ist einfach nur der Verbrauch.

btw läuft meine 4090 meist zwischen 100 und 180W
 
Taxxor schrieb:
Effizienz ist immer relativ, denn sie beschreibt die Leistung relativ zum Verbrauch.
Es gibt keine "absolute" effizienz, was du meinst ist einfach nur der Verbrauch.
Was es gibt, ist halt der absolute Verbrauch.
Formel 1 Motoren sind beispielsweise auch sehr effizient - wozu werden sie aber benutzt? Damit "Just for Fun" im Kreis gefahren wird.
Und so sieht es bei den Consumer Grafikkarten doch auch aus - wozu werden die genutzt? Damit man vorm Bildschirm sitzt und spielt. Und wenn ich damit eine Gleichung aufstelle und das z.B. mit mir bis vor einem Jahr vergleiche, der mit einer RX6600 XT genauso gespielt hat, wie eben auch heute einer mit einer 4080 oder 4090 tut und dazu in Relation den Stromverbrauch setze, so komme ich zu dem Ergebnis, dass die RX 6600 XT effizienter war (RX 6600 XT - 148 Watt in UHD bei Doom Eternal laut Test hier bei CB, 4090 laut dem Diagramm beim 7900 Test 244 Watt in UHD).
Links zu den entnommenen Daten:
https://www.computerbase.de/artikel...-3#abschnitt_energieeffizienz_in_fps_pro_watt
https://www.computerbase.de/artikel...nitt_leistungsaufnahme_spiele_youtube_desktop

Ich kann mir schon denken, dass als Antwort sowas kommt wie: "Ja aber FPS (...)!", aber das ist irrelevant für diese Betrachtung. Mit der RX 6600 XT konnte ich genauso zocken und es hat mir auch Spaß gemacht, und das für ca. die Hälfte des Energieverbrauchs. Prinzipiell gefällt mir bei den 4080 und 4090, dass diese sehr effizient sein können, was mir aber nicht gefällt, dass diese darauf aber gar nicht abgestimmt sind, sondern eigentlich auch unglaublich viel Energie "verballern", wenn man nicht selber Hand anlegt (FPS begrenzen, Undervolt, Leistungsaufnahme beschränken). Ich würde mir allgemein wünschen, dass diese Effizienz und vor allem auch der absolute Verbrauch viel mehr berücksichtigt werden. Dabei geht es mir eher weniger um die Kosten des Stroms, sondern viel mehr darum, dass es nicht zum Zeitgeist passt, unnütz Energie für sowas banales wie PC Gaming in Wärme umzuwandeln.
 
Oppagolf schrieb:
Ich würde mir allgemein wünschen, dass diese Effizienz und vor allem auch der absolute Verbrauch viel mehr berücksichtigt werden. Dabei geht es mir eher weniger um die Kosten des Stroms, sondern viel mehr darum, dass es nicht zum Zeitgeist passt, unnütz Energie für sowas banales wie PC Gaming in Wärme umzuwandeln.
Wünschenswert wäre das natürlich, aber wie willst Du bewerten, wie gut dieses Ziel derzeit erreicht wird? Die Grafikpower steigt immer mehr an und dieser Rechenaufwand will halt mit Energie gefüttert werden, daher ist es unrealistisch zu erwarten, dass die Grafikpower steigt, der Verbrauch aber nicht. Wer kann denn überhaupt bewerten, wie nah die derzeitige Recheneffizienz an das theoretische Optimum herankommt?
Objektiv betrachtet verbrauchen die meisten Hobbies "unnötig" Strom oder andere Energieformen, da braucht man nicht mit dem Finger speziell auf PC-Gaming zu zeigen. Immerhin hilft PC-Gaming im Winter beim Heizen, das sollte man in der Bilanz berücksichtigen ;)
 
Zurück
Oben