Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Leistung pro Euro: Welche Grafikkarte leistet wie viel zu welchem Preis?
- Ersteller SVΞN
- Erstellt am
- Zur News: Leistung pro Euro: Welche Grafikkarte leistet wie viel zu welchem Preis?
Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.869
Es ist wahrscheinlich relativ gemeint, denn noch gibt es keine Einsteiger und Mittelklasse-Karten mit Ada Lovelace Chips (so dass da noch Ampere und RDNA2 zum tragen kommen) und Verbraeuche von High-End Karten um die 250-300(+)W sind absolut gesehen alles andere als effizient und nachhaltig .Marcus Hax0rway schrieb:Hat AMD damit bei den neuen Karten nicht massiv zu kämpfen, während Ada Lovelace ständig für die hervorragende Energieeffienz gelobt wird?
Mit der Einschränkung, dass Ampere Karten zu aktuellen Preisen eher nicht zu empfehlen sind.Chismon schrieb:Es ist wahrscheinlich relativ gemeint, denn noch gibt es keine Einsteiger und Mittelklasse-Karten mit Ada Lovelace Chips (so dass da noch Ampere und RDNA2 zum tragen kommen) und Verbraeuche von High-End Karten um die 250-300(+)W sind absolut gesehen alles andere als effizient und nachhaltig .
Pisaro
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 15.667
Der 8350 bringt doch in vielen Games gar keine 60+ FPS mehr..BamLee2k schrieb:Wie wohl eine RX 6700 XT mit nem FX-8350 laufen würde.
Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.869
Tja, Glueck/Angebote und wo man sich befindet kann auch eine Rolle spielen beim Grafikkartenkauf, z.B. 539 US$ (+Steuern) fuer eine RTX 3080 Founders Edition (opened package Spezialangebot), was natuerlich ein Super-Angebot ist, davon kann man vermutlich als normaler Kaeufer bei Microcenter nur traeumen, aber coole Aktion von JayzTwoCents & Microcenter :
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Die 6700 XT auch nicht.Pisaro schrieb:Der 8350 bringt doch in vielen Games gar keine 60+ FPS mehr..
Zum Verständnis der Wichtigkeit eines Gaming PCs , deine 4090 kostet allein schon mehr als ich für einen neuen PC insgesamt ausgeben würde und ich hab nen 24 Zoll FHD
- Registriert
- Mai 2011
- Beiträge
- 21.358
Wenn du bei FHD bleibst, sind 60+ absolut kein Problem für eine 6700XTBamLee2k schrieb:Die 6700 XT auch nicht.
Pisaro
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 15.667
Da kriegt die 6700XT locker bzw oft 60+ FPS hin, bei dem FX 8350 bezweifel ich das halt wirklich. In Full HD wirst du die 6700XT mit nem 8350 aber mal sowas von hart bremsenBamLee2k schrieb:und ich hab nen 24 Zoll FHD
Was ich damit sagen will: Kauf lieber eine GPU Klasse drunter. Sparst noch Geld und wirst wahrscheinlich keinen bzw. kaum nen Unterschied merken auf Full HD mit dem Prozessor.
BamLee2k schrieb:Wie wohl eine RX 6700 XT mit nem FX-8350 laufen würde.
Ein lohnendes Update zur R9 380 wäre es.
Ganz ehrlich, dann würde ich auch eine neue CPU+Board+Ram nehmen, ab 250€ (gebraucht noch günstiger) gibt es bereits ordentliche Upgrades.
Zuletzt bearbeitet:
FGA
Banned
- Registriert
- Feb. 2010
- Beiträge
- 1.281
wenn du dir wegen 50,- ins hemd kackst, iss PC-Gaming wohl nicht das richtige für dichmahama schrieb:Ich Depp hätt zuschlagen sollen bei dem eBay sale der 6600 für 250€ im Asus shop.
Jetzt is wieder alles über 300€... einfach irre der Markt in Europa. in den USA werden die für $199 verramscht wie die 580er damals.
Stefan1200
Lt. Junior Grade
- Registriert
- Mai 2018
- Beiträge
- 477
Wobei selbst die RTX 4090 mit Power Target von 300 Watt bei aktivem VSync auch mal sehr nah an die 200 Watt herankommt (bei Gaming Last ohne RT, je nach Spiel sogar auch mal unter 200 Watt). Das ist für die Leistung, die die Karte dann trotz niedrigem Power Target abliefert, sehr effizient. Meine RTX 2080 Super benötigt mehr Watt bei weniger als der halben Gaming Leistung.Chismon schrieb:Verbraeuche von High-End Karten um die 250-300(+)W sind absolut gesehen alles andere als effizient und nachhaltig .
Backfisch
Lt. Junior Grade
- Registriert
- Jan. 2022
- Beiträge
- 405
Wieso das denn? Der Linux-Support ist bei Nvidia mittlerweile auf einem sehr annehmbaren Niveau. Warum sollte es auch anders sein? Linux und CUDA sind die dominierende Plattform für GPU-Computing, speziell das maschinelle Lernen. Nvidia kann es sich gar nicht leisten dort zu murksen.flaphoschi schrieb:Läuft die Karte einwandfrei unter Linux, führt das immer zu AMD oder Intel
ElDiablo
Lt. Commander
- Registriert
- Juli 2009
- Beiträge
- 1.320
Cyberpunk läuft mit FRS Quality auf 4k/60 mit besten Texturen und mittleren bis hohen Settings. FX mit modernen GPU zu kombinieren, ist keine gute Idee. Selbst wenn beide theoretisch 60fps schaffen, ruckelt es leider selten an den gleichen Stellen:-)BamLee2k schrieb:Die 6700 XT auch nicht.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Epic Fail von AMD
flaphoschi
Lt. Commander
- Registriert
- Jan. 2018
- Beiträge
- 1.765
Backfisch schrieb:Wieso das denn? Der Linux-Support ist bei Nvidia mittlerweile auf einem sehr annehmbaren Niveau. Warum sollte es auch anders sein? Linux und CUDA sind die dominierende Plattform für GPU-Computing, speziell das maschinelle Lernen. Nvidia kann es sich gar nicht leisten dort zu murksen.
Nvidia stellt bisher nur quellgeschlossene Treiber bereit.
Man landet in einer Wartungshölle und kann sich weder Kernel, Wayland, X11 oder Konsorten frei aussuchen. Niemand interessiert sich für gemeldete Bugs, weil der Kernel beschmutzt (tainted) ist.. Der jahrelange Ärger mit KMS, Wayland, Suspend-To-RAM und Konsorten sollte selbst Nvidia-Fans kuriert haben. Nvidia verwendet man nur noch unter Linux wenn man durch äußere Umständge gezwungen wird, wenn dem so ist, kann man halt nicht anders.
Hintergrund:
Im Jahr 2002 - bevor Intel gute queloffene Kernelmodule für Linux geboten hat - war Nvidia stark. Bis etwa 2012 hatte Nvidia zumindest beim Spielen etwas zu melden, dann hat AMD umgeschwenkt und auch (wieder) quelloffene Kernelmodule bereitgestellt, inklusive Dokumentation. Seitdem ist Nvidia unter Linux raus, vor allem als sie Wayland nicht unterstützen wollten. Nvidia möchte sie nun langsam bewegen und immer mehr Teile quelloffen legen. Nun ja? Zu wenig? Zu spät? Bei Tegra verfährt Nvidia übrigens anders.
Naja, da sehe ich nach wie vor einen großen Unterschied, schließlich besteht hier ja eben keine Brandgefahr.bondki schrieb:Damit gibts wohl nur noch Intel, die nicht versuchen den Rechner mit der GPU in Flammen aufgehen zu lassen.
Epic Fail von AMD
Aber auf jeden Fall kommt da auf AMD einiges zu, nicht nur die unerwartet nicht so gute Leistung, zudem auch noch ein großer Rückruf.
Könnte für mich eventuell die Chance sein, auf eine 7900 XTX und Custom Wasserkühlung umzusteigen, sollte es die Referenzdesigns jetzt günstig geben... Allerdings muss ich dazu auch mal erwähnen, dass das Referenzkühldesign weder bei AMD, noch bei Nvidia für mich nicht in Frage käme, bzw. halt nur als Basis zum Umbauen.
- Registriert
- Mai 2011
- Beiträge
- 21.358
Effizienz ist immer relativ, denn sie beschreibt die Leistung relativ zum Verbrauch.Chismon schrieb:Es ist wahrscheinlich relativ gemeint, denn noch gibt es keine Einsteiger und Mittelklasse-Karten mit Ada Lovelace Chips (so dass da noch Ampere und RDNA2 zum tragen kommen) und Verbraeuche von High-End Karten um die 250-300(+)W sind absolut gesehen alles andere als effizient und nachhaltig .
Es gibt keine "absolute" effizienz, was du meinst ist einfach nur der Verbrauch.
btw läuft meine 4090 meist zwischen 100 und 180W
Was es gibt, ist halt der absolute Verbrauch.Taxxor schrieb:Effizienz ist immer relativ, denn sie beschreibt die Leistung relativ zum Verbrauch.
Es gibt keine "absolute" effizienz, was du meinst ist einfach nur der Verbrauch.
Formel 1 Motoren sind beispielsweise auch sehr effizient - wozu werden sie aber benutzt? Damit "Just for Fun" im Kreis gefahren wird.
Und so sieht es bei den Consumer Grafikkarten doch auch aus - wozu werden die genutzt? Damit man vorm Bildschirm sitzt und spielt. Und wenn ich damit eine Gleichung aufstelle und das z.B. mit mir bis vor einem Jahr vergleiche, der mit einer RX6600 XT genauso gespielt hat, wie eben auch heute einer mit einer 4080 oder 4090 tut und dazu in Relation den Stromverbrauch setze, so komme ich zu dem Ergebnis, dass die RX 6600 XT effizienter war (RX 6600 XT - 148 Watt in UHD bei Doom Eternal laut Test hier bei CB, 4090 laut dem Diagramm beim 7900 Test 244 Watt in UHD).
Links zu den entnommenen Daten:
https://www.computerbase.de/artikel...-3#abschnitt_energieeffizienz_in_fps_pro_watt
https://www.computerbase.de/artikel...nitt_leistungsaufnahme_spiele_youtube_desktop
Ich kann mir schon denken, dass als Antwort sowas kommt wie: "Ja aber FPS (...)!", aber das ist irrelevant für diese Betrachtung. Mit der RX 6600 XT konnte ich genauso zocken und es hat mir auch Spaß gemacht, und das für ca. die Hälfte des Energieverbrauchs. Prinzipiell gefällt mir bei den 4080 und 4090, dass diese sehr effizient sein können, was mir aber nicht gefällt, dass diese darauf aber gar nicht abgestimmt sind, sondern eigentlich auch unglaublich viel Energie "verballern", wenn man nicht selber Hand anlegt (FPS begrenzen, Undervolt, Leistungsaufnahme beschränken). Ich würde mir allgemein wünschen, dass diese Effizienz und vor allem auch der absolute Verbrauch viel mehr berücksichtigt werden. Dabei geht es mir eher weniger um die Kosten des Stroms, sondern viel mehr darum, dass es nicht zum Zeitgeist passt, unnütz Energie für sowas banales wie PC Gaming in Wärme umzuwandeln.
Houndmux
Newbie
- Registriert
- Dez. 2018
- Beiträge
- 6
Wünschenswert wäre das natürlich, aber wie willst Du bewerten, wie gut dieses Ziel derzeit erreicht wird? Die Grafikpower steigt immer mehr an und dieser Rechenaufwand will halt mit Energie gefüttert werden, daher ist es unrealistisch zu erwarten, dass die Grafikpower steigt, der Verbrauch aber nicht. Wer kann denn überhaupt bewerten, wie nah die derzeitige Recheneffizienz an das theoretische Optimum herankommt?Oppagolf schrieb:Ich würde mir allgemein wünschen, dass diese Effizienz und vor allem auch der absolute Verbrauch viel mehr berücksichtigt werden. Dabei geht es mir eher weniger um die Kosten des Stroms, sondern viel mehr darum, dass es nicht zum Zeitgeist passt, unnütz Energie für sowas banales wie PC Gaming in Wärme umzuwandeln.
Objektiv betrachtet verbrauchen die meisten Hobbies "unnötig" Strom oder andere Energieformen, da braucht man nicht mit dem Finger speziell auf PC-Gaming zu zeigen. Immerhin hilft PC-Gaming im Winter beim Heizen, das sollte man in der Bilanz berücksichtigen
Ähnliche Themen
- Angepinnt
- Antworten
- 907
- Aufrufe
- 103.898
- Antworten
- 6
- Aufrufe
- 1.447
- Antworten
- 17
- Aufrufe
- 2.332
- Antworten
- 32
- Aufrufe
- 4.485