News Gaming-Grafikkarten: Welche GPU habt ihr im PC und wie viel Watt darf die ziehen?

CMozzarella schrieb:
Der Vergleich hinkt etwas. Da würde eher passen, wie viele Leute im Auto Forum ein Koenigsegg oder Äquivalent fahren.
Klar sind wir hier in einer Bubble. Totzdem finde ich es bemerkenswert, dass jeder achte das absolute Spitzenmodell im Rechner hat.
das absolute Spitzenmodell? Nein, das ist nur Consumer Oberklasse (Enthusiast). Da geht es dann erst darüber richtig los.
 
  • Gefällt mir
Reaktionen: Maviba
Meine Sapphire Radeon RX 6900 XT Nitro+ SE letzten Sommer geholt und bin super zufrieden damit.
Läuft mit 230W undervolted sogar etwas schneller als stock.
Genieße gerade Throne and Libery maxed out auf 1440p@60 damit.

Bin überrascht, dass die Karte aktuell bei 5,6% laut Umfrage immer noch ganz oben mitspielt.
War ja dann doch keine schlechte Entscheidung der Kauf.
 
stas_mueller schrieb:
Die Wattbegrenzungsfrage finde ich schwierig. Aktuell limitiere ich die FPS über die Monitor Frequenz. Je nach Spiel ändert sich die Wattaufnahme.
Jap, ich habe auch nichts eingestellt, sondern limitiere je nach Game die FPS.
Beispiel:
Rocket League: Schaltet im Menü automatisch auf 30 FPS und im Spiel auf 100 FPS (gleichmäßigere Frames)
In Emergency macht das das Spiel selber.
In Poker Spielen habe ich immer auf 30 FPS limitiert.
Genauso wie in rundenbasierten Spielen usw.

Würde übrigens den Stromverbrauch beim Gaming deutlich reduzieren wenn jedes Game sowas eingebaut hätte, damit im (Pause)Menü die FPS automatisch auf z.B. 30 fps gecappt werden...
 
Blöde Frage: Wo kann ich denn nachsehen, wie viel meine Graka @Stock und De-Facto ziehen darf?
 
Zulgohlan schrieb:
Ich will ja nicht maulen, aber diese Umfrage ist halt leider schlicht nicht representativ
Hat auch niemand behauptet, dass es repräsentativ für den deutschen oder den internationalen Markt ist.

Die Fragestellung der Umfrage lautet: "Mit welchen Anteilen sind die drei maßgeblichen Grafikkarten-Hersteller im ComputerBase-Forum vertreten?"

Warum sollte man also Leute befragen, die das CB-Forum nicht nutzen?
 
Scr1p schrieb:
Krass, wie jetzt bereits die 4090 führt, da kann Nvidia für die 5090 echt verlangen was sie wollen.
Naja, wie üblich: Wer macht bei solchen Umfragen primär mit? Wäre nicht überrascht, wenn das primär HW-Enthusiasten sind.
 
  • Gefällt mir
Reaktionen: Pisaro
ThoughtPolice schrieb:
Mit 4k sind wir an einen Punkt gekommen, an dem man keine feinere Auflösung auf dem Tisch braucht.

Mit 240 Hz werden wir den nächsten Meilenstein erreichen und wenn die FPS ~200 erreichen, muss man nur noch die Details im Spielen erweitern.

Irgendwann könnte der Punkt erreicht werden, an dem man keine besseren Monitore mehr braucht und die Leistung der Hardware endlich den Inhalt erweitert kann. In den letzten Jahrzehnten wurde der Zuwachs der Leistung immer mit dem Zuwachs der Auflösung aufgehoben.

Doch wann ist genug?
4k auf <40 Zoll und ~400 Hz und >200 FPS ?
Wird das eine RTX 9090 erreichen?
Wird es einen Wandel der Anforderungen mit der Serie nach der 9090 geben?
Schon recht, der Ansatz. Für Flat Monitore gibt es irgendwann eine biologische Grenze.
Aber bitte über den Tellerrand schauen. VR verdoppelt den Bedarf, das sind eher 2*4-6K oder besser. Da reicht dann sogar die 5090 noch nicht. Und wenn "Lightfields" oder ähnliche Technologie verwendet wird, ist die Büchse der Pandora ganz offen.
 
Ich für meinte 1080 Ti damals neu 599€ bezahlt ( Gigabyte 1080Ti Gaming irgendwas ).

Dann kamen die 2000er Karten, Mining, Corona und was alles damit zusammenhing.

Kurz vor RTX 3000 Release hab ich die Karte wieder verkauft für 499€ und hatte sogar Angebote via PN bei eBay von 600++€.

Generell, wenn man sich die Preise inflationsbereinigt anschaut, dann waren die Karten damals auch nicht günstiger.

Wenn man dahingehend damals 819€ bezahlt hat, müsste man HEUTE inflationsbereinigt CA. 1090€ ausgeben.

EDIT: Für eine 2080 ti Karte zahlte man damals zu Release ca. 1250€ ( 2018 ). Durchgerechnet sind das ca 1600€ heute. Jaaaa gut ehhhh.
 
nutze seit August 2024 ein Ryzen 8700G ohne dedizierte GPU also Radeon 780M als haupt GPU, genehmigen darf sich der Gesamte Chip max. 88W, gekühlt von einem Noctua NH-L9x65 welcher den einzigen aktiven Lüfter im System trägt.
 
  • Gefällt mir
Reaktionen: aklaa
@msgt Darf man fragen, was du damit so zockst? Gern per PM an mich. <3
 
Das mit den Watt ist eine blöde Frage. Die 4090 kann zwar viel ziehen, aber in fast allen Games braucht sie 200-300 Watt. Z.b. Anno 1800 hab ich auf 90 FPS gecappt, 4k alles aufgedreht, 240-280w. Der ganze PC braucht vielleicht 500w

Die 1080Ti im 2t Rechner zieht da deutlich mehr, trotz effizienterem Netzteil
 
WaKü, - wieviele Lüfter hat die Grafikkarte => keinen oder 11? :D
 
Ich bin mit meiner PowerColor RX 7900XTX Red Devil immer noch sehr zufrieden. Im Linux Rechner steckt die Vorgängerkarte Radeon 5700XT. Ich brauche nicht unbedingt die schnellste Karte, aber allein weil AMD Karten unter Linux so unkompliziert sind greife ich da gerne zu. Außerdem mag ich Nvidias Geschäftsgebaren nicht. Ich sag nur Geforce Partner Program, oder wie mit Gameworks und Spieleentwicklerunterstützung oft Techniken völlig unnötig eingebaut werden nur weil die Aktuelle Nvidia Generation das gut kann. Nur damit die Kunden auch ja schön upgraden. Man erinnere sich nur an 64x Tesselation in Witcher 3 für Hairworks obwohl es optisch keinerlei Unterschied zu 16x Tesselation gab ... oder Final Fantasy wo Haarige Tieren über die gesamte Karte gerendert wurden oder Pflanzen unter Wasser mit viel Tesselation ob wohl nicht sichtbar. Von daher verzichte ich gerne auf Nvidia. Eigentlich schon seit Nvidias Prästentation gegen Kyro II und Tile Based Rendering. War echt unverschämt was die damals abgezogen haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Corpus Delicti und homunkulus
Laphonso schrieb:
Keiner von uns hat 2000 Euro die GPU zahlen müssen in dieser Rechnung, sondern 1000 bis 1500 Euro in der Differenz.

Das ist noch viel Geld, aber eine 4090 für 1000 Euro zum Launch klingt dann eben nicht mehr so hysterisch, oder? ;-)
genau das ist die Rechnung:
Noch krasser: Im April 2023 meine Asus TUF 3090 für 850€ verkauft und Gainward GS 4090 für 1659€ zu ihrem absoluten Tiefststand bei Alternate gekauft, und nicht für die hier immer angesetzten 2000€. Wenn das Ding jetzt 300€ mehr kostet, muss ich es doch nicht zum Mondpreis gekauft haben; die war sogar mal wieder bei 2300€.
Im Frühjahr 2023 waren die 4090 echt erträglich vom Preis her.
Da waren die Corona-Sanktionen gerade aufgehoben und Gott und die Welt haben sich auf neue E-Bikes gestürzt. Da gute E-Bikes auch bei 4k anfangen, war bei vielen wohl ne neue GraKa an #2 gerückt, so ne Phase muss man nutzen.
 
  • Gefällt mir
Reaktionen: homunkulus, Laphonso und E1M1:Hangar
Die meisten haben die RTX 4090. Haben wir so viele Millionäre hier? lol
Habe selber noch im meinem alten Zweitrechner eine RX 580 und zocke damit in FullHD noch locker alle Spiele.
Werde es wohl nie verstehen, wieso man das beste braucht. So unnötiges Strom und Geldverschwendung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sacky und Gsonz
IntelCyphe schrieb:
Die meisten haben die RTX 4090. Haben wir so viele Millionäre hier? lol
Man muss kein Millionär sein, aber ja ich würde mein Prioritäten auch anders setzen.

IntelCyphe schrieb:
Habe selber noch im meinem alten Zweitrechner eine RX 580 und zocke damit in FullHD noch locker alle Spiele.
Werde es wohl nie verstehen, wieso man das beste braucht. So unnötiges Strom und Geldverschwendung.
Mein Vega56 jammert in so gut wie jedem Spiel bei meiner Auflösung von 3400*1440...
Insbesondere wenn ich versuche die 144 FPS zu erreichen...
Aber ich fand die Vega56 zum UVP Preis zu Release schon Lackgesoffen teuer...
 
  • Gefällt mir
Reaktionen: E1M1:Hangar und Gsonz
Kenjiii schrieb:
Naja, es ist in diesem Bereich schon "Luxus", wenn man eben seinen Augen etwas gönnt und sie verwöhnt. 😂
Es ist halt einfach mal die erste richtige 4k-taugliche Karte, wo man nun endlich flüssig in der Auflösung spielen kann.

Abgesehen davon, ist die Karte nicht mal so schlecht im P/L-Verhältnis
Nehmen wir mal die RTX 4080. Die haben damals auch 1200€ - 1400€ gekostet.
Die 4090 leistet ca. 1/3 mehr, dann wäre man bei einem linearen Preisleistungsverlauf bei ca. 1700€.
Die Karte hat nun 2000€ gekostet, also 15% mehr.
Aber wie wir alle wissen, kosten die letzten Prozente immer deutlich mehr, in so gut wie jedem Bereich und es verläuft nie linear. Aber hier sind es eben gleich 30% MEHRLEISTUNG, was der Karte eben mit Abstand ein Alleinstellungsmerkmal gibt und den Preis gerechtfertigt.


30% sind in einem Markt der sich stets exponenziell entwickelt „nichts“.
Besonders in Zeiten von Upscaling und Frame Generation, wo man auf ein und der selben Karte praktisch beliebige Frameraten erreichen kann.

Bei Pathtracing erzeugen Upscaling+FG FPS Steigerungen von 400-600%. Und die leute zahlen 500€ extra für 30%?

Ich meine, wer das will solls kaufen, aber schön reden braucht man sich das nicht. Einfach mal dazu stehen, dass man sich das ganze viel kosten lässt.
 
Zurück
Oben