News Gaming-Grafikkarten: Welche GPU habt ihr im PC und wie viel Watt darf die ziehen?

Yesman9277 schrieb:
Leider ist das nicht die Realität, weswegen die Hersteller sich eben jene unverschämte Preise leisten können.
Sag ich ja, das funktioniert so nicht, theoretisch ja, aber es ist Wunschdenken. In der Realität, nein. Ich helfe gerne bei kognitiver Dissonanz.
 
Mr. Smith schrieb:
Das war schon immer so. Vergleichbar z.B. auch zu den (früheren) Kosten eines VW-Busses.
Der kostete auch, seit seiner Vorstellung in den soäten 40er-Jahren, immer genau ein dt. Jahres-Bruttogehalt.
Das war sogar das selbsterklärte Ziel von VW bzw. der einzuhaltende Kostenrahmen. Völlig andere Branche, aber man sieht, dass auch hier ähnlich gerechnet wird.

So kostete eine Spitzen-Gaming-Kiste halt immer (in etwa) einen Monats-Nettolohn.
Das ist eine ganz einfache Vergleichsmethodik, mit der man die Gesamtkosten des PC's wunderbar ausloten kann. Früher, als Intel noch den Ton angab und die 9. neu aufgekochte Generation eines 4Kern-Gaming-Prozessors auf den Markt gerotzt hat, waren halt die CPU's verhältnismäßig teuer; dafür aber die GPU's günstiger.

Heute ist nVidia das neue Intel und die CPU's sind, dank AMD, wieder hübsch erschwinglich geworden.
Trotzdem kann man mit diesem simplen Vergleich die Gesamtkosten eines System in etwa einordnen.

Und was ist ein guter Monatlohn:
Siehe oben... Durchschnitt liegt bei 2430€. Alles in dieser Range ist ein "guter Monatslohn".


Erstmal wäre das damals, ein ziemlich sinnloses System gewesen.

Der P4 EE kostete damals mindestens 820€, während der P4 560 ziemlich genau 98% der Leistung der ExtremeEdition hatte und nur 340€ gekostet hat. Wer zahlt denn 480€ Aufpreis für 2%? Selbst heutzutage eher utopisch. Nebenbei wäre auch ein Athlon64 3800+/4000+ die bessere CPU gewesen und deutlich billiger.

Und auch die FX5950 Ultra für so um die ~480€ war nur 3-4% schneller als eine FX5900 Ultra, welche aber über 100€ billiger war. Auch das war damals rausgeschmissenes Geld. Die kleinere Karte war einfach P/L-technisch meilenweit besser und nur messbar langsamer; nicht aber spürbar.

Aber trotzdem ein netter Vergleich: Eine FX5900 Ultra oder auch die 9800XT waren zumindest noch sinnvolle Alternativen. Hingegen ist eine 4080S oder 7900XTX doch sehr viel langsamer als eine RTX4090. Daher ist sie für gewisse Käuferschichten alternativlos und damit auch alternativlos teuer bepreist.

Trotzdem verstehe ich nicht, wie so ein System damals, bei dem CPU+GPU in Summe 1300€ ausgemacht haben, auf "locker über 3000€" gekommen sein soll?! Es dürfte sehr schwer gewesen sein, hier nochmals über 1700€ in den Sand zu setzen. Damals war man mit einem ~1400€-Budget schon im HighEnd-Segment zuhause... alles darüber war nur die Jagd, nach den letzten paar Prozenten im Benchmark.

Du laberst auch wie es dir in den Sinn kommt.

Für deine Argumentation soll es highend sein und wenn ich dir das 3000€ highend System von damals darlege, ist es "eh undinnig" und du kommst mit billigeren Komponenten.

Geh weg.
 
Bei mir läuft immer noch eine GTX 1080. Da ich so gut wie nichts aktuelles mehr spiele und abgesehen von etwas älteren Titeln nur noch WoT und WoWs bei mir läuft, wird die GTX so schnell noch nicht ersetzt werden. In den letzten 12 Jahren hatte ich tatsächlich nur 2 Grafikkarten im Hauptrechner verbaut - HD 7970 und eben die GTX 1080 - während ich davor die Karten fast im Jahrestakt gewechselt habe.
 
  • Gefällt mir
Reaktionen: shai Halud, InTheEnd_AI und C0r3
Mr. Smith schrieb:
Trotzdem verstehe ich nicht, wie so ein System damals, bei dem CPU+GPU in Summe 1300€ ausgemacht haben, auf "locker über 3000€" gekommen sein soll?! Es dürfte sehr schwer gewesen sein, hier nochmals über 1700€ in den Sand zu setzen. Damals war man mit einem ~1400€-Budget schon im HighEnd-Segment zuhause... alles darüber war nur die Jagd, nach den letzten paar Prozenten im Benchmark.
Sinnlos überteuert Geld für die Hardware ausgeben war damals echt leicht. Mein erster vom Ausbildungsgehalt gebauter Rechner 2006(?) war auch übertrieben.

Da war ein Core 2 Duo E6700 drin, eine X1900XT und glaube 4GB Ram, 2 Seagate Barracudas im Raid 0 und eine andere Festplatte sowie zwei DVD-Brenner (mehr fällt mir gerade nicht ein) für insgesamt schlappe 2400€ inklusive Windows 7 Oem Lizenz...
 
2080 (ohne Super, Ti, sonstigem Shishi) unter Wasser.
Ich muss sagen, die ist echt gut gealtert. "Damals" bei der RTX30xx Generation dachte ich noch, ich müsste upgraden aber die Karte ist immer noch da und aktuell habe ich auch kein dringendes Bedürfnis, daran etwas ändern zu wollen. Mal sehen, wie lange ich mit den 8GB VRAM noch klar komme. :D
 
SavageSkull schrieb:
CPU gleichwertige CPUs marginal teurer, "bessere" CPUs deutlich teurer. Allgemein eher schwache Entwicklung was den Leistungsfortschritt angeht(5800X3D zu 7800X3D zu 7950X3D)
Du redest von den letzten 3-4 Jahren... der 5800X3D kam im April 2022 auf den Markt.
Nebenbei hat dieser auch jenseits der 500€ gekostet. Beim 7800X3D ist das nicht der Fall.

Wenn, dann müsstest du zurück gehen, bis zum Release der 5000er-Serie im Oktober vor 4 Jahren.
Damals war die GoTo-Gaming-CPU immer der 5600X. 3D-VCache gab es vor 3-4 Jahren noch gar nicht.
Und genau diese CPU müsste man dann mit einem 7800X3D vergleichen.

Dazwischen liegen Welten und mit 300€ UVP war auch der kein sonderlicher Schnapper.
4 Jahre weiter sind diese 300€ heutzutage leider eher 360€ nach Inflation. Nicht weit weg vom 7800X3D.

Wahlweise ginge auch ein 7600X3D mit vergleichbaren 6Kernen, 3D-VCache und niedrigerem Preis, als damals ein 5600X. Ich sehe hier keine Teuerung, für den geneigten Gamer... mal schauen, was ein 9800X3D kosten wird.

SavageSkull schrieb:
SSDs relativ Preisstabil, dafür bekommt man halt mehr Speicher
Ja. Hier sagt ja auch niemand, dass doppelter Speicher automatisch auch doppelter Preis bedeuten muss.
Wenn sich das so verhalten würde, könnte sich kaum jemand auch nur ein 4TB Drive leisten.
Bei Grafikkarten zahlt man hingegen für 30% theoretische Performance 80% mehr Kohle und redet das auch noch schön?!

Bei SSD's sehe ich heute mehr Speicher, schnelleres Interface, für den gleichen Preis.
Oder umgekehrt, die Leistungen der früheren Spitzenreiter zu einem deutlich gefallenen Kurs.

SavageSkull schrieb:
PSUs kaufe ich nicht allzu oft, allerdings wenn man Qualität will und ausreichend Leistung liegt das heute eher bei 120€ teilweise über 150€
So wie halt auch in den Jahren zuvor üblich. 120€ ist doch schon ewig ein normaler Kurs.
Nur bekommt man da heute halt mehr Peak-Leistung, vollmodulare Kabel, höhere Effizienz etc. pp.

Auch hier bekommst du aber durchaus auch für ~80€ vollmodulare ATX3.x-PSU's von Markenherstellern.
BQ Pure Power 12M z.B.

SavageSkull schrieb:
Mainboards brauche ich mir nur mal das neue AMD 800er LineUp anschauen. Da ist mein damals teures X570 MSI MEG ACE spottbillig gegen.
Das ist auch ein Board, das nördlich von 300€ liegt. Wo ist da der Schnapper?
Der Median für dieses Board lag lt. Geizhals bei 369€.

Für weniger bekommst du heute ebenfalls den dicksten Chipsatz (X870E).
Siehe GigaByte X870E AORUS Elite für 310€... kann mehr, kostet weniger.

SavageSkull schrieb:
RAM, mittlerweile ist der DDR5 bezahlbar geworden. Das hat gut 2 Jahre gedauert, bis der mal von extrem teuren Preisen runtergegangen ist.
Wie auch beim Release von DDR2, DDR3 und DDR4. Völlig normales Verhalten.

Ich habe bei meinem ersten DDR3 Tripple-Channel Kit für Sockel 1366 auch über 300€ hingelegt (3x2GB)
Bei meinem ersten DDR4 Quad-Channel-Kit auf Sockel 2011 ebenfalls über 300€ (4x4GB).

Heute kaufst du ein 6000er 64GB Kit für unter 200€... und da hast du sogar einiges zur Auswahl.
 
Zuletzt bearbeitet:
sebish schrieb:
Das Power Limit meiner 4080 ist bei 85%. Wie viel Watt das jetzt genau sind...
Wenn die die Standard 320W nutzt, 48W weniger.

Ich bin seit gestern auch mal übergegangen die neue Nvidia APP anstatt den MSI Afterburner zu nutzen.
Noch bin ich in der Testphase, aber zumindest der Verbrauch im idle ist anscheinend runtergegangen im Vergleich zum manuellem UV.
Am Ende ist es aber nichts weiter als ein auto OC des GPU und RAM Taktes + manuelles Powerlimit.

Wenn ich z.b. zuhause bin und 2 Monitore an habe, hat die 4090 im idle 7-9Watt.
Aktuell streame ich aber über Parsec und trotzdem zieht die nur 9-10W. :D
Mein 5800X3D ist hier deutlich schlechter, da der selten unter 30W im idle geht.
 
Zuletzt bearbeitet:
Mr. Smith schrieb:
Das ist auch ein Board, das nördlich von 300€ liegt. Wo ist da der Schnapper?
Der Median für dieses Board lag lt. Geizhals bei 369€. Für weniger bekommst du heute ebenfalls den dicksten Chipsatz (X870E). Siehe GigaByte X870E AORUS Elite für 310€... kann mehr, kostet weniger.
Naja, das war damals schon Oberklasse, auch von der Ausstattung. Rein von der Entwicklung "kann mehr", sollte dann das X870 eben mehr als nur einen einzelnen 2,5Gbit Port haben und auch mehr als nur einen USB-C Header.
Wollte das Board damals genau wegen den beiden LAN Adaptern und dem USB-C Header haben. Dein Beispiel hat nur einen LAN Adapter.
Bleibt man mal bei MSI gibt es aktuell nur die kleinere MPG Serie mit dem Carbon WIFI, was dann mehr USB-C Ports und 2 LAN Adapter hat: https://geizhals.at/msi-mpg-x870e-carbon-wifi-a3295180.html
Das sind dann mal eben fast wieder 100€ mehr, für die eigentlich kleinere MPG Reihe...

Könnte ich bei den anderen Beispielen genauso nennen.
Das letzte Netzteil (ich erinnere mich nicht mehr an den Namen) war damals auch Oberklasse, mit Abschaltung, Effizienz und Co. 650W für ca 120€. Heute sind 750W bei zum Beispiel einen Dark Power Pro oder anderen Oberklasse Netzteilen eher bei 150€ aufwärts dabei.
zb https://geizhals.de/seasonic-prime-tx-650-650w-atx-2-4-prime-tx-650-a2123785.html?hloc=at&hloc=de
(und das hat "nur" 650W und "nur" ATX 2.4)

Klar kann ich sagen, ich bleibe bei der aktuellen Mittelklasse, weil die heute das gleiche kann, wie damals die Oberklasse, aber der Vergleich hinkt dann.
Wenn ich alte Oberklasse vergleiche, dann muß ich mir heute auch wieder die Oberklasse anschauen.
Schaue ich mir die Mittelklasse von damals (5600X) an, dann darf ich heute auch nur die Mittelklasse anschauen.

Gerade beim Beispiel CPU. Der 5600X war damals eher so ein, naja, sind halt nur 6 Kerne.
Heute finde ich es daneben, dass wir nach 6 Jahren AMD Ryzen immer noch mit der gleichen Anzahl an Kernen rumkrebsen. Also genau das wie kurz davor Intel mit 4/8 CPUs.

Wenn ich neu Kaufe, hätte ich gerne mehr Kerne/Threads als jetzt. Das geht aktuell beim Gaming System mit einem 7900X3D, der ist aber mit den unterschiedlichen 6-Kern DIEs ein Krüppel und nach 1,5 Jahren auf dem Markt mittlerweile wieder halbwegs bezahlbar, weil er kaum gekauft wird. Der 7950X3D ist dann schon deutlich teurer als der Inflationsanstieg, seit dem 5800X3D.
 
Sierra1505 schrieb:
Der Anstieg 2020 > 2022 ist allerdings bemerkenswert und den begründe ich mit den oben genannten drei Punkten.
Recht hast du.
Der Anstieg bezieht sich aber direkt nur auf die Preise die man bei den Händlern gezahlt hat und nicht die, die Nvidia ausgerufen hatte.
Am Ende haben aber auch AIBs in ihren Shops bei den Karten gescalpt.
NUR die Founders wurde immer zum UVP verkauft!
Nvidia hat bisher nur die Wechselkurse angepasst sowohl nach oben als auch nach unten (aber etwas langsamer).

Ein Faktor ist der Wechselkurs. Zwischen dem Release der 3080 und dem der 4080 sind alleine 19%!!! des €uropreises dem Kurs geschuldet. 699$=699€ vs 1199$=1399€
Aktuell liegen wir übrigens genau dazwischen, wäre also bei einer 1000$ Karte aktuell 1100€.

Die 3080 war nur Resteverwertung, da Samsung viele defekte Chips hatte. Man diese deswegen günstig verschleudert. Deswegen war die 3090 auch im Vergleich so teuer, auch einer der Gründe warum man überhaupt eine 3090 vermarktet hatte.
Ursprünglich hätte man nur eine 3080 oder 3080Ti als schnellste Gamingkarte gehabt, aber die schlechte Yieldrate und Performance von Samsung hat Nvidia die Klassen und Chips ein wenig ändern lassen, denn welche xx80er war in der Vergangenheit mit dem größten Chip?

Das die 4080 nun mit einem wieder kleineren Chip soviel teurer wurde, ist aber auch die Gier Nvidias.
Hier hat Nvidia die kaputtenMining/Corona Marktpreise der 3080 genommen und diese dann in die 4080 eingebaut, obwohl der Boom schon vorbei war.
Von 699$ auf 899$ hätte ich locker noch akzeptiert, aber 1199$ war wirklich zu viel.
Das haben der Markt und die Kunden auch gezeigt. Genau deswegen hat Nvidia eine Super rausgebracht.
Eine Super ist lediglich eine Preisanpassung bei Nvidia, denn Rabatte gibt es bei denen nicht. Das ist eine Art Firmenphilosophie.

Ich rechne von daher bei einer 5080 mit maximal 999$ bzw 1099€.
Gleichzeitig wurde aber die 4090 fleißig gekauft... deswegen rechne ich bei der 5090 durchaus mit biszu 1999$ bzw 2199€...
Und hier machen dann die Gerüchte von einer doppelt so großen 5090 wieder Sinn...

Und am Ende bin ich wieder ein Schaf und kaufe vermutlich die 5090.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: C0r3, Sierra1505, Mr. Smith und eine weitere Person
SavageSkull schrieb:
Bleibt man mal bei MSI gibt es aktuell nur die kleinere MPG Serie mit dem Carbon WIFI, was dann mehr USB-C Ports und 2 LAN Adapter hat: https://geizhals.at/msi-mpg-x870e-carbon-wifi-a3295180.html
Das sind dann mal eben fast wieder 100€ mehr, für die eigentlich kleinere MPG Reihe...
Und das ist genau die Inflation... 369€ von 2019 sind heute 440€. Du kaufst zu identischen Preisen ein... das ist keine Teuerung durch Gier bzw. Aufschläge der Produzenten, wie im Falle von nVidia. Das ist tatsächlich Inflation.

Und was heißt kleinere Serie?!
MSI hat nur dieses eine X870E-Board im Sortiment. Soll es halt MPG heißen, statt ACE. Solange es das ACE übertrumpft, ist doch völlig egal, wie es heißen mag.

SavageSkull schrieb:
Das letzte Netzteil (ich erinnere mich nicht mehr an den Namen) war damals auch Oberklasse, mit Abschaltung, Effizienz und Co. 650W für ca 120€. Heute sind 750W bei zum Beispiel einen Dark Power Pro oder anderen Oberklasse Netzteilen eher bei 150€ aufwärts dabei.
zb https://geizhals.de/seasonic-prime-tx-650-650w-atx-2-4-prime-tx-650-a2123785.html?hloc=at&hloc=de
(und das hat "nur" 650W und "nur" ATX 2.4)
Gleiches Spiel... 120€ von damals sind heute 145€. Gleicher Kaufpreis.

Und für 145-150€ bekommst du natürlich deutlich bessere PSU's als ein BQ Dark Power. Die werden aktuell mit Negativ-Rezensionen zu geschüttet.

Ein FSP Vita GM 750W ATX v3.1 bekommst du für 100€. Wenn du Oberklasse willst, nimm ein Seasonic Focus GX 750W ATX v3.1 für 130€.

Hat auf Cybenetics 'Platin' geholt und alle Tests dominiert; 10 Jahre Garantie; jede Ader einzeln in Textil gesleeved bla bla bla...

Die besagten 130€ sind auch weniger, als die 120€ von vor X-Jahren. Auch hier ist der Markt absolut in Ordnung... einen 240% Anstieg wie bei den GPU's, kann ich hier nicht erkennen.

SavageSkull schrieb:
Wenn ich alte Oberklasse vergleiche, dann muß ich mir heute auch wieder die Oberklasse anschauen.
Schaue ich mir die Mittelklasse von damals (5600X) an, dann darf ich heute auch nur die Mittelklasse anschauen.

Gerade beim Beispiel CPU. Der 5600X war damals eher so ein, naja, sind halt nur 6 Kerne.
Heute finde ich es daneben, dass wir nach 6 Jahren AMD Ryzen immer noch mit der gleichen Anzahl an Kernen rumkrebsen. Also genau das wie kurz davor Intel mit 4/8 CPUs.

Wenn ich neu Kaufe, hätte ich gerne mehr Kerne/Threads als jetzt. Das geht aktuell beim Gaming System mit einem 7900X3D, der ist aber mit den unterschiedlichen 6-Kern DIEs ein Krüppel und nach 1,5 Jahren auf dem Markt mittlerweile wieder halbwegs bezahlbar, weil er kaum gekauft wird. Der 7950X3D ist dann schon deutlich teurer als der Inflationsanstieg, seit dem 5800X3D.
Den 7950X3D kann man halt auch nicht mit einem 5800X3D vergleichen. Da sind nur halb so viele Kerne im Spiel und der 5800X3D war nie HighEnd. Das ist halt eine reine Gaming-CPU, wie auch der 7800X3D.

Einen 8Kerner mit einem 16Kerner zu vergleichen und dann zu sagen, dass der 16 Kerner teurer ist... naja. Das liegt in der Natur der Sache.

Wenn du aber die 8 Kerner vergleichst (5800X3D vs 7800X3D) spricht alles für die neuere CPU (RAM-Interface, Stromverbrauch, IPC, niedrigerer Release-Preis, easy zu kühlen etc. pp.) Grad im SFF-Segment ist diese CPU ein Segen... einen 5800X3D möchtest du dort hingegen nicht sehen.

Du konntest auch damals schon den 5950X kaufen... 16C/32T. Das war HighEnd. Hat halt neu 1000€ gekostet (gescalped auch gerne noch mehr als das). Heute kaufst du den aktuellen 9950X mit ebenfalls 16C/32T und deutlich höherer IPC für 650€ neu (4 Jahre später und 350€ weniger).

Und der kommende 9950X3D soll ja lt. Gerüchten auf beiden Chiplets 3D-VCache haben und ~799€ kosten. Das wären 200€ weniger als damals... auch hier keine Teuerung im HighEnd. Selbst wenn er 1000€ kosten sollte, wäre das keine Verschlechterung zu damals...

Auch hier mehr von allem, für weniger Kohle... Nichts, was annähernd mit der Situation auf dem GPU-Markt zu vergleichen wäre.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: InTheEnd_AI, SweetOhm, jonderson und eine weitere Person
Simanova schrieb:
Tatsächlich wäre selbst ein eine RTX 3050 mit 75W eine Leistungssteigerung.
Das schon, aber wenn dann greife ich direkt zu einer neuen Modellreihe, damit ich auch ein wenig für die Zukunft gesichert bin.
Die nächste Grafikkarte sollte GTA 6 ja bedienen können. Stromverbraucht ist da irrelevant, da habe ich noch nie drauf geachtet.
 
Ehrlich gesagt weiß ich gar nicht, wieviel meine 3060/12 ziehen könnte.
Interessant war nur, dass ich auf meinem x370Board aus 2018 (das immer noch drin ist 😁) einen R5/2600 und eine 1050Ti hatte. Beim Wechsel auf 3060/12 + 5800X3D fiel mir auf, dass da noch ein altes gammliges 350W Netzteil drin war. Und das lief. Gut. Und auch mit der neuen Hardware 🤨.

*um Genörgel vorzubeugen: natürlich hat das ganze beim Umzug in ein schöneres Gehäuse auch ein angemessenes Seasonic bekommen.
 
icked schrieb:
Keinen Bock mehr den grakas hinterherzulaufen.

Aktuell ne 1070. Die soll eigentlich schon längst weg gewesen sein, aber erst gabs buchstäblich nichts und dann keine zeit und nun ist die Generation am Ende, da kauf ich bestimmt kein lovelace mehr.

Nur um dann festzustellen dass der Kreislauf mit Release Blackwell wieder von vorne anfängt.

Meh. Eigentlich reicht sie nicht, aber ich glaube die 1070 muss reichen, bis sie auseinanderfällt oder es keine kompatiblen Treiber mehr gibt.

Ja lol, quasi exakt das gleiche wollte ich gerade zu meiner 1080 schreiben. 😂
Mir geht's genauso. Ich habe einfach gar keinen Bock mehr da drauf mein hart erarbeitetes Geld in diesen Dimensionen für GPUs raus zu hauen...
 
  • Gefällt mir
Reaktionen: InTheEnd_AI, SweetOhm und jonderson
https://videocardz.com/newz/nvidias...d-for-january-6-possible-rtx-50-series-reveal
The Consumer Technology Association (CTA)®, the owner and producer of CES®, the world’s most powerful tech event, is announcing NVIDIA founder and CEO Jensen Huang will deliver a keynote at CES 2025. CES 2025 will take place in Las Vegas from January 7-10, 2025. Huang will deliver his keynote Monday, January 6, at 6:30 p.m.
“The NVIDIA GeForce RTX 50 series is rumored to launch at CES, with the RTX 5090 and RTX 5080 cards expected to make their formal debut and possibly release later that month.

Typically, NVIDIA holds separate events for its GeForce launches, and CES is not usually the venue for these announcements. Instead, the company has historically used CES to launch mobile GPUs.”


@Jan @Vitche
 
  • Gefällt mir
Reaktionen: one2know
Es ist allein schon witzlos für Grafikkarten die 2020 mit einer 3080/6800XT released wurden, nach vier Jahren immer noch 500€ und mehr hinlegen zu müssen die mit selbiger Leistung daher kommen und wo eine 6800XT ne UVP von 650€ hatte.

Könnt ja mal schauen was es von 2015 bis 2019 an Leistungssteigerung in dem Preisbereich gab
Ergänzung ()

gerade mal geschaut, 2015 hat man ne GTX980 und 4 Jahre später ne 2070Super für um die 550€ bekommen, dass war ne Leistungssteigerung wenn man mal hier ne 1060 zur 2070Super nimmt von mehr als 140%...

https://www.pcgameshardware.de/Graf...ts/Wie-schnell-ist-meine-Grafikkarte-1448735/

und schaut euch mal an wo wir heute sind... und einige feiern diesen bullshit noch ab
Ergänzung ()

von einer 390X zur 5700XT erst gar nicht zu reden
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aid0nex, Veitograf, Kraiit und 2 andere
SavageSkull schrieb:
Bezahlt wirklich jemand ein Luxusgut im Ratenkauf?
Davon gehe ich sogar sehr stark aus!
Ich lehne mich sogar soweit aus dem Fenster und Behaupte: Bis zu 4 von 10.
In einer Vollkasko mentalen und "auf pump" Gesellschaft würde mich ein anderes Ergebnis, im mindesten wundern.
 
  • Gefällt mir
Reaktionen: jonderson
Habe eine Palit 1050 Ti KalmX (also passiv, 75W) und reize sie selten wirklich aus - nicht mal in den paar 3D Games, die ich spiele.
 
Zuletzt bearbeitet:
Im Sinne der Umfrage: die Graka muss so wenig wie möglich verbrauchen.
Die Prämisse an mein System - so leise wie irgendwie möglich. Hoher Verbrauch = viel Abwärme = hörbar durch Lüfter= kein Nerv drauf. Wenn ichs Rauschen hören möchte, fahr ich an die See ...

Daher Ende 2022 eine RX6800 Nitro+ OC gekauft, auf maximal sparsam runter gedimmt (793mV | max. Boost 2035 Mhz) und auf 74 FPS über den Treiber gelockt (bei 75Hz Monitor).
Vor etwa zwei Wochen gabs God of War bei GoG fürn Zwanziger; spiele mit alles auf Ultra auf WQHD, Karte dümpelt zwischen 95 bis 115 Watt Verbrauch vor sich hin bei max. 61 Grad und unhörbaren etwa 650 rpm der Lüfter.

Ist nicht so, dass ich für gute Hardware nicht gutes Geld ausgeben würde; mich holt nur quasi nichts mehr bei Release sosehr ab, dass es ein unbedingtes Haben-Wollen-Gefühl auslöst. Damit habe ich so gar keinen Aufrüstzwang.
Tatsächlich war es in den letzten 5 Jahren exakt EIN Titel, den ich mir zum Vollpreis kurz nach Release geholt habe: BG3.

Daher gönne ich jedem seine 300 bis 600 Watt verbrauchende Graka, auch wenns halt mal 2k kostet. Hau raus die Kohle!
Ich für mich brauchs halt einfach nicht.
 
  • Gefällt mir
Reaktionen: Colin -
Scr1p schrieb:
Krass, wie jetzt bereits die 4090 führt, da kann Nvidia für die 5090 echt verlangen was sie wollen.
Auf CB sind halt Enthuasiasten unterwegs. Sonst ist die 4090 nicht sonderlich weit verbreitet.
 
  • Gefällt mir
Reaktionen: InTheEnd_AI, CuzzImBasti, Pisaro und 2 andere
snaapsnaap schrieb:
Hatte davor aber über 1 Jahr lang ne Sapphire 7900XT, aber die Fummelei an der Lüftersteuerung + Einstellung des Taktes damit die Karte effizienter läuft wurde mir zu nervig, insbesondere wenn sich das immer mal wieder resettet.

AMDs Karten sind einfach so unglaublich ineffizent es ist zum heulen, nicht mal in der Peak Leistung, sondern vor allem im Teillast Bereich, bei Indie Titeln die kaum Leistung beanspruchen sollten (und es mit der NV auch nicht tun)...
Mit meiner RX 6800 habe ich keine Probleme mit geringer Leistungsaufnahme bei älteren Spielen oder Spielen die wenig Ressourcen brauchen. Die zieht auch gern mal unter 100 Watt. Ohne "Fummelei". Hat mehr Reserven als die 4060ti. Die angegebenen 250 Watt TDP habe ich noch nie erreicht. Selbst wenn ich Cyberpunk mit hohen Details auf 2k spiele, lande ich bei ca. 210 Watt. Wenn ich auf 60 Hz begrenze bei deutlich unter 200 Watt (170-180).

Davor hatte ich kurze Zeit eine 6600xt die auch ziemlich sparsam für AMD Verhältnisse war, aber auch etwas schwächer als die 4060.

Die 4060 ist sicher deutlich effizienter. Aber Deine Aussage dass alle AMD Karten hier Probleme, kann ich schlicht nicht bestätigen ... bzw sogar Widerlegen.
 
Zurück
Oben