News Gaming-Grafikkarten: Welche GPU habt ihr im PC und wie viel Watt darf die ziehen?

Calid schrieb:
Anscheinend haben die Leute Geld wie Heu. Bin absolut dafür dass NV wieder kräftig die Preise anhebt 👍 die Leute sind geldig genug um absolute Mondpreise zu zahlen. 😄
Soll mir recht sein. Die 4090 ist von Gewinnen aus Nvidia Aktien bezahlt worden. (und eigentlich auch die Grafikkarten der nächsten 10 Jahre :D). Wenn die höheren Preise die Nvidia Aktie noch mehr pushen langt's halt die nächsten 20 Jahre. "The more YOU buy the more I save" :evillol:
 
  • Gefällt mir
Reaktionen: Calid
Verak Drezzt schrieb:
Es ist allein schon witzlos für Grafikkarten die 2020 mit einer 3080/6800XT released wurden, nach vier Jahren immer noch 500€ und mehr hinlegen zu müssen die mit selbiger Leistung daher kommen und wo eine 6800XT ne UVP von 650€ hatte.

Könnt ja mal schauen was es von 2015 bis 2019 an Leistungssteigerung in dem Preisbereich gab

Das hat aber auch andere Vorteile: Mit meiner GTX 1080 aus 2016 kann ich auch heute, 8 Jahre nach Release der Karte immer noch gut aktuelle Titel spielen (zumindest auf Full HD). Stell dir mal vor man hätte 2015 mit einer Karte aus 2007 einen aktuellen Titel spielen wollen. Der 2015er Titel wäre vielleicht ein DX12 Titel gewesen, während die 2007er Karte noch das DX10 Featureset hätte. Da hätte man sich erst gar keine Sorgen um Low FPS machen müssen, weil das Spiel erst gar nicht gestartet wäre. :D
 
  • Gefällt mir
Reaktionen: lord_mogul
Das spannendste an der 4090 finde ich ja die Möglichkeit via UV und PL die Leistungsaufnahme auf rund 350 W zu drosseln bei nahezu gleicher Performance bzw. deutlich höherer Performance als die 4080 stock mit 320 W. Also vom Preis-Leistungsverhältnis mal abgesehen finde ich die technische Möglichkeit und die Spielereien super spannend, auch wenns bei mir dann doch nur für ne "günstige" 4080 von Palit gereicht hat.
 
Dass die Mehrheit hier eine 4090 hat, zeigt wieder eindeutig dass Jensen jeden Preis verlangen kann. Neulich hatte einer aus dem Forum behauptet auch 2500€ für die 5090 wären voll i.O. :lol:
 
dgschrei schrieb:
Soll mir recht sein. Die 4090 ist von Gewinnen aus Nvidia Aktien bezahlt worden. (und eigentlich auch die Grafikkarten der nächsten 10 Jahre :D). Wenn die höheren Preise die Nvidia Aktie noch mehr pushen langt's halt die nächsten 20 Jahre. "The more YOU buy the more I save" :evillol:
Wir verstehen uns 😁
 
jetzt konnte ich gar nicht abstimmen, dass meine karte nur zwei slots belegt 😭 🙈 😅
 
  • Gefällt mir
Reaktionen: Calid
Booth schrieb:
Mit meiner RX 6800 habe ich keine Probleme mit geringer Leistungsaufnahme bei älteren Spielen oder Spielen die wenig Ressourcen brauchen. Die zieht auch gern mal unter 100 Watt. Ohne "Fummelei". Hat mehr Reserven als die 4060ti. Die angegebenen 250 Watt TDP habe ich noch nie erreicht. Selbst wenn ich Cyberpunk mit hohen Details auf 2k spiele, lande ich bei ca. 210 Watt. Wenn ich auf 60 Hz begrenze bei deutlich unter 200 Watt (170-180).

Davor hatte ich kurze Zeit eine 6600xt die auch ziemlich sparsam für AMD Verhältnisse war, aber auch etwas schwächer als die 4060.

Die 4060 ist sicher deutlich effizienter. Aber Deine Aussage dass alle AMD Karten hier Probleme, kann ich schlicht nicht bestätigen ... bzw sogar Widerlegen.

Dann hast vllt keine zwei 4K Screens, oder sogar nur einen.

Mein Test war zwei 4K Screens und einer läuft mit 120Hz der andere mit 60Hz, auf einem Monitor läuft Twitch und auf dem anderen zocke ich Mini Motorways in 4K.

Mit einer 7800XT Hellhound welche ich mir gekauft hatte, zog das System mind. 80W mehr als das System mit 4060Ti, in genau dem gleichen Szenario.

Laut GPU-Z war die 7800XT bei 90-100W, die 4060Ti bei 30W...

Gemessen an der Wand.

Mit der 7900XT welche ich über 1 Jahr hatte war es vermutlich ähnlich schlecht, mir fehlte einzig der Vergleich mit einer NV.

Ich wusste was ich im idle mit den zwei 4K Screens verbrauchte, und was wenn Youtube läuft, oder YT+Twitch.

Auch die Verbräuche aus allerlei Reviews und da wurde den AMDs immer ein schlechter Verbrauch bei Youtube etc gemessen, bei mir war er aber niedriger, vermutlich weil ich in YT kein 4K ausgewählt hab.

Aber mit der 7800XT wars gefühlt schlimmer als mit der 7900XT, die lief quasi durchgehend auf 30w, selbst im absoluten idle, wo die 7900XT vorher unter 20w ging.

Das deine 6800 läuft wie du es sagst, dagegen sag ich gar nichts, aber solange du keine 7000er und NV gegentesten konntest, kannst du da relativ wenig widerlegen...

Und mit Fummelei meinte ich übrigens, Anpassung des Taktes und Lüfters der 7900XT im Treiber, da konnte ich auch ohne Probleme 100W Verbrauch reduzieren mit 5-10% weniger FPS.
 
aid0nex schrieb:
Das hat aber auch andere Vorteile: Mit meiner GTX 1080 aus 2016 kann ich auch heute, 8 Jahre nach Release der Karte immer noch gut aktuelle Titel spielen (zumindest auf Full HD). Stell dir mal vor man hätte 2015 mit einer Karte aus 2007 einen aktuellen Titel spielen wollen. Der 2015er Titel wäre vielleicht ein DX12 Titel gewesen, während die 2007er Karte noch das DX10 Featureset hätte. Da hätte man sich erst gar keine Sorgen um Low FPS machen müssen, weil das Spiel erst gar nicht gestartet wäre. :D

Dafür erschienen zwischen 2007 und 2015 auch noch ein paar mehr Blockbuster-Games (teilweise sogar noch ein paar PC-Exclusives mehr). 4-6 Jahre Entwicklung Minimum sind ja der Standard, quasi eine Verdoppelung. https://www.purexbox.com/news/2023/...es-with-2-3-years-development-cycles-are-over Bei Starfield warens 8, bei BG3 trotz bestehender Technologie noch immer 7. Entsprechend fallen Pascal und Co. auch jetzt erst so langsam durchs Raster.

Und selbst Sony stellte neulich seine PS5 Pro entsprechend vor allem so vor: "Alte Schinken und CrossGen-Titel, jetzt enhanced!". :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lord_mogul, aid0nex und Colin -
Booth schrieb:
Die 4060 ist sicher deutlich effizienter. Aber Deine Aussage dass alle AMD Karten hier Probleme, kann ich schlicht nicht bestätigen ... bzw sogar Widerlegen.
Da wird auch viel Bohei um wenig Probleme gemacht.
Ja, RX6000 war ineffizienter als RTX3000. Aber sie war schon effizienter als RTX 2000. Der Unterschied war also weniger als eine Generation.
Dat is nu nich soooo wild.
 
snaapsnaap schrieb:
AMDs Karten sind einfach so unglaublich ineffizent es ist zum heulen [...]
Das deine 6800 läuft wie du es sagst, dagegen sag ich gar nichts [...]
...kannst du da relativ wenig widerlegen...
Deine ganzen Spezialfälle sind relativ wurscht. Du hast allgemein von AMD Grafikkarten im ersten Posting geredet. Siehe Zitat.
Nun reduzierst Du auf 7000er Grafikkarten... und behauptest einfach "kann ich nicht widerlegen"... ähm... Du hast Dich selber "widerlegt" oder besser gesagt korrigiert. Gibst dies auch irgendwie zu... und irgendwie auch wieder nicht.
Sorry, dass ich überhaupt reagiert habe.
 
Das mit demStromverbrauch ist imho ne schräge Frage, ich hab die 4070TI eingebaut und sie läuft ... absolut kein Plan was sie verbraucht ...
 
RTX A2000 75W über PCI-E. Für ne Runde Gaming langt es.
 
Ich habe noch nicht die Zeit und Ruhe gefunden, meine Grafikkarte richtig einzustellen, daher darf sich die Asus ROG 4090 Matrix zurzeit soviel ziehen, wie sie brauch :mussweg:
 
Mydgard schrieb:
Das mit demStromverbrauch ist imho ne schräge Frage, ich hab die 4070TI eingebaut und sie läuft ... absolut kein Plan was sie verbraucht ...
Hab hier noch ne 1060 6GB am laufen, reicht bisher für alles was ich mach.
Standardmäßig hat die ja 120 W TDP. Das Modell hier im Rechner kommt aber mit 130W. Und hab bei der Karte noch nie mehr als vielleicht 105W gesehen.
Die 4070 Ti hat standardmäßig 285W, aber wer weiß was der Hersteller in die Firmware geschrieben hat.
 
lord_mogul schrieb:
Die 4070 Ti hat standardmäßig 285W, aber wer weiß was der Hersteller in die Firmware geschrieben hat.
Ist eine Asus TUF 4070ti ... also evtl. übertaktet, mir war aber wichtig das sie besonders leise ist.
 
Ich finde es schon krass, wie viel Geld manche Leute für Hard- und Software ausgeben, um Computerspiele zu spielen.
Aber 5 Eurocent mehr pro Kilowattstunde für Strom zu bezahlen, damit hier im Land keine Atomkraftwerke mehr betrieben werden, ist vielen dann doch zu teuer.
Was für eine paradoxe Welt, in der wir leben!
 
@blende11 Ohje, ganz unsinniger Vergleich…

Es juckt in den Fingern, Aber ich lasse es mal.
 
  • Gefällt mir
Reaktionen: Yar, BassCatBall und Madcat69
a) Niemand der Hardware/Software kauft, denkt dabei über Kernkraftwerke nach.
b) Nicht jeder ist deiner Meinung, dass es 5 €ct sind; dass er das bezahlen würde oder dass er keine AKW möchte!
c) Eine Diskussion, wenn man eine dazu starten würde, driftet sofort vom eigentlichen Thema weg.

Als nächstes kommt noch der Autovergleich...
 
  • Gefällt mir
Reaktionen: Yar, BassCatBall und Madcat69
Zurück
Oben