News Gaming-Grafikkarten: Welche GPU habt ihr im PC und wie viel Watt darf die ziehen?

Calid schrieb:
Anscheinend haben die Leute Geld wie Heu. Bin absolut dafür dass NV wieder kräftig die Preise anhebt 👍 die Leute sind geldig genug um absolute Mondpreise zu zahlen. 😄
Soll mir recht sein. Die 4090 ist von Gewinnen aus Nvidia Aktien bezahlt worden. (und eigentlich auch die Grafikkarten der nächsten 10 Jahre :D). Wenn die höheren Preise die Nvidia Aktie noch mehr pushen langt's halt die nächsten 20 Jahre. "The more YOU buy the more I save" :evillol:
 
  • Gefällt mir
Reaktionen: Calid
Verak Drezzt schrieb:
Es ist allein schon witzlos für Grafikkarten die 2020 mit einer 3080/6800XT released wurden, nach vier Jahren immer noch 500€ und mehr hinlegen zu müssen die mit selbiger Leistung daher kommen und wo eine 6800XT ne UVP von 650€ hatte.

Könnt ja mal schauen was es von 2015 bis 2019 an Leistungssteigerung in dem Preisbereich gab

Das hat aber auch andere Vorteile: Mit meiner GTX 1080 aus 2016 kann ich auch heute, 8 Jahre nach Release der Karte immer noch gut aktuelle Titel spielen (zumindest auf Full HD). Stell dir mal vor man hätte 2015 mit einer Karte aus 2007 einen aktuellen Titel spielen wollen. Der 2015er Titel wäre vielleicht ein DX12 Titel gewesen, während die 2007er Karte noch das DX10 Featureset hätte. Da hätte man sich erst gar keine Sorgen um Low FPS machen müssen, weil das Spiel erst gar nicht gestartet wäre. :D
 
Das spannendste an der 4090 finde ich ja die Möglichkeit via UV und PL die Leistungsaufnahme auf rund 350 W zu drosseln bei nahezu gleicher Performance bzw. deutlich höherer Performance als die 4080 stock mit 320 W. Also vom Preis-Leistungsverhältnis mal abgesehen finde ich die technische Möglichkeit und die Spielereien super spannend, auch wenns bei mir dann doch nur für ne "günstige" 4080 von Palit gereicht hat.
 
Dass die Mehrheit hier eine 4090 hat, zeigt wieder eindeutig dass Jensen jeden Preis verlangen kann. Neulich hatte einer aus dem Forum behauptet auch 2500€ für die 5090 wären voll i.O. :lol:
 
dgschrei schrieb:
Soll mir recht sein. Die 4090 ist von Gewinnen aus Nvidia Aktien bezahlt worden. (und eigentlich auch die Grafikkarten der nächsten 10 Jahre :D). Wenn die höheren Preise die Nvidia Aktie noch mehr pushen langt's halt die nächsten 20 Jahre. "The more YOU buy the more I save" :evillol:
Wir verstehen uns 😁
 
jetzt konnte ich gar nicht abstimmen, dass meine karte nur zwei slots belegt 😭 🙈 😅
 
  • Gefällt mir
Reaktionen: Calid
Booth schrieb:
Mit meiner RX 6800 habe ich keine Probleme mit geringer Leistungsaufnahme bei älteren Spielen oder Spielen die wenig Ressourcen brauchen. Die zieht auch gern mal unter 100 Watt. Ohne "Fummelei". Hat mehr Reserven als die 4060ti. Die angegebenen 250 Watt TDP habe ich noch nie erreicht. Selbst wenn ich Cyberpunk mit hohen Details auf 2k spiele, lande ich bei ca. 210 Watt. Wenn ich auf 60 Hz begrenze bei deutlich unter 200 Watt (170-180).

Davor hatte ich kurze Zeit eine 6600xt die auch ziemlich sparsam für AMD Verhältnisse war, aber auch etwas schwächer als die 4060.

Die 4060 ist sicher deutlich effizienter. Aber Deine Aussage dass alle AMD Karten hier Probleme, kann ich schlicht nicht bestätigen ... bzw sogar Widerlegen.

Dann hast vllt keine zwei 4K Screens, oder sogar nur einen.

Mein Test war zwei 4K Screens und einer läuft mit 120Hz der andere mit 60Hz, auf einem Monitor läuft Twitch und auf dem anderen zocke ich Mini Motorways in 4K.

Mit einer 7800XT Hellhound welche ich mir gekauft hatte, zog das System mind. 80W mehr als das System mit 4060Ti, in genau dem gleichen Szenario.

Laut GPU-Z war die 7800XT bei 90-100W, die 4060Ti bei 30W...

Gemessen an der Wand.

Mit der 7900XT welche ich über 1 Jahr hatte war es vermutlich ähnlich schlecht, mir fehlte einzig der Vergleich mit einer NV.

Ich wusste was ich im idle mit den zwei 4K Screens verbrauchte, und was wenn Youtube läuft, oder YT+Twitch.

Auch die Verbräuche aus allerlei Reviews und da wurde den AMDs immer ein schlechter Verbrauch bei Youtube etc gemessen, bei mir war er aber niedriger, vermutlich weil ich in YT kein 4K ausgewählt hab.

Aber mit der 7800XT wars gefühlt schlimmer als mit der 7900XT, die lief quasi durchgehend auf 30w, selbst im absoluten idle, wo die 7900XT vorher unter 20w ging.

Das deine 6800 läuft wie du es sagst, dagegen sag ich gar nichts, aber solange du keine 7000er und NV gegentesten konntest, kannst du da relativ wenig widerlegen...

Und mit Fummelei meinte ich übrigens, Anpassung des Taktes und Lüfters der 7900XT im Treiber, da konnte ich auch ohne Probleme 100W Verbrauch reduzieren mit 5-10% weniger FPS.
 
aid0nex schrieb:
Das hat aber auch andere Vorteile: Mit meiner GTX 1080 aus 2016 kann ich auch heute, 8 Jahre nach Release der Karte immer noch gut aktuelle Titel spielen (zumindest auf Full HD). Stell dir mal vor man hätte 2015 mit einer Karte aus 2007 einen aktuellen Titel spielen wollen. Der 2015er Titel wäre vielleicht ein DX12 Titel gewesen, während die 2007er Karte noch das DX10 Featureset hätte. Da hätte man sich erst gar keine Sorgen um Low FPS machen müssen, weil das Spiel erst gar nicht gestartet wäre. :D

Dafür erschienen zwischen 2007 und 2015 auch noch ein paar mehr Blockbuster-Games (teilweise sogar noch ein paar PC-Exclusives mehr). 4-6 Jahre Entwicklung Minimum sind ja der Standard, quasi eine Verdoppelung. https://www.purexbox.com/news/2023/...es-with-2-3-years-development-cycles-are-over Bei Starfield warens 8, bei BG3 trotz bestehender Technologie noch immer 7. Entsprechend fallen Pascal und Co. auch jetzt erst so langsam durchs Raster.

Und selbst Sony stellte neulich seine PS5 Pro entsprechend vor allem so vor: "Alte Schinken und CrossGen-Titel, jetzt enhanced!". :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aid0nex und Colin -
Booth schrieb:
Die 4060 ist sicher deutlich effizienter. Aber Deine Aussage dass alle AMD Karten hier Probleme, kann ich schlicht nicht bestätigen ... bzw sogar Widerlegen.
Da wird auch viel Bohei um wenig Probleme gemacht.
Ja, RX6000 war ineffizienter als RTX3000. Aber sie war schon effizienter als RTX 2000. Der Unterschied war also weniger als eine Generation.
Dat is nu nich soooo wild.
 
snaapsnaap schrieb:
AMDs Karten sind einfach so unglaublich ineffizent es ist zum heulen [...]
Das deine 6800 läuft wie du es sagst, dagegen sag ich gar nichts [...]
...kannst du da relativ wenig widerlegen...
Deine ganzen Spezialfälle sind relativ wurscht. Du hast allgemein von AMD Grafikkarten im ersten Posting geredet. Siehe Zitat.
Nun reduzierst Du auf 7000er Grafikkarten... und behauptest einfach "kann ich nicht widerlegen"... ähm... Du hast Dich selber "widerlegt" oder besser gesagt korrigiert. Gibst dies auch irgendwie zu... und irgendwie auch wieder nicht.
Sorry, dass ich überhaupt reagiert habe.
 
Zurück
Oben