Matthias80 schrieb:
wirklich? ich seh mehr Verbrauch
Weil du einfach nur nach Namen vergleichst und nicht nach der Leistungsklasse.
Vergleich doch eine 280Ti mit einer 3070 und einer 4070 super
Name | TDP | Leistung (techpowerup Index) |
2080Ti | 250 Watt | 100 % |
3070 | 220 Watt | 105 % |
4070 Super | 220 Watt | 148 % |
Wo du da nur mehr Verbrauch siehst, ist mir schleicherhaft.
Matthias80 schrieb:
Aber wie lange soll das Spiel so weitergehen?
Solange es wirtschaftlich produzierbar ist. Früher haben sich Enthusiasten 2 bis 4 der dicksten Single GPUs in Crossfire oder SLI in den rechner gepackt. Heute eine High End GPU.
Matthias80 schrieb:
Auch in den unteren Klassen
RTX 3050 | je nach Version 70-115 Watt |
GTX 1650 Super | 100 Watt |
GTX 950 | 90 Watt |
GTX 550Ti | 116 Watt |
Sehe ich nicht. Gibt in den unteren Klassen auch sowas wie eine RX6400 mit 53 Watt
Matthias80 schrieb:
Nur ein Feature was erfunden wurde um ein weiteres feature zu haben um noch teurer zu werden. Niemand braucht 500 FPS.
Jetzt fängt aber das selektive Argumentieren an. Entweder willst du mehr Leistung bei gleichem verbrauch oder nicht. DLSS ist eine einfache Methode das zu erreichen. Und selbst ohne ist das gegeben. Wenn du mit einer 100 Watt Karte mit DLSS deine angepeilte leistung erreichst, statt mit einer 200 Watt karte ohne solltest du doch mehr als zufrieden sein.
Matthias80 schrieb:
4K nativ, geile Grafik bei immer niedrigerem Verbrauch und vielleicht so 150 FPS. Das könnte man Entwickeln. Aber weil es ja 500 FPS und dann 600 und dann 700 sein müssen, braucht man halt solche Spielereien! Das schafft man nicht ohne mehr Verbrauch.
Du wiederspricchst dir an der Stelle selbst. Wenn du weniger leistung brauchst, als die großen Karten bieten, nhem halt eine kleinere, die nur 150 statt 500 FPS schafft, problem gelöst. DLSS wirkt sich immer positiv auf die Effizient und damit die benötigte energie für die Zielframerate aus. Wenn du unbedingt nativ möchtest (sieht bei den ganzen modernen TAA versuchten Spielen meist schlechter aus) dann deaktivierst du es halt.
Skudrinka schrieb:
AMD versucht einen auf effizient zu machen, gleiche Leistung bei erheblich weniger Verbrauch und was passiert? - Sie werden von der Community abgestraft. (Was ich, mit Verlaub, unter aller Sau finde)
AMD macht doch nichts anderes als Nvidia.
Siehe Beispiel 3070 vs 4070 Super, beide 220 Watt, aber über 40% Mehrleistung bei der neuen Karte.
Schaut man sich nun eine 300 Watt 6900Xt gegen eine 300 Watt 7900XT sind es nur ca 25% mehrleistung die man bei gleichem verbrauch bekommt. Ja die leute sind da von Nvidia zurecht ein wenig überzeugter. Und nein das liegt nicht daran, dass das eine Mittelklassekarten sind und das andere Oberklassekarten. Das Bild sieht nicht viel anders aus, wenn man eine 450 watt 4090 gegen eine 450 Watt 3090Ti vergleicht.
Skudrinka schrieb:
Vielleicht sollte man mal wieder nen Gang rückwärts machen, in Spielen Zeit und Fleiß investieren und diese zu optimieren.
ist aber nicht die Aufgabe der Hardwarehersteller, sondern der Softwarehersteller.
Skudrinka schrieb:
Am Ende wird nur das versucht zu liefern, was der Kunde sich wünscht.
Wie sind selber Schuld.
Richtig, der Kunde will mehr Leistung, die GPU hersteller bauen leistungsfähigere Hardware. Wer das nicht möchte, verzichtet halt oder kauft ein kleineres Modell.