Man wird auch mit "wenig" Grafikspeicher alles Spielen können. Die Optimierung des Speicherverbrauchs seitens der Spiele wird dann einfach so aussehen, dass die Texturen dynamisch in unterschiedlichen Detailstufen geladen werden. Das Spiel läuft dann prinzipiell auch mit 6-8GB, die Entfernung ab der die geringer aufgelösten Texturen genutzt werden, ist dann halt nur kleiner. Das Nachladen/Wechseln auf die Highres-Textur ist dann deutlicher wahrnehmbar, weil nicht so viel Highres-Texturen im Speicher gehalten werden können.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce RTX 4000: Nvidia will es bei Lovelace noch einmal klassisch wissen
- Ersteller Jan
- Erstellt am
- Zur News: GeForce RTX 4000: Nvidia will es bei Lovelace noch einmal klassisch wissen
Cohen
Commodore
- Registriert
- Aug. 2010
- Beiträge
- 4.576
Besonders bei Gebrauch der neuen Fähigkeiten der XBOX Series S mit ihrem Gesamtspeicher von 10 GB... da wird ein PC-System mit 16 oder 32 GB Hauptspeicher + 10 GB Grafikspeicher im Vergleich gnadenlos wegknicken. ;-)ArrakisSand schrieb:Eine solche Karte kauft man sich doch nicht nur für den Moment wir sind doch keine Eintagsfliegen, sondern die Meisten wollen diese dann auch ein paar Jahre behalten und da wird sie gnadenlos wegknicken sobald die ersten Spiele kommen werden die Gebrauch von den neuen Fähigkeiten der PS5 / XBOX series s/x machen.
V
VoAlgdH
Gast
Vor allem bei den Stromkosten. Die werden weiter steigen und steigen...rentex schrieb:Hauptsache alles in einen Topf schmeissen🙄
Bei Stromkosten könnte ich dir die Ohren langziehen, glaubt man ja nicht.
Aber hey, man kann sich schon mal über immer höhere Lebenshaltungskosten lustig machen...
Zuletzt bearbeitet von einem Moderator:
chilchiubito
Lt. Junior Grade
- Registriert
- Juli 2010
- Beiträge
- 373
Habe erst kürzlich vor Release der Ampere Gen das Netzteil von 550W auf 750W aufgerüstet, werde das so schnell nicht nochmal upgraden.
Wenn ich die evga 3080 FTW3 saufen lasse, zieht die auch ihr 430W. Das ist zwar noch irgendwie kühlbar, mir persönlich aber zu laut.
Würde ab dem Wattverbrauch auch ehr zu AIO oder gleich Custom-Loop greifen.
Hach wie schön war die 1080 ti mit ihren aus heutiger Sicht genügsamen 280W.
Wenn ich die evga 3080 FTW3 saufen lasse, zieht die auch ihr 430W. Das ist zwar noch irgendwie kühlbar, mir persönlich aber zu laut.
Würde ab dem Wattverbrauch auch ehr zu AIO oder gleich Custom-Loop greifen.
Hach wie schön war die 1080 ti mit ihren aus heutiger Sicht genügsamen 280W.
Blumentopf1989
Commander
- Registriert
- Okt. 2010
- Beiträge
- 2.741
Asus TUF Gaming RTX 3070 8G OC mit 1440pHi-Fish schrieb:Bei welcher Auflösung? Meine 3070 FE braucht beim Spielen @ WQHD und ~97% Last unter 200W, selten geht sie dabei mit 204W knapp über die "normalen" 197W....
Ergänzung ()
Klever schrieb:@Blumentopf1989
Das erwarte ich auch, eine AiO Lösung im Angesicht des Verbrauchs von >400 Watt wäre da ziemlich effektiv.
Die Güte und Lautstärke der Pumpe wird da aber vom Hersteller abhängen, wird wohl schlechtere und bessere geben wie bis jetzt auch.
Dass die alle im Idle unangenehm sind, kann ich für mich nicht bestätigen, bei mir werkelt eine 2080 Ti mit AiO-Kühlung von Arctic und die Pumpe ist da in Idle für mich so gut wie unhörbar und nicht störend.
Ich bin da extrem empfindlich, mein Gehör ist auch deutlich besser als der Durchschnitt laut HNO. Ich höre Pumpen die sonst als quasi lautlos beschrieben werden.
Fighter1993
Vice Admiral
- Registriert
- Juli 2009
- Beiträge
- 6.938
So denke ich auch aber wenn ich Cyberpunk sehe kröst da selbst meine 6900XT mit gerade einmal rund 80 fps @wqhd rum.JMP $FCE2 schrieb:Mehr Leistung brauche ich nicht, weil mir der 4k-Hype am A... vorbeigeht. WQHD 144Hz reichen mir voll und ganz, und auch noch mit gut implementiertem DLSS 2.0.
Neuere Spiele werden ja jetzt nicht anspruchsloser.
eastcoast_pete
Lt. Commander
- Registriert
- Juni 2020
- Beiträge
- 1.669
Jetzt finde ich es eigentlich gut, daß NVIDIA wichtige Mathematiker ehrt, in dem sie ihre GPU Generationen nach diesen benennt. Wenn ich mir aber dem Stromverbrauch dieser Teile so angucke, wäre " Powerhog" doch etwas ehrlicher 🙂
rentex
Commander
- Registriert
- Juli 2004
- Beiträge
- 3.016
Wer macht sich über höhere Lebenshaltungskosten lustig?DerHechtangler schrieb:Vor allem bei den Stromkosten. Die werden weiter steigen und steigen...
Aber hey, man kann sich schon mal über immer höhere Lebenshaltungskosten lustig machen...
tackleberry schrieb:Für die PS5 kann man da sicher auch nen Mining Client schreiben. Wundert mich, dass es sowas noch nicht auf Github gibt.
solange man die kiste nicht rootet, damit die auch code ausführt, der nicht von sony signiert ist, passiert in der richtung gar nichts .
Einfallslos^99
Lt. Commander
- Registriert
- Jan. 2019
- Beiträge
- 1.132
Das hört sich alles so ernüchternd an, auch wenn die Perf/Watt steigen sollte.
Ich war schon mit meiner alten Mühle damals ( r5 2600, rx 580 pulse) bei guter Auslastung von der Hitze genervt. Wobei das gesamte System ca auf ca 250-300 Watt kam.
Hier sprechen die nur bei der GPU von über 400 Watt. Die Stromrechnung macht mir da nicht wirklich sorgen (Umwelt ausgenommen), aber die Hitze...
Xbox Series X und Steam Deck wird es.
Valve ist anscheinend gar nicht mal so blöd, die werden einige Kunden wie mich auf die Art abfangen.
Ich war schon mit meiner alten Mühle damals ( r5 2600, rx 580 pulse) bei guter Auslastung von der Hitze genervt. Wobei das gesamte System ca auf ca 250-300 Watt kam.
Hier sprechen die nur bei der GPU von über 400 Watt. Die Stromrechnung macht mir da nicht wirklich sorgen (Umwelt ausgenommen), aber die Hitze...
Xbox Series X und Steam Deck wird es.
Valve ist anscheinend gar nicht mal so blöd, die werden einige Kunden wie mich auf die Art abfangen.
ArrakisSand
Lieutenant
- Registriert
- Dez. 2019
- Beiträge
- 859
Na ja, für die XBOX Series S (notabene eine 1080p Konsole) mit ihrer UVP von 299€ wird es zu Beginn dieses Konsolenzyklus wohl noch knapp reichen.Cohen schrieb:Besonders bei Gebrauch der neuen Fähigkeiten der XBOX Series S mit ihrem Gesamtspeicher von 10 GB... da wird ein PC-System mit 16 oder 32 GB Hauptspeicher + 10 GB Grafikspeicher im Vergleich gnadenlos wegknicken. ;-)
Aber ist das wirklich dein Anspruch den du an eine 720€ UVP (Strassenpreise >1200€) Grafikkarte stellst?
1080p wirklich?
Beitrag
Fleet Admiral
- Registriert
- Nov. 2011
- Beiträge
- 10.793
Naja, ich finde aber, dass gerade die Texturen und die Details sowie deren Sichtweite mit am meisten in die optische Gesamtqualität reinspielen. Zumal höher aufgelöste Texturen auch kaum GPU-Performance kosten, sondern eben eher nur VRAM.mibbio schrieb:Man wird auch mit "wenig" Grafikspeicher alles Spielen können. Die Optimierung des Speicherverbrauchs seitens der Spiele wird dann einfach so aussehen, dass die Texturen dynamisch in unterschiedlichen Detailstufen geladen werden. Das Spiel läuft dann prinzipiell auch mit 6-8GB, die Entfernung ab der die geringer aufgelösten Texturen genutzt werden, ist dann halt nur kleiner. Das Nachladen/Wechseln auf die Highres-Textur ist dann deutlicher wahrnehmbar, weil nicht so viel Highres-Texturen im Speicher gehalten werden können.
Ich würde lieber "zu viel" als zu wenig VRAM nehmen und dafür über die gesamte Nutzungszeit der GraKa zumindest die Texturen immer in bester Quali zu haben.
Hab mich 2012 für eine Radeon HD 7870 XT entschieden - im Prinzip fast 1:1 eine 7950 aber mit nur 2 statt 3 GB. Guess what - mir ist der VRAM vor der GPU-Leistung zu knapp geworden und ich musste mit Matschtexturen spielen.
Aber vielleicht gibt es hier ja langfristig Besserung. HBCC, Infinity Cache, Direct Storage - vielleicht wird man irgendwann gut genug die Inhalte dynamisch reinzuladen, dass der VRAM-Bedarf nicht mehr weiter steigt.
Zumindest mittelfristig erwarte ich aber, dass die GraKas mehr VRAM bringen werden, die Spiele entsprechend nachziehen und der Speicherverbrauch weiter ansteigt.
Klever
Lt. Commander
- Registriert
- Dez. 2020
- Beiträge
- 1.393
chilchiubito schrieb:Hach wie schön war die 1080 ti mit ihren aus heutiger Sicht genügsamen 280W.
Die 2080 Ti war auch ist auch entsprechend genügsam, der FE hat 250W gebraucht. Customs gehen zwar bis 320-350 Watt wenn man den Power Limit anhebt, aber auch das ist mMn vertretbar.
Ja, meine Antwort bezog sich ja auch auf die Aussage, dass die Entwickler halt auf 6-8Gb Grafikspeicher optimieren und man deswegen ja keine 16GB bräuchte, damit auch aktuelle Spiele laufen.Beitrag schrieb:Zumal höher aufgelöste Texturen auch kaum GPU-Performance kosten, sondern eben eher nur VRAM.
Nur besteht diese Optimierung dann halt am Ende darin, mit (aggressivem) LOD bei den sichtbaren Texturen zu arbeiten.
xexex schrieb:Demnächst kommen mit Sampler Feedback und DirectStorage zunächst einmal Techniken auf den PC, mit den sich der VRAM auf der GPU von vorne rein einsparen lassen kann.
Sowas von richtig und die 10 GB einer 3080 sollten länger reichen als die Rechenleistung, ich weiß auch nicht wie man hier 32 oder 48 GB VRAM bei der nächsten Generation erwarten kann, das wäre absolute Verschwendung.
Es wird immer für PS5/XSX optimiert und da dort maximal 11/10 GB als VRAM zur Verfügung stehen, halte ich mehr als 24 GB für sinnlos, egal wieviele Zusatzfeatures und Mods man in die PC Version integriert.
DirectStorage ersetzt aber keinen Grafikspeicher, sondern erweitert ihn nur. Daten, bei denen Geschwindigkeit wichtig ist, will man ja trotzdem möglichst direkt im Speicher auf der Karte haben. Da ist Grafikspeicher in Form von GDDR6(X) doch noch um einiges schneller als eine per DirectStorage eingebundene PCIe 4.0 SSD.xexex schrieb:Demnächst kommen mit Sampler Feedback und DirectStorage zunächst einmal Techniken auf den PC, mit den sich der VRAM auf der GPU von vorne rein einsparen lassen kann.
Zuletzt bearbeitet:
V
VoAlgdH
Gast
Damit habe ich mich auf deinen Beitrag vorher bezogen, wo alles "in einen Topf geworfen" wurde.rentex schrieb:Wer macht sich über höhere Lebenshaltungskosten lustig?
Also dir quasi zugestimmt^^.
Flyerdommo
Lieutenant
- Registriert
- Jan. 2017
- Beiträge
- 663
Ich würde gerne bei Herauskommen der nächsten Grafikkartengeneration meine geschätzte 1080 Ti FE durch ein leistungsstärkeres, effizienteres Modell ersetzen, am liebsten durch ein Zweislotdesign. Vielleicht wird es eine 4070 werden, sofern die TDP bei rund 260 Watt liegen sollte und die Temperaturen niedrig ausfallen. Bin aber auch offen für eine AMD-Karte. Sollte dann für MSFS2020 und Elite Dangerous in 4K teichen....
Leereiyuu
Lieutenant
- Registriert
- März 2020
- Beiträge
- 584
Da stimme ich dir uneingeschränkt zu. Ich habe in meinem Büro zwei PCs, aber selbst wenn nur mein Gaming Rig mit Ryzen 3600 & RTX3070 läuft, steigt die Raumtemperatur schon merklich an.Obvision schrieb:Da merkt man dann doch schon steigende Raumtemperaturen, was die Hälfte des Jahres wenig Spaß macht
Dann existiert aber noch der Rechner meiner Frau auch noch in dem Raum (Ryzen 3600 & RTX 2070), wenn der auch läuft, dann wirds schon echt nennenswert wärmer.
Wenn jetzt die Grafikkarte mal eben den doppelten Stromhunger hat, dann brauch ich eine Klimaanlage...
Nicht. Geil.
Ähnliche Themen
- Antworten
- 53
- Aufrufe
- 6.227
- Antworten
- 3.747
- Aufrufe
- 346.443
- Antworten
- 166
- Aufrufe
- 25.536
- Antworten
- 113
- Aufrufe
- 13.060
- Antworten
- 70
- Aufrufe
- 8.192