SweetOhm
Lt. Commander
- Registriert
- Juli 2023
- Beiträge
- 1.147
Und wird 2,5 mal soviel Strom verbraten ...HerrRossi schrieb:Und dafür auch viermal so teuer
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Und wird 2,5 mal soviel Strom verbraten ...HerrRossi schrieb:Und dafür auch viermal so teuer
Ich schrieb dass weil hier so viele mit RX7800XT Performance Karten (Zb Rx6800XT) auf eine RX8800XT schielen.theGucky schrieb:Keine Frage, aber diese Preise gibt es nicht mehr und sind HEUTE irrelevant.
Da steckt einiges im Detail, man kann diese Details aber oft abstellen und dann läuft es flüssiger.D3xo schrieb:Ich zocke zur Zeit Enshrouded und ich bin gezwungen Upscalling zu benutzen um auf 60 FPS in 1440P zu kommen. Und die Grafik im Spiel ist bestenfalls als zweckmäßig zu bezeichnen. Da kann ich mir auch gleich ein 1080P Monitor kaufen. Die Anforderungen von aktuellen spielen sind einfach nur lächerlich.
Die 12 GB der 5070 gelten bereits als gesetzt.theGucky schrieb:Bisher sind nur alles Gerüchte. Es ist nicht garantiert das die 5070 nur 12GB VRAM haben wird. Die könnte auch mit 18GB kommen, 3Gb chips z.b.
Und weil wir vor 2026 eher 2027 keine neuen Konsolen sehen werden, wird das mit den 12 GB auch kein riesengroßes Problem in der Zielauflösung WQHD. Die 12 GB reichen in 98% aller Fälle heute sogar für UHD.SweetOhm schrieb:Die 12 GB der 5070 gelten bereits als gesetzt.
DevPandi schrieb:Der VRAM-Bedarf wird in der Regel alleine durch die komplexität der Meshes sowie der Auflösung der Texturen bestimmt. An dieser Stelle kann man heute nicht mehr sehr viel "optimieren".
DevPandi schrieb:Und die Alternativen die es gibt - DirectStorage mit DX12-Sampler-Feedback - können zwar den VRAM-Bedarf senken, könnten am Ende aber sich negativ auf die Energiebilanz auswirken,
Glaub mir, ich habe schon alles versucht. Das Spiel reagiert auf fast nichts, nur mit der Beleuchtung kann man ein paar zusätzliche FPS gewinnen. Alles Andere zeigt keine Wirkung, du kannst auch fast alles komplett deaktivieren. Das sind die sogenannten „ Pseudo-Slider“ die nicht bringen. Das Spiel reagiert nur wenn man FSR3 aktiviert.theGucky schrieb:Da steckt einiges im Detail, man kann diese Details aber oft abstellen und dann läuft es flüssiger.
Gerade in UE5 saugen diese Details viel Leistung.
Das ist doch ignorant. Gibt dazu etliche Videos (gerade auch kürzlich von HU) die viele Titel hinsichtlich ihrer RT und besserer Optik untersucht haben.. Das Fazit ist mehr oder weniger, das nur eine Handvoll Titel überhaupt einen sichtbaren Unterschied bieten (und von denen kann man noch einige abziehen, wo RT teilweise schlechter aussieht). Lediglich weniger als 5 Spiele lohnen sich mit RT.. Und bei denen ist RT so hoch eingestellt, daß selbst 4070 und darunter damit Probleme haben. HU kam zu dem Schluß, daß ein high Refresh/high FPS Erlebnis wesentlich eindrucksvoller ist als korrekte Schatten und GI. Und das Argument, daß RT den Entwicklern Arbeit abnimmt ist nur die halbe Wahrheit, denn solange die Mid und Low Level Karten RT nicht gut beherrschen, muessen die Devs beides machen.. Fake Schatten und Illu und RT.Quidproquo77 schrieb:RT ist der Goldstandard, wenn da etwas nicht positiv aufgenommen wird, dann liegt es entweder an mangelndem Verständnis oder an Grabenkämpfen. In 1-2 Jahren wird diese Debatte niemand mehr führen.
Egal wie oder was Du sagst/schreibst, wird immer fehl interpretiert und dann die "falschen" Worte Dir in den Mund gelegt und Be- Nachweise gefordert. Wenn diese nicht lieferst (für die Unterstellung) bist eh ein Cherry Fanboy ...DevPandi schrieb:Ich habe an keiner Stelle geschrieben, dass AMD hier die bessere Produkte abliefert und dass die Leute dennoch zu Nvidia greifen.
Dann hast du mich und meinen ersten Beitrag an dich an dieser Stelle falsch aufgefasst
Ich habe auf deine ursprüngliche Aussage nach der Feststellung von DLSS und RT ganz bewusst "Ja und Nein" geschrieben.
Habe ich das geschrieben? Nein.
Ich habe hier an keiner Stelle geschrieben, dass AMD das bessere P/L-Verhältnis hat.
Das haben/tun sie schon seit mind. einer Dekade (bzgl. besseres PL Verhältnis).kachiri schrieb:Aber irgendwas muss man sich als AMD-Fan einfach schönreden. Vielleicht überrascht uns AMD aber tatsächlich hinsichtlich der Leistung und Preisgestaltung.
Ist das ein diffuses Gefühl basiert dieser Annahme aufgrund Fakten?jonderson schrieb:Immer weniger Spieler für die Hardware und auch immer weniger Käufer für Computerspiele, was ebenfalls den Markt schwächt und die Rentabilität von aufwendigen Spielen in Frage stellt...
Aller Anfang ist schwer. Aber wenn ich mir alleine Warthunder anschaue, mit der echt alten Engine und dem neuen Update bei dem RT reingepatcht wurde, ist der optische Unterschied gewaltig zum positiven. RT wird Standard, da geht kein Weg daran vorbei.F4711 schrieb:RT Frist mehr Leistung als es hergibt. Deswegen ist die Entwicklung in dem Bereich auch so schleichend und muss von NV weiter finanziell gefördert werden, damit die Devs den Extraaufwand betreiben
Äpfel und Birnen, würde ich sagen. Da hätte ich auch mein Smartphone anführen können und das kann mehr als die PS4. Ich hab mich auch für eine APU entschieden und bin damit sehr zufrieden. Es gibt aber nun mal Anwendungen auch abseits von Spielen, wo eine dGPU unumgänglich ist. Da sind 260W stock durchaus effizient.wechseler schrieb:Meine PS4 und PC-GPU brauchen jeweils 75 W, und meine Zen-APU braucht 25 W.
250-300 W gab es bei mir nie, und wird auch nie kommen.
Nana, das mit dem Power-Budget aber noch nicht drin.Boimler schrieb:Da hätte ich auch mein Smartphone anführen können und das kann mehr als die PS4.
Die Anwendungen habe ich nicht. Der PC hat in seinem ganzen Leben 2x 75 W PCIe PWR (so gegen 2011) nie überschritten. Das war bei 40 nm. Ich muss da jetzt nicht 600 W reinjagen, nur weil der neue Stecker das kann.Boimler schrieb:Es gibt aber nun mal Anwendungen auch abseits von Spielen, wo eine dGPU unumgänglich ist. Da sind 260W stock durchaus effizient.
Und aus dem gleichen Grund wird Nvidia wahrscheinlich weiter so knausrig beim vram der Spielekarten bleiben.DrFreaK666 schrieb:Weil sich die 4090 sehr gut für ML eignet.
Ein Kollege hat sich die 4090 bestimmt nicht für Stellaris gekauft. Er hätte aber gerne 48GB
Das glaube ich nicht mal sie waren mit RDNA2 ja schon drin, RDNA3 ist/war für NB viel zu ineffizient gegen Nvidia, im Desktop scheinbar zu teuer in der Herstellung als das es sich für AMD lohnen würde.DevPandi schrieb:Genau, und leider verschläft AMD das im Notebook und Desktop-Markt.