ElliotAlderson
Lt. Commander
- Registriert
- Juni 2024
- Beiträge
- 1.155
Alles hat negative Aspekte, wieso machst du hier also den Cut?Syrato schrieb:Ich jedoch werde FG nicht nutzen, solange es noch negative Aspekte hat.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Alles hat negative Aspekte, wieso machst du hier also den Cut?Syrato schrieb:Ich jedoch werde FG nicht nutzen, solange es noch negative Aspekte hat.
Und wieso hast du das ohne FG nicht? Artefakte treten auch so auf und ich hab ehrlich gesagt noch nie welche bei FG wahrgenommen.DevPandi schrieb:Nein, mit der Nähe zum Monitor hat das nichts zu tun. Das Problem kommt bei mir eher daher, dass ich bei FG unterbewusst auf gewisse Artefakte reagiere. Ist in dem Fall auf meine Hypersensibilität zurückzuführen.
Das mag ja richtig sein, aber es ändert nichts an der Tatsache, das für 30% mehr Rohleistung entsprechende Preise aufgerufen werden, die mit den "AI Frames" korrelieren. Viele Tuber nennen die AI schon "Fake-FPS". Ist an sich auch richtig.Kraeuterbutter schrieb:wenn die Meisten (in Zukunft) DLSS nutzen werden, warum soll es dann so wichtig sein für normale User, dass Raw-Leistungen verglichen werden
das spiegelt dann nicht das wieder, was in der Praxis dann erfahren wird, nämlich: sehr viel mehr Fps
Aus dem selben Grund warum all diese hübschen tech Demos und Features immer bei langsamer Bewegung und ruhigen Umgebungen gezeigt werden.FU_long schrieb:aber Witcher 3 funktioniert z.B. perfekt
Wo soll der herkommen? Die Fertigung ist die selbe.PS828 schrieb:Was stehen bleibt sind ein Viertel mehr Fläche, Transistoren und Stromverbrauch und raus kommen vielleicht 30% Mehrleistung sodass die Leistung pro Chipfläche ungefähr gleich bleibt.
Wirklicher Fortschritt sieht anders aus.
Einfach ist das eben tatsächlich nicht. Denn je mehr Kerne man reinpackt, umso anspruchsvoller wird es, die auch alle auslasten zu können. Man sieht ja schon, dass zwischen den Modellen der Leistungsunterschied nicht so groß ist wie der Unterschied an Cores, was bei noch größeren Anzahlen nur noch schlimmer wird.PrimeskyLP schrieb:Ich bin zwar kein Chip designer aber hätte man da nicht einfach mehr RT Kerne und Cuda Kerne reinpacken können für mehr Leistung?
Sowas nenne ich gerne Deppensteuer. Leute, die sie nur kaufen, weils halt die größte Geforce ist und sie die haben müssen (Ja, es gibt auch Leute, die sich ganz bewusst für diese Performance entscheiden - das finde ich völlig ok, mir gehts nur um die, die einfach aus Prinzip kaufen).FU_long schrieb:Keine Ahnung, warum sich hier soviele auf die 5090 einschießen. Nvidia sollte sie wirklich wieder anders benennen, sodass sofort klar ist, dass diese Karte nicht auf das FullHD/WQHD/60fps Publikum abzielt.
Zum Beispiel aus Architekturverbesserungen. Die gab es auch, aber halt nur für AI Workflows sodass diese für den Heimnutzer nicht relevant sind und dennoch mit bezahlt werden während die eigentliche Kernanwendung sehr viel geringer profitiert als es suggeriert wird.ElliotAlderson schrieb:Wo soll der herkommen?
PS828 schrieb:Bewegt man sich wirklich schnell bzw schmeißt die Maus umher geht das geflacker und geglitsche los. Das hat man dann ewig im Augenwinkel und oftmals auch an den Kanten des Charakters. Von der ständigen Unschärfe hab ich da noch garnicht gesprochen. Bildruhe und Klarheit hat die gaming Industrie komplett verlernt weil man sich mit vorgefertigten Schaufensterlösungen wie diesen zufrieden gibt
Man ist den Schritt mit RT/PT gegangen, weil genau das eben nicht funktioniert. Einfach mehr von allem resultiert zwar weiterhin auch in mehr Leistung, aber das mehr schrumpft immer weiter und wir sind an dem Punkt, wo RT/PT sinniger/effizienter als Raster ist.PrimeskyLP schrieb:Ich bin zwar kein Chip designer aber hätte man da nicht einfach mehr RT Kerne und Cuda Kerne reinpacken können für mehr Leistung? AI hin oder her ist zwar nice to have bei Consumer karten aber sowas sollte eigendlich eher bei Profesionellen Karten oder eigen TPU Karten zuhause sein.
Man kann Architekturen aber nicht unendlich verbessern. Blackwell ist mittlerweile die x-te Generation von Nvidia. Irgendwann ist da schlichtweg nichts mehr mit verbessern.PS828 schrieb:Zum Beispiel aus Architekturverbesserungen. Die gab es auch, aber halt nur für AI Workflows sodass diese für den Heimnutzer nicht relevant sind und dennoch mit bezahlt werden während die eigentliche Kernanwendung sehr viel geringer profitiert als es suggeriert wird.
Das ist perse nicht schlimm. Dem muss man sich aber bewusst sein
Habe bei mir das alles aus weil es mich nicht wirklich stört, und wenn es doch etwas Extrem ist je nach Game mache ich MSAA auch der niedrigsten Stufe an.ElliotAlderson schrieb:Ohne AA hast du flickern und flackern aus der Hölle. Mit DLSS flickert/flackert da gar nichts.
In Indiana Jones hast du dann wie gespielt? Mit TAA, dass noch schlimmeres Ghosting und Smearing aufweist? Achso.
Warum auch nicht, in den ersten Videos die man gesehen hat sieht es hal einfach nur Mau aus und dafür braucht man dann bei 1080p DLSS zwingen für 60 FPS ????? Wie kann es dan sein das RDR2 so unfassbar gut Ausschaut und selbst noch auf meine GTX 1080 in WQHD bei Mittleren und Hohen settings 60 bis 90 FPS bekomme? Das Game ist einfach 0 Optimiert und die geben es sogar selber zu mit den Specs die man braucht.ElliotAlderson schrieb:Irgendwie witzig, dass du über ein Spiel urteilst, das noch gar nicht erschienen ist und das dann als Beispiel dafür aufführst, dass Spiele unoptimiert sind.
Das neue Monster Hunter istn Open World Spiel. Diese Art von Spielen hat schon immer extrem Leistung gefressen und sah dabei nicht gut aus. Das war noch nie anders.
WoW hat Comicgrafik und lief in Raids wie ein Sack Schrauben auf Highend PCs, aber Hauptsache der AMD Fanboy hat mal wieder gegen DLSS geschossen mimimi![]()
Du beschwerst dich also über flimmern/flackern, aber schaltest sämtliche AA Techniken aus, die dafür sorgen, dass genau das nicht passiert? Muss man nicht verstehenPrimeskyLP schrieb:Habe bei mir das alles aus weil es mich nicht wirklich stört, und wenn es doch etwas Extrem ist je nach Game mache ich MSAA auch der niedrigsten Stufe an.
Monster Hunter istn MMO, RDR2 nicht und RDR2 ist recht leer und so geil sieht das heute auch nicht mehr aus. Lief auf meiner 2080 TI mit 40 FPS in 1080p. Wo ist das optimiert?PrimeskyLP schrieb:Warum auch nicht, in den ersten Videos die man gesehen hat sieht es hal einfach nur Mau aus und dafür braucht man dann bei 1080p DLSS zwingen für 60 FPS ????? Wie kann es dan sein das RDR2 so unfassbar gut Ausschaut und selbst noch auf meine GTX 1080 in WQHD bei Mittleren und Hohen settings 60 bis 90 FPS bekomme? Das Game ist einfach 0 Optimiert und die geben es sogar selber zu mit den Specs die man braucht.
Falsch. Du hast immer ein Limit: die Physik.PS828 schrieb:Hättest du das auf die Fertigung bezogen hätte ich dir in Ansätzen zustimmen können aber gerade beim chip Design hat man unbegrenzt Möglichkeiten. Und wenn man doch mal für eine Bauweise an ein Limit stößt.. ja dann baut man eben ein neues Design was diese Limits nicht hat.
Wie ich geschrieben habe, im Verhältnis zur 90er karte.pacifico schrieb:Hmmm wo siehst du das bei den 5000er Karten?
Fighter1993 schrieb:Hast du meinen Post gelesen?
Durch sein Verhalten und das vieler andere ist das alles ausgelöst worden.
Mit nem 3.1 Netzteil wird es das angeblich nicht mehr geben. Die Anderen mit 3.0 und weniger müssen halt genau schauen, dass der Stecker auch richtig sitzt bzw. einrastet. Von den Specs an sich mach ich mir da keine Sorgen.Sebbi schrieb:ich bin mal gespannt, ob es diesmal wieder verschmorte 12V-2x6 gibt, wenn man den Stecker jetzt noch wesentlich mehr an der Grenze betreibt als es bei der 4090 der Fall war - 575 W alleine für die Graka ....