Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchfĂŒhren oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchfĂŒhren oder einen alternativen Browser verwenden.
News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail
Aber warum soll ich den mehr geben wenn sie es nicht brauchen und die Leistung trotzdem sehr gut is wĂŒrde doch keine Firma der Welt machen auch du nicht wenn du es entscheiden mĂŒsstest. Sie sind da total ohne Konkurrenz AMD bekommt nicht mal mit 30 VRAM ich weiss ĂŒbertrieben die Leistung hindjducky schrieb:@Boncer
Es gibt einen mittelweg zwischen "VRAM so gut wie gar nicht erhöhen" und "Immer mehr VRAM". Relativ zur leistung sinkt der ja sogar, wenn die 5070 mit 12GB schneller ist als eine 4070 Ti Super mit 16GB. Wo siehst du da "immer mehr VRAM" auĂer bei der 5090?
Bible Black
Lieutenant
- Registriert
- Apr. 2011
- BeitrÀge
- 932
Die 5080 klingt im Angesicht der RTX5070 Ti wie Hohn. Gerade weil man darauf wetten kann, dass entsprechend eine 5080 Ti / Super folgt, welche dann die âwahreâ RTX5080 darstellt.
Zuletzt bearbeitet:
ElliotAlderson
Lieutenant
- Registriert
- Juni 2024
- BeitrÀge
- 1.002
Wenn dem so wĂ€re, wĂŒrde man MFG auch auf alten Karten anbieten. Du brauchst schon auch Hardware, um die Software beschleunigt auszufĂŒhren.DerRico schrieb:NV macht es sich hier leicht - das DLSS 4 / Multi FG-Gedöns kommt aus der Software, die leichte Performanceverbesserung von TSMC und ein paar Cores mehr.
daniel 1301
Lieutenant
- Registriert
- Nov. 2009
- BeitrÀge
- 616
Naja die 5080 hat im Vergleich zur 4080 ~10% mehr Shader und wird bei Far Cry mit ~20-30% Mehrleistung gefĂŒhrt. Bei der 5090 sind es 30% mehr Shader und die Mehrleistung gegenĂŒber der 4090 liegt eher unterhalb der 30%. Von daher hĂ€tte ich auch eher 40-50%+ erwartet. Aber es hatten ja schon andere vermutet daĂ da ggf. die genutzte CPU limitierte.shaboo schrieb:Und erklĂ€rst du uns auch, wo die hĂ€tten herkommen sollen?
FĂŒhle mich daher wie zu Zeiten des 20er Releases, damals hatte ich die 1080ti und als die 2080 kam, passten Mehrkosten und Mehrleistung der neuen Generation irgendwie nicht zusammen, von daher wurde die 20er Generation dann ausgelassen.
Hilft aber alles nichts.. bevor es echte Benchmarks gibt, ist die Diskussion mĂŒĂig.
djducky
Fleet Admiral
- Registriert
- MĂ€rz 2017
- BeitrÀge
- 13.273
@Boncer
Das ist einfach Upselling und natĂŒrlich mangelnder konkurrenz geschuldet. Dass die Karten aber nicht mehr VRAM brauchen, das kann niemand mehr ernsthaft glauben. 12GB ist in diesem moment eine kritische Grenze, das wird bald zuwenig sein. Eine Karte sollte nicht durch ihren VRAM ausgebremst werden, dieser fall tritt aber immer hĂ€ufiger ein.
Das ist einfach Upselling und natĂŒrlich mangelnder konkurrenz geschuldet. Dass die Karten aber nicht mehr VRAM brauchen, das kann niemand mehr ernsthaft glauben. 12GB ist in diesem moment eine kritische Grenze, das wird bald zuwenig sein. Eine Karte sollte nicht durch ihren VRAM ausgebremst werden, dieser fall tritt aber immer hĂ€ufiger ein.
mtheis1987
Lieutenant
- Registriert
- Nov. 2007
- BeitrÀge
- 909
Kurze Frage fĂŒr mich zum VerstĂ€ndnis, da ich hier recht viel DLSS Bashing lese, was ist an DLSS so schlecht, dass man es nicht nutzen wollen wĂŒrde? In den allermeisten Tests, die ich zuletzt so gelesen habe, hieĂ es stĂ€ndig, dass DLSS die Bildquali in bestimmten Settings sogar verbessert ggĂŒ. nativ, da ruhigeres Bild z.B. Lediglich vor FG wird gewarnt aufgrund der steigenden Latenz. Also warum sollte ich DLSS dann nicht nutzen, wenn es doch eine bessere DarstellungsqualitĂ€t bringt sowie mehr FPS? Oder sind diese Tests dahingehend alle falsch?
DerRico
Lt. Commander
- Registriert
- Nov. 2022
- BeitrÀge
- 1.630
Verstehe die Rechnungen mancher Kollegen hier im Forum auch nicht. Ist doch genauso leicht, wie Du schreibst: 7800xt ist die Basis. Darauf knapp 5% mehr Shader (wer will, 5-10% fĂŒr bessere Architektur und Monolith) und auf das Produkt 20% mehr Takt, der ziemlich linear skaliert. Das auf das CB-Performancerating gelegt und fertig ist die 7900xt+.Bierliebhaber schrieb:Die 7800XT ist kaum langsamer als eine 7900GRE, nehmen wir also besser die als direkten VorgĂ€nger mit in etwa gleich groĂem Chip als Basis (64CU vs. 60CU). Wenn wir dann die 4CU und ein bisschen mehr Leistung durch das monolithische Design draufrechnen liegt eine 9070XT also selbst WENN sich bei der IPC nichts tut bei gleichem Takt ungefĂ€hr bei der 7900GRE. Nun taktet die 9070XT aber wohl mindestens 20% schneller als die 7800XT, wenn sich also von RDNA3 zu RDNA4 NICHTS geĂ€ndert hĂ€tte wĂ€re die 9070XT alleine durch den höheren Takt schon DEUTLICH schneller als die 7900GRE.
Wem das
Ich persönlich glaube nicht an einen Geniestreich. RDNA 5 soll ja massiv anders und wieder richtig schnell werden. RDNA4 kann nur ĂŒber den Preis kommen...
djducky
Fleet Admiral
- Registriert
- MĂ€rz 2017
- BeitrÀge
- 13.273
@mtheis1987
ich glaube, dass sich die ganzen Kommentare eher darauf beziehen, dass die reine Rasterleistung nur punktuell erhöht wird und DLSS einen gewissen Stillstand kaschiert. Ansonsten kommt es stark aufs Spiel an, wie gut DLSS da performt.
ich glaube, dass sich die ganzen Kommentare eher darauf beziehen, dass die reine Rasterleistung nur punktuell erhöht wird und DLSS einen gewissen Stillstand kaschiert. Ansonsten kommt es stark aufs Spiel an, wie gut DLSS da performt.
heroesgaming
Commander
- Registriert
- Feb. 2022
- BeitrÀge
- 2.173
GPU-HYYYYYYYYYYPE!Laphonso schrieb:1000 Postings geknackt, Respektđ
Syrato
Rear Admiral
- Registriert
- Juni 2012
- BeitrÀge
- 6.006
CB gibt nur die Daten weiter, sie dĂŒrfen noch nichts zur Karte sagen, NDA.1776 schrieb:Und auch unfassbar, wie komplett unreflektiert darueber berichtet wird.
Auch bei CB!
Wenn es im Test nicht angesprochen wir, fann kannst du es anprangern.
Millennial_24K
Lt. Commander
- Registriert
- Dez. 2021
- BeitrÀge
- 1.427
Ich erkenne zunÀchst jede Menge Marketing-Bla-Bla bei dieser PrÀsentation...
SelbstverstĂ€ndlich hat die native Rasterizingperformance bei RTX 5000 nicht einmal ansatzweise so stark gegenĂŒber der VorgĂ€ngergeneration zugenommen. Das Gleiche wird sicherlich auch fĂŒr Ray-Tracing gelten. Und natĂŒrlich verschleiert man diesen Umstand mit einer Leistungsexplosion bei der Erzeugung von "Fake-Frames". Ein wenig ironisch ist das fĂŒr mich schon.
SelbstverstĂ€ndlich hat die native Rasterizingperformance bei RTX 5000 nicht einmal ansatzweise so stark gegenĂŒber der VorgĂ€ngergeneration zugenommen. Das Gleiche wird sicherlich auch fĂŒr Ray-Tracing gelten. Und natĂŒrlich verschleiert man diesen Umstand mit einer Leistungsexplosion bei der Erzeugung von "Fake-Frames". Ein wenig ironisch ist das fĂŒr mich schon.
Zuletzt bearbeitet:
Die einzigen Benchmarks die ĂŒberhaupt irgendeinen Wert haben, denn wer spielt schon mit DLSS4 wenn er 80 "Frames" hat aber den Input Lag von 20, absolut niemand der ein gutes SpielgefĂŒhl haben will.Laphonso schrieb:Benchmarks mit und ohne DLSS.
Nein sind sie nicht.mtheis1987 schrieb:Oder sind diese Tests dahingehend alle falsch?
Gibt hier einfach ein paar Forenuser die gegen jegliche Form von Upsampling mit Mistgabel und brennender Fackel durch die StraĂen ziehen.
Da wird dann gerne auf irgendwelchen Standbildern mit der Lupe bei 5fach zoom irgendwelche Fehler gesucht.
Die "nativ > alles Fraktion" kann man getrost ignorieren.
FSR Xess und DLSS haben alle ihren Nutzen.
HerrRossi
Fleet Admiral
- Registriert
- Apr. 2014
- BeitrÀge
- 12.057
Du kannst nutzen was du willst, aber gerade sowas wie BildqualitĂ€t oder "flĂŒssiges" Spielen ist sehr subjektiv. Ich mag FG nicht und nutze es nicht, DLSS Quality ist meistens ok.mtheis1987 schrieb:Also warum sollte ich DLSS dann nicht nutzen, wenn es doch eine bessere DarstellungsqualitĂ€t bringt sowie mehr FPS? Oder sind diese Tests dahingehend alle falsch?
Die neuen Nvidia Balken kommen aber durch MFG 4x und DLSS Performance zustande.
Simanova
Rear Admiral
- Registriert
- Dez. 2012
- BeitrÀge
- 5.455
https://www.computerbase.de/artikel/grafikkarten/upscaling-faq-nvidia-dlss-amd-fsr-intel-xess.86657/mtheis1987 schrieb:Kurze Frage fĂŒr mich zum VerstĂ€ndnis, da ich hier recht viel DLSS Bashing lese, was ist an DLSS so schlecht, dass man es nicht nutzen wollen wĂŒrde?
Da ist alles erklĂ€rt. DLSS FG hat 2 Probleme - eines davon wird mit Ray Reconstruction gelöst, das andere bleibt ungelöst: Wenn Spielentwickler ihr GUI (zumeist Text) in die Grafikengine einbinden, dann wird das ĂŒber die GPU gerendert. Bei aktivem DLSS FG werden dann Phantombilder der Texte erzeugt. Da sieht siehr unschön aus.
1776
Ensign
- Registriert
- Jan. 2024
- BeitrÀge
- 198
D.h. Copy-Paste ist der Anspruch bei CB?Syrato schrieb:CB gibt nur die Daten weiter, sie dĂŒrfen noch nichts zur Karte sagen, NDA.
Wenn es im Test nicht angesprochen wir, fann kannst du es anprangern.
Man muss ueberhaupt keinen Kontext dazu bieten?
Und genau das (bzw Multi Frame Generation) hat Nvidia hier fĂŒr den Vergleich 5070 vs 4090 aktiviert. Und MFG scheint ja DAS neue Killerfeature zu sein. Das wird halt eben aufgrund dieser Latenz kritisch beobachtet.mtheis1987 schrieb:Lediglich vor FG wird gewarnt aufgrund der steigenden Latenz.
Solltest du. Es ist halt nur fĂŒr Benchmarks ungĂŒnstig, wenn man es auf einer Karte aktiviert und auf der anderen (sofern sie es auch beherrscht) eben nicht. Dann verzerrt es die Ergebnisse.mtheis1987 schrieb:Also warum sollte ich DLSS dann nicht nutzen, wenn es doch eine bessere DarstellungsqualitĂ€t bringt sowie mehr FPS?
Und zu guter letzt: "Natives" Rendering funktioniert immer. DLSS und sonstiges nur, wenn es vernĂŒnftig implementiert wurde. Gibt also keine Garantie, dass man es immer einsetzen kann.
Ăhnliche Themen
- Antworten
- 592
- Aufrufe
- 49.031
- Antworten
- 210
- Aufrufe
- 18.874
- Antworten
- 37
- Aufrufe
- 3.115
- Antworten
- 391
- Aufrufe
- 32.250
- Antworten
- 186
- Aufrufe
- 18.274