News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

Pisaro schrieb:
Wer 5 Stunden die Woche zockt ist Gelegenheitsspieler, Fakt.
Ja, aber selbst 10 Stunden mal hier mal da, wo halt Zeit ist, ist ja eh auch noch super casual. Dannach wirds vielleicht so langsam schwammig.

Wie war das mit dem Leistungssport? Ab 20 Stunden die Woche läuft das selbst Kindern schon. Vorher macht man halt ein wenig Sport, ist doch beim Gaming nicht anders. Reichlich Spielraum für unterschiede unter uns Casuals.
Ergänzung ()

longusnickus schrieb:
keine ahnung zu welchem preis sie die gekauft hat. kann ja durchaus ein verschmerzbarer preis gewesen sein
eine 4070 ist halt auch keine 1000€+ karte. also dein vergleich passt nicht zu meiner aussage
Aber du warst doch, der meinte das kein Casual hier was, 600€ oder 700€ GPU kauft? Fällt die 4070 doch genau rein.
Verschiebst du hier gerade still und heimlich deine Aussage nur um so zu tun als ob du recht hast? Oder hast du das vorher eh anders gemeint? Wie war das mit dem sehr, sehr, sehr viel Nutzen wenn man schon 600€ für ausgibt?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pisaro
Im Chiphell Forum sind (angebliche) 3Dmark Scores aufgetaucht. Könnte hinkommen. Ich war mal so frei.

1736412062360_pro.png

Speed_Way.jpg
 
  • Gefällt mir
Reaktionen: bogge101 und Rockbreak
Laphonso schrieb:
Muss man ja eben nicht, das ist ja der Punkt.
Der Punkt ist, dass es lächerlich ist für eine Firma Verteidiger zu spielen wenn man als Kunde derjenige ist der weniger für sein Geld bekommt. Wenn bogge das ganze unvoreingenommener formuliert hätte bitte, aber zu sagen man wüsste nun warum Nvidia das getan hatte so nach dem Motto "Ach ja wir haben sie ja Nvidia nur falsch verstanden, die haben gar nicht absichtlich am Vram gespart ist lächerlich.
Darkwater schrieb:
absolut gesehen aber lediglich knapp aber fast immer ausreichend ist (außer bei der 5060 8GB die ist echt fragwürdig)
Ich finde die 12GB bei der 5070 und die 16 bei der 5080 für das was die Karten kosten und dafür dass es eine neue Generation sein sollte genauso fragwürdig. Einzig und allein die 5070TI mit 16GB sehe ich für das was sie ist und kostet als zufriedenstellend an. Aber ist wie gesagt meine persönliche Meinung
bogge101 schrieb:
ComputerBase meldet -200 $
Kannst du meinen Kommentar nicht lesen? Ich habe explizit erwähnt dass es sinnlos ist eine 5080 mit dem Preis einer 4080 zu vergleichen wenn das neuere, ein wenig schnellere 4080 super Modell für 999$ rausgekommen ist. Ich kriege ne 4080 Super Karte bereits für 1050€ neu zu aktueller Zeit. Du bist sowas von 1000% ein Nvidia Fanboy wenn man liest wie du alles gibst nur um der Firma in den Hintern zu kriechen. Mit so jemandem brauche ich gar nicht mehr weiter diskutieren. Verteidige ruhig weiter Nvidias Vram und Preispolitik, sie werden es dir nicht danken. Da hebt Nvidia die Preise von 699 der 3080 auf 1200 an, senkt diese in der gleichen Generation auf 999 runter weil sie merken keiner kaufts und dann kommst du mit der neuen Generation die ebenfalls 999 kostet und meinst "Oh danke Nvidia dass du die Karten nun so viel günstiger machst"...
.Sentinel. schrieb:
Auf welche Weise man die Pixel Berechnet bzw. deren Gültigkeit bzw. Farbwert bestimmt, ist egal, solange das Endergebnis stimmt. Wenn die berechneten Zwischenframes an die Qualität eines original- berechneten heranreichen bzw. das Delta zwischen Keyframe und erzeugten Frames sehr gering ist, dann wüsste ich nicht, warum man Rechenzeit an inneffizienten Methoden vergeuden sollte.
Das Endergebnis stimmt aber nicht, das ist der Punkt. Da zockt jemand auf nem 60Hz 4k Monitor mit einer 5000er Karte und will das neueste Triple A spiel mit Path Tracing spielen, da die Rohleistung aber nicht da ist weil man nun auf Framegeneration und DLSS4 setzt statt bessere Performance und Raytracing Leistung im herkömmlichen Sinne, muss er jetzt auf Framegeneration zurückgreifen. Aktiviert er das nun um seine 60 fps zu kriegen hat er nur 15 echte frames auf 45 generierte, damit hat er den Input Lag eines 15fps Spieleerlebnis, was grottig schlecht ist und nicht auch nur annähernd and das Endergebnis echter Frames (Upscaled oder nicht spielt da keine Rolle weil upscaling ja das Input Lag nicht erhöht) rankommt.

Wenn Framegeneration also nur was bringt auf einem 240Hz Monitor wo die Karte sowieso schon 60 echte Frames pro Sekunde rendern muss, kann man Framegen nicht mit herkömmlichen Frames als gleichwertig betrachten.
Ergänzung ()

Youngtimer schrieb:
Könnte hinkommen.
Sieht ziemlich glaubwürdig aus. Interessanter wird es dann bei den anderen Karten da die eben im Gegensatz zur 5090 kaum mehr Shader, breiteren Bus oder mehr Vram bekommen haben. Wenn die 5090 nur knapp 30% schneller ist obwohl es die Karte ist die mit Abstand hardwaretechnisch am meisten dazugewonnen hat, dürften sich die 5080 und 5070er Modelle zu ihren Vergleichsmodellen der 4000er Generation im einstelligen Prozentbereich bewegen.
 
Zuletzt bearbeitet:
Rockbreak schrieb:
Das Endergebnis stimmt aber nicht, das ist der Punkt.
Und das hast Du woher? Das neue DLSS inkl. Reflex 2 läuft weit unterhalb der Latenz der nativen Frames.
Mit geglättetem Framepacing. Und das Ergebnis wird einzig und allein vom Output bestimmt.
Rockbreak schrieb:
Da zockt jemand auf nem 60Hz 4k Monitor mit einer 5000er Karte und will das neueste Triple A spiel mit Path Tracing spielen, da die Rohleistung aber nicht da ist weil man nun auf Framegeneration und DLSS4 setzt statt bessere Performance und Raytracing Leistung im herkömmlichen Sinne, muss er jetzt auf Framegeneration zurückgreifen.
Was soll denn bitte "Rohleistung" sein? Wenn man alle Software und dedizierten Einheiten einer Grafikkarte abstellt?

Eine Bilddarstellung auf dem PC geschieht durch ein Ökosystem X- Verschiedener Techniken und Beschleunigungen. Geschweige denn die Spiele an sich, die Tricksen bis der Arzt kommt.
Soll man das auch alles messen?

Wieso sollte Leistung im Herkömmlichen Sinne höher bewertet werden, als Leistung, die durch neue Technik zur Verfügung gestellt wird? Schließlich stellt man dafür einen Shitload an zusätzlicher Rechenleistung zur Verfügung!

Das ist doch absurd? Man hat einen weit effizienteren Weg gefunden, um Pixel auf eine andere Art und Weise dorthin zu platzieren, wo sie am Monitorraster sein müssen.
Wieso sollte man das nicht zählen?

Wie gesagt- Es kommt doch nur auf das Ergebnis an! Welchen Rechenweg man geht, ist für das Ergebnis egal, solange es stimmt.

Rockbreak schrieb:
Aktiviert er das nun um seine 60 fps zu kriegen hat er nur 15 echte frames auf 45 generierte,
Irrtum- Durch DLSS hat er durch anfängliches Undersampling und Jitter grundsätzlich die FPS, die er im Normalfall durch die "Rohleistung" von Grafikkarten zwei Generationen weiter erhalten könnte.
Rockbreak schrieb:
damit hat er den Input Lag eines 15fps Spieleerlebnis, was grottig schlecht ist und nicht auch nur annähernd and das Endergebnis echter Frames (Upscaled oder nicht spielt da keine Rolle weil upscaling ja das Input Lag nicht erhöht) rankommt.
Siehe oben. Du irrst.
Und nebst der höheren Basisframerate, die auch für einen niedrigeren Lag verantwortlich ist, bekommt er jetzt ohne Straflatenz, da Reflex 2, noch Faktoren an Zwischenframes obendrauf, die das Spielerlebnis zu einer flüssigen Sache machen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667
Ich lach mich weg, dieser Beitrag hat bereist mehr Kommentare als der Beitrag mit den meisten Kommentaren von letztem Jahr. Und das war der vom Nikolaus Gewinnspiel mit derzeit 1853 Kommentaren zu hier 2045 Kommentaren.

Ich fasse mal 90% der Kommenatre mit dem Satz "Wir können gespannt sein was die Unabhängigen Test über die Grafikkarten Zeigen werden und ob der der reale Leistungszuwach eine Mogelpackung wird oder ob mehr dahinter steckt als wir gerade sehen."

Auf jeden Fall können wir gespannt sein.
 
  • Gefällt mir
Reaktionen: A.Xander und Lord Gammlig
longusnickus schrieb:
wenn man im geld schwimmt, dann kann man das machen,
Solche Aussagen finde ich immer amüsant. Wenn man sich alle 2 Jahre mal was für 1000+€ gönnt, schwimmt man gleich in Geld. Wenn man sich jedes Wochenende einen 6-8€ Döner leistet, schwimmt man nicht in Geld, was aber auch fast 900€ in 2 Jahren ist. Wer am Wochenende mal seine Zeit in der Stadt bei was auch immer verbringt, ist auch mal schnell 50€ und mehr los, sind dann in zwei Jahren sogar über 5000€.
Andere kochen lieber selbst, was sehr viel günstiger sein kann und genießen das Wochenende mit anderen Dingen die weniger Geld kosten.
Ganz ehrlich, ich gebe gerne Geld für meinen Rechner aus. Ich hasse Kneipen, Kinos und Co oder gar Partys. Nichts mehr für mich, ich habe mich 10 Jahre extrem ausgetobt. Ich lese gerne und entspanne mich. Geld ist relativ. Viele die immer meckern, dass sie wenig haben, sind diejenigen die sich bei mir auf der Arbeit z.B. jeden Tag ne Pizza für über 10€ bestellen.
 
  • Gefällt mir
Reaktionen: Pisaro, Apocalypse und Fallout667
.Sentinel. schrieb:
Wie gesagt- Es kommt doch nur auf das Ergebnis an! Welchen Rechenweg man geht, ist für das Ergebnis egal, solange es stimmt.
Worauf er hinaus wollte, war, in dem Szenario das Ergebnis mit Reflex und ohne FG wahrscheinlich besser ist als mit MFG.
Der Nutzen von MFG ist unbestreitbar, aber er liegt halt tendenziell stärker im 3-stelligen Base-FPS Bereich als im niedrigen Einstelligen.

Deswegen nannte er ja extra den 60hz 4k Bildschirm, der damit automatisch wenig bis gar nicht von MFG profitiert, aber Reflex 2 ist 100% toll in dem Szenario.

Meine Antwort darauf wäre in dem Fall aber jene: Wer sich ne 5090 kauft, sollte ich sich einen passenden Monitor kaufen oder bereits haben mit dem er auch was von MFG hat. Ist einfach schon ein absurdes Beispiel.
 
Apocalypse schrieb:
Meine Antwort darauf wäre in dem Fall aber jene: Wer sich ne 5090 kauft, sollte ich sich einen passenden Monitor kaufen oder bereits haben mit dem er auch was von MFG hat. Ist einfach schon ein absurdes Beispiel.
Erstens wieso gehst du von einer 5090 aus? Ist die 2500€+ die einzige 5000er Karte? Oder die welche sich die meisten kaufen werden? Bei beidem absolutes nein, also das ist schonmal ein absurdes Beispiel wenn du eins haben willst.

MFG macht nur Sinn bei 100+ Frames und macht keinen Sinn wenn die Grafikkarte nicht genug Leistung hat bereits eh schon genug native Frames zu rendern die das Spiel sowieso schon spielbar machen würden, ich weiß wirklich nicht was so hart daran zu verstehen ist.
Ergänzung ()

.Sentinel. schrieb:
Und das hast Du woher? Das neue DLSS inkl. Reflex 2 läuft weit unterhalb der Latenz der nativen Frames.
Mit geglättetem Framepacing. Und das Ergebnis wird einzig und allein vom Output bestimmt.
Ditto zu woher weißt du das. Du saugst dir das hier einfach nur aus den Fingern obwohl Reflex 2 noch gar nicht existiert und es dazu noch keine Tests gibt ob das ganze wirklich so funktioniert.
 
Rockbreak schrieb:
Ditto zu woher weißt du das. Du saugst dir das hier einfach nur aus den Fingern obwohl Reflex 2 noch gar nicht existiert und es dazu noch keine Tests gibt ob das ganze wirklich so funktioniert.
Ich habe bereits Zugriff auf das Developer Toolkit... DLSS4 &co. sind als Paket inzwischen voll funktionsfähig. Die könnten morgen releasen...
 
  • Gefällt mir
Reaktionen: A.Xander, Fallout667 und Apocalypse
Rockbreak schrieb:
Erstens wieso gehst du von einer 5090 aus?
Wegen der Premisse:
"Da zockt jemand auf nem 60Hz 4k Monitor mit einer 5000er Karte und will das neueste Triple A spiel mit Path Tracing spielen,"
Hätte jetzt nicht angenommene das die Zielsetzung jetzt nicht von einer 5090 ausgeht. Aber selbst wenn du an eine 5080 gedacht hast, bleibt die Frage immer noch, warum man dazu einen 60hz 4k Monitor verwendet. Angeschafft nur für die 3 Triple A PT Games am Markt? Es bleibt absurd.

Es würde sogar noch absurder wenn es eine 5070 sein sollte, 12GB Karte gekauft für 4k 60 Gaming anstatt QHD mit anständig hz am Bildschirm? Das wäre ja auch irgendwo ein Fehlkauf.
Die Karten zielen darauf ab Monitore weit jenseits der 60hz zu füttern, da macht dann MFG auch Sinn als Feature, also zumindest für die Leute, dehnen dann nicht schlecht davon wird. 😅

Ich werde wohl AMD kaufen. :heilig:
 
Rockbreak schrieb:
Du bist sowas von 1000% ein Nvidia Fanboy wenn man liest wie du alles gibst nur um der Firma in den Hintern zu kriechen.
Preismarken sind in der US Werbung und Marktpositionierung ziemlich wichtig. Deshalb sind die Preismarken 999 und 1999 vermutlich das Ziel gewesen.

solche Diskussion über die Ausstattungsstufen und Preispolitik gibt es seit langem bei jedem Apple Hardware Release

ich finde es auch Mist, wenn quasi Monopolisten ihre Marktmacht ausnutzen. Der Hersteller meiner Grafikkarte ist mir egal, die Leistung entscheidet.

Jedem ist etwas anderes wichtig (Preis, Stromverbrauch, Rohleistung, DLSS, FPS, Größe, Lautstärke, …) Nvidia oder AMD können es sowieso nicht allen recht machen.
 
Zuletzt bearbeitet:
Apocalypse schrieb:
Aber selbst wenn du an eine 5080 gedacht hast, bleibt die Frage immer noch, warum man dazu einen 60hz 4k Monitor verwendet
Der 60Hz Monitor war als Beispiel dafür gedacht dass Frame Generation mit normalem Raster eben nicht gleichwertig ist wie Sentinel behauptet, weil es zu vielen Einschränkungen kommt. Nochmal um das ganze endgültig zu klären was mein Punkt ist: Frame Generation war wie bisher absolut wertlos für "entweder" Grafikkarten die nicht schon ohnehin 50-60fps echte frames pro Sekunde berechnen konnten oder für jemanden der keinen Monitor mit 120+Hz hat. Und damit ist es eben nicht die Allzwecklösung für alles. Ich kann auch einen 240Hz Monitor als Beispiel nehmen und dann aber eine 5060 die sich abkackt und nur 20 echte frames in dem Spiel generieren kann, dann hast du immer noch 20fps lag bei 80 frames und das ghosting wird definitiv bei der Framerate auch umso spürbarer sein. Es geht hier nicht um den 60 Hz Monitor, denn bei nem 120Hz Monitor hast du immer noch nur 30 echte Frames bei DLSS4, was das gleiche ist wie normales Frame Gen bei nem 60Hz Monitor und das damit die gleichen Proleme hat was das Input Lag, Ghosting, etc angeht.

Frame Generation ist keine Lösung oder Ersatz für echte Renderleistung sondern einfach nur ein nettes Gimmick und Boost für Gpus die ohnehin schon stark genug sind das Spiel auch ohne Frame Gen zu rendern und mit Frame Gen einfach nur die fps in den höheren dreistelligen Bereich boosten können, nicht aber für gaming auf niedrigeren fps. Damit ist es hauptsächlich nur sinnvoll für die welche viel Geld für Monitore und High End Karten ausgeben. Völlig egal ob jetzt die Grafikkarte dafür zu schwach ist oder der Monitor nicht genug Hz liefern kann, beides trifft auf Standard Gamer die keine mehrere tausend Euro Setup haben nunmal immer noch zu, es ist ein Luxus Gimmick, kein neuer Standard.

Zu sagen "Ja also warum kaufst du dir nicht einen 240Hz Monitor und ne 5090 für 4000€? Dann wäre Frame Generation gut?" um damit aufzuzeigen wie Frame Generation mit normalem rendering auf Augenhöhe steht, ist doch absurd. Wenn sich Leute neue Monitore für das Zeug holen müssen bzw. nur in niedrigen Auflösungen zocken können wenn sie keine High End Karten kaufen, zeigt es doch auf wie die Technologie minderwertig ist.

Nur weil dir super hohe fps wichtiger sind als Grafiksettings oder hohe Auflösungen, heißt es nicht dass es keine Leute gibt die mit 50-80fps völlig zufrieden sind weil sie keine Shooter spielen sondern halt rpgs oder Aufbauspiele ohne schnellem hin und her. Wenn du das immer noch nicht verstehen willst brauche ich auch nicht mehr dazu sagen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse
Hmmm...mich würde mal interessieren wie hart mein 12700K mit DDR4 4000 CL 17-15-15 die 5090 bottlenecken würde. :D
 
syfsyn schrieb:
da wäre noch anno 217 das aber ist noch unklar ob das überhaupt dieses Jahr erscheint zumal anno immer in cpu limits rennt.

Musst die Grafik hochstellen, dann ist die CPU egal, kannst dann sogar ausbauen und sparst dir noch den Kühler! :freak:
 
  • Gefällt mir
Reaktionen: Cabranium
.Sentinel. schrieb:
Siehe oben. Du irrst.
Und nebst der höheren Basisframerate, die auch für einen niedrigeren Lag verantwortlich ist, bekommt er jetzt ohne Straflatenz, da Reflex 2, noch Faktoren an Zwischenframes obendrauf, die das Spielerlebnis zu einer flüssigen Sache machen.
Du meinst also dass 40fps die von 10 echten Frames generiert wurden oder 80fps die von 20 echten Frames generiert wurden genauso gut spielbar sind wie echte nativ gerenderte 40 bzw. 80 Frames ohne extrem heftigem Input Lag, Ghosting, Bilderruckeln etc.?
 
  • Gefällt mir
Reaktionen: iron_monkey
Explo2224 schrieb:
Nvidia hat nur aus einem Grund so wenig VRAM verbaut: Den Karten wird ein künstlicher BottleNeck hinzugefügt, damit wir RTX 6000 wieder für 1000 Euro kaufen.

So viel wie nötig um es noch los zu werden, nicht mehr, und neuen Bedarf schaffen (Featurs), damit regelmäßig nachgekauft wird, da hat halt jemand seine Hausaufgaben gemacht.

Wenn man komplett auf AMD oder Intel wechselt und Nvidia ausblendet, hat man auch eine stetige Entwicklung nur erhält man die aktuelle Leistung einfach nur später. Es ist dann nur der eigene Anspruch am Ball zu bleiben der einen davon abhält. Man kann zusätzlich auch noch Spiele später kaufen und so die Kosten für Gaming minimieren.

Muss man als Konsument halt auch seine Hausaufgaben machen und das eigene Ego etwas zügeln ;-)

Edit:

Das perfide ist auch noch, dass man die ausgereifteren Produkte erhält, wenn man wartet und es günstiger wird aber die verbugteren wenn man mehr Geld ausgibt um aktuell zu sein!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Windell
Mich interessiert wie die Leistung PCIe v4 vs v5 aussieht bei den kleineren Karten (70+ti).
Ein AM5 Board mit PCIe 5 fängt im moment erst bei ca 220€ mit BT an.
 
Zurück
Oben