News GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an

Chiaki schrieb:
Du beschwerst dich gerade über fehlende Verfügbarkeit von einer GPU die selbst noch nicht verfügbar ist? Holy moly...
Nein, wir sprachen ursprünglich über ne 2080S ohne RTX.
Du bist derjenige der reingegrätscht ist, meinen Satz aus dem Zusammenhang gerissen hat und ständig versucht mir Dinge vorzuwerfen die ich so nicht gesagt habe. Zuletzt sprachen wir dann über schlechte Verfügbarkeit von DLSS 2.0, nicht der Hardware. Denn die RTX-Serie ist weiterhin gut verfügbar.

Chiaki schrieb:
Du hast aber schon mitbekommen, dass Sony an einem DLSS 2.0-Klon für die PS5 arbeitet und Microsoft bei DXR auch nicht schläft?
DXR ist ein DX12 Feature, wie ich schon sagte.
Das setzt voraus, dass diese Spiele dann auch in aktuellen APIs laufen.
PS5 ist ne AMD-APU, also warum ist das interessant für mich?
Hast du nicht oben noch Leuten erklärt, dass AMD kein echtes RT hat?

Chiaki schrieb:
aber die Tatsache, dass immer mehr Triple A Games mit DLSS 2.0 kommen reicht mir vollkommen aus um mein Geld lieber für ein paar Tensorkerne auszugeben, die mir statt 4K 30 FPS dann 4K 70 FPS geben, als für mehr generische Shader auf der Chipfläche.

Na wenn du dich stattdessen lieber auf wenige AAA-Titel fokussierst mach mal.
Ich zocke eher weniger AAA-Titel, daher für mich ziemlich uninteressant.
Cyberpunk wird wohl das erste AAA-Spiel seit langem, welches ich mir geben werde.
Übrigens zock ich in 1440p, nicht in 4K. 4K-Performance geht voll an mir voll vorbei.
 
  • Gefällt mir
Reaktionen: Edulus
Komme was wolle, 3080Ti oder 3090,di dickste ist meine. Custom Modelle folgen eh erst passend zum Sommerende. 50-60€ werd ich wieder einsparen, ein Modell unter der oberen shoppen & das obere BIOS drauf flashen wenn der Kühler es vorher testend packt.
PCGH wird uns sicher mit allen Test Kandidaten & deren Daten & Temps füttern 😏
 
  • Gefällt mir
Reaktionen: Laphonso
Wenn die neuen Karten 50% Mehrleistung bei mindestens gleicher Effizienz bieten (gehe aber von einer deutlichen Effizienzsteigerung aus) und die derzeit kolportierten Speichermengen bieten, darf meine GTX1080 Ti in Rente gehen :D
 
Linmoum schrieb:
Hardware-RT ist per Definition also nur solches über RT-Kerne? Autsch... Das war hoffentlich Ironie.
Najaaaaaaa, also was er - denke ich - meinte, ist hier gut erläutert:

https://blogs.nvidia.com/blog/2019/...ardware-and-software-accelerated-ray-tracing/

Es geht hier shcon um die Differenzierung, dass eine GPU Architektur ganz speziell die Rolle des RT computing über separate Chips laufen läasst, alias hardware accelerated.

Der Amiga 500 war damals auch RT taglich über den 68000er, aber nicht via designter Architektur, wie das heute nun Turing macht.
 
  • Gefällt mir
Reaktionen: Chiaki
Chiaki schrieb:
Ja, für mich sind hochspezialisierte Tensorkerne nicht mit generischen Shadern, auf denen Raytracing wahlweise per GPU beschleunigt wird vergleichbar, denn darin sind sie deutlich schlechter als tatsächlich für RT gedachte Hardware.

Vielleicht solltest du dich vor dem naechsten Kommentar noch mal hinsetzen und dich ueber die Begriffe die du verwendest erkundigen. Du bringst einiges durcheinander.

Aber kurz fuer dich:
Raytracing Kerne != Tensorkerne.
RT Kerne sind Nvidias Implementierung in Hardware, AMD kann das komplett anders loesen und es ist trotzdem Hardware Raytracing.
RT und DLSS sind erstmal unabhaengig.
RT kostet Leistung.
DLSS kann auf eine hoehere Aufloesung skalieren.
RT nutz RT Kerne.
DLSS (ab 2.0) nutzt Tensorkerne.
DLSS war erstmal Nvidias versuch die Leistung von RT zu kompensieren.

Klar soweit?

Chiaki schrieb:
DLSS 2.0 kann von JEDEM Spielehersteller in JEDES Spiel EIGENSTÄNDIG eingebunden werden. Wenn DLSS 2.0 nicht verfügbar ist, ist es die Schuld der Spieleherstellers und niemandes sonst. Bei Unreal Engine 4 ist es sogar bereits eingebacken und du brauchst nicht einmal ein pre-training.

Kann, machen aber die wenigstens. Erstens, weil sie noch aeltere Engines verwenden. Zweitens, weil es trotzdem mehr Aufwand ist und die grosse Basis der Kunden schlicht keine RT faehigen Karten hat. Und das wird auch noch einige Jahre dauern, bis ueberhaupt mal was mit RT als Requirement kommt.

Edit:

Laphonso schrieb:
Es geht hier shcon um die Differenzierung, dass eine GPU Architektur ganz speziell die Rolle des RT computing über separate Chips laufen läasst, alias hardware accelerated.

Das setzt aber keine RT Kerne voraus. Das ist nur das was Nvidia macht. Wenn AMD das anders implementiert und in ihre Shader integriert kommt es aufs selbe heraus. Es wird von der Hardware berechnet. Nvidia klatscht halt eigene Einheiten fuer RT, fuer KI, fuer was weiss ich drauf und hofft, dass das der richtige Weg ist. Wenn AMD alles in vorhandene Einheiten integriert hoffen sie eben darauf, dass das so klappt. Vorteil waere bei zweiterem Weg zumindest, dass die Einheiten nicht komplett brach liegen wenn man kein Raytracing verwendet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Konr4dZus3, dohderbert, GINAC und 4 andere
der_Schmutzige schrieb:
Das ist halt der teure Rattenschwanz, der an hohen Auflösungen hängt. ;)

ja, aber das ist eine erkenntnis bei der nicht alle angelangt sind und viele wollen das ja auch garnicht wahrhaben.
frei nach motto: es kann nicht sein, was nicht sein darf.
 
  • Gefällt mir
Reaktionen: milliardo und TorgardGraufell
Dwyane schrieb:
Wenn die neuen Karten 50% Mehrleistung bei mindestens gleicher Effizienz bieten (gehe aber von einer deutlichen Effizienzsteigerung aus) und die derzeit kolportierten Speichermengen bieten, darf meine GTX1080 Ti in Rente gehen :D
Das heißt für Dich dann wohl bye bye Ultra+High Presets bald und dickes Fell bei Pascals Leiden unter DX12, sorry mate ;)
 
Hoffentlich zeigt AMD Nvidia Mal so richtig wo der Hammer hängt. Ich will richtigen Wettbewerb, wo es darum geht Marktanteile zu bekommen und nicht um max. Gewinn auszuschöpfen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
der_Schmutzige schrieb:
Irgendwie werde ich das Gefühl nicht los, dass wir es uns selbst eingehandelt haben
Ist ja nicht nur das....gab Zeiten wo alle glücklich waren mit 60 FPS und alle meinten ab 40 FPS läuft es flüssig.
Heute schreien viele schon , unter 200 FPS ist nicht spielbar !!
Ist doch klar , um so höher die Ansprüche werden um so teurer wird es auch.
 
  • Gefällt mir
Reaktionen: milliardo, PS828, Kalsarikännit und eine weitere Person
Laphonso schrieb:
Tu mir bitte nicht so als ob du ne Ahnung der Herstellungskosten hättest...

Machen wir es doch kurz ich wette mit dir um 💰 ;) wenn es ne Plattform gibt bin ich dabei gegen dich zu wetten!

Du gehst also von 1100-1300 aus für die 3080 ich gehe von 800-1000 natürlich reden wir vom günstigen Modell, das sollte klar sein ;)
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
Kacha schrieb:
Kann, machen aber die wenigstens. Erstens, weil sie noch aeltere Engines verwenden. Zweitens, weil es trotzdem mehr Aufwand ist und die grosse Basis der Kunden schlicht keine RT faehigen Karten hat. Und das wird auch noch einige Jahre dauern, bis ueberhaupt mal was mit RT als Requirement kommt.

DLSS braucht Zugriff auf die Bewegungsvektoren im Spiel, möglichst viele/alle.
Wenn TAA implementiert ist, ist die meiste Arbeit wohl schon getan. Ohne TAA wirds sehr schwierig.
 
Naja, der 1080erTi Speicher ist kaum erreicht.
Aber z. B. in Cod MWF bei viel Rauch, oder bei Transportfever 2 mit dichten vielen Bauten geht eher die GPU & nicht deren Speicher in die Knie.
 
der_Schmutzige schrieb:
Das ist halt der teure Rattenschwanz, der an hohen Auflösungen hängt. ;)
Da hast du recht.
Ich habe "nur" WQHD, aber um dort 100+ fps zu erreichen muss man mit einer "bezahlbaren" Oberklasse/Obere Mittelklasse-Karte mittlerweile echt viele Kompromisse machen.
Und es wird ja nicht besser: Jeder neue AAA-Titel schraubt die Anforderungen nochmals eine Ecke höher. Mit den neuen Konsolen wird es vermutlich nochmals einen ordentlichen Sprung geben.

Würde mein Monitor heute kaputt gehen, würde ich mir ernsthaft überlegen nicht doch nur einen 24" FullHD Monitor (eventuell gleich mit 240hz) zum daddeln zu kaufen.
24" reicht ganz nüchtern betrachtet auf meinem Schreibtisch eigentlich auch und bei der Größe ist FullHD noch in Ordnung. Da wären selbst mit Ultra-Preset in AAA-Titeln noch dreistellige Frameraten erreichbar, ohne gleich eine Grafikkarte für vierstellige Summen kaufen zu müssen.
 
B3nutzer schrieb:
Wenn TAA implementiert ist, ist die meiste Arbeit wohl schon getan.

Kommt drauf an, hatte in einem anderen Thread mit einem eine Diskussion darueber. Man muss auch dafuer sorgen, dass das Ausgangsmaterial eine gute Qualitaet hat. Wenn man in seiner Pipeline noch alles moegliche drin hat, das an der Qualitaet rumspielt, dann war es das mit "einfach und gut". Mal abgesehen davon, dass DLSS noch mehr als die Bewegungsvektoren braucht.
 
Wäre das nicht seltsam, wenn die RTX 3080 Ti so zeitnah erscheint? Normalerweise kommt die doch immer deutlich später, damit Nvidia bei den Enthusiasten zweimal abkassieren kann.

[...] 24 GB an einem 384 Bit breiten Speicherinterface [...]
2000€ incoming?
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Xes schrieb:
Da wären selbst mit Ultra-Preset in AAA-Titeln noch dreistellige Frameraten erreichbar, ohne gleich eine Grafikkarte für vierstellige Summen kaufen zu müssen.
warum müssen ey den dreistellige frameraten sein?? das ist doch das schöne an vrr/freesync/gsync : da kann man auch mit 70-80fps spielen ohne dass man gleich über ruckler, lags und andere effekte klagt, an denen so mancher zocker mit "uber"-wahrnehmung so gerne leidet...

(wir haben es selbst im zeitalter der schnellen shooter ausgehalten "nur" mit 60hz und entsprechend darstellbarten 60 bilder spaß zu haben ohne dass reihenweise spieler wegen "übelkeit" und der miesen bwr gleich kotzen mussten..)
 
  • Gefällt mir
Reaktionen: Lübke82 und TorgardGraufell
The_Wizzard schrieb:
Hoffentlich zeigt AMD Nvidia Mal so richtig wo der Hammer hängt. Ich will richtigen Wettbewerb, wo es darum geht Marktanteile zu bekommen und nicht um max. Gewinn auszuschöpfen.

Kein Börsenunternehmen der Welt möchte nur Marktanteile, denn diese allein sind nichts Wert! Jedes Gewinnorientierte Unternehmen möchte im Grunde nur ein. Wachstum. Das ist bei Intel so, das ist bei Nvidia so und das ist auch bei AMD so. Sieht man schön bei den AMD Produkten, die langsam an die Konkurrenz herankommen. Diese werden auf wundersame Art und weise teurer ;)

AMD hat mit Jahren die Masche "günstig für Marktanteile" verfolgt. Mit mäßigem Erfolg. Das R&D Budget leidet darunter. Amd wird die Preise auf das Niveau der anderen Marktbegleiter bringen und Leistungstechnisch konkurrieren. Denn darüber erreicht man auch gute Marktanteile, wie man bei Nvidia sieht. Firmen mit Billigheimer Image haben es am Markt schwer und deshalb möchte AMD dieses Image auch schnellstmöglich ablegen.


Laphonso schrieb:
Wie soll eine 3080, mit moderner Technik, die das Leistungsniveau der 2080TI übertreffen wird physikalisch und in den Apps (=SW+Games) bitte WENIGER kosten?

Das ist eine ganz normale Entwicklung. Zumal die 2080Ti nicht wegen ihrer tollen Technik 1000€+ kostet, sondern weil es ein konkurrenzloses Haloprodukt ist. Man nennt es auch gerne Premiumaufschlag. Das einzig teure an der 2080Ti ist der verhältnismäßig große Die. Dieser ist aber auch in einem alten verfahren gefertigt und dürfte mit sehr guten Yields laufen. Wahrscheinlich könnte Nvidia die Karte auch für 600€ ohne Verluste verkaufen. Sobald die 2080Ti den Status als schnellste Gamingkarte verliert, wird sie sich auch preislich dort einsortieren, wo sie sich Leistungstechnisch befindet. 40-50% über einer 5700xt
 
der_Schmutzige schrieb:
Irgendwie werde ich das Gefühl nicht los, dass wir es uns selbst eingehandelt haben, nach den ganz großen, dicken GraKas zu schielen:
Durch unseren Drang zu großen Monitoren mit schön fetten Auflösungen (mich selbst eingeschlossen).
Hätte ich noch meinen FHD, würde ich mit meiner 1080Ti müde lächeln.
Das ist halt der teure Rattenschwanz, der an hohen Auflösungen hängt. ;)

geb ich dir Recht. Allerdings macht einiges kein Sinn, im Bereich 4k Gaming z.B., vor allem beim PC. Das ist nur herausgeworfenes Geld. Warum? Stichwort: Abstand

man merkt kaum ein unterschied von 1440p (die goldene Mitte) zu 4k, auf ein 32zoll TFT, bei 20-40cm Abstand (Standard Desktop Tisch), außer dass die fps um die hälfte einbrechen, um (bei dem kleinen Abstand zum Monitor) ein klein wenig mehr schärfe zu bemerken.
Außerdem werden seit Jahren mit Ultra Settings getrickst. Der Unterschied von High/Very High zu Ultra/Max Einstellungen sind nichts weiter als unkomprimierte Texturen, die ein Haufen VRAM fressen, kaum bis gar nicht besser aussehen (oder man bemerkt es nicht, vor allem bei schnellen Spielen) und kosten massig fps.

Deswegen sagen schon viele Tech Seiten / Youtuber / Reviewer:
1. Ultra Settings sind nur für Screenshots. High / Very High Settings zum zocken
2. 4K am PC ist sinnlos, resourcenfressend und kostspielig.

der Sweet Spot ist seit Jahren 1440p auf 60/120fps oder 1080p auf 144/166fps.

Aber wie gesagt, du hast recht. Durch Hype und Werbung, ködert man den Konsumenten zu höheren Auflösungen, größeren Bildschirmen und als Konsequenz dazu, eine noch teurere GPU, da die vorhandene kaum die Ansprüche erfüllt unter den Voraussetzungen.
 
  • Gefällt mir
Reaktionen: TorgardGraufell
cypeak schrieb:
wenn 95% der anderen games auf deiner hardware ordenlich laufen und dann kommt ein titel der ohne erkennbaren grund mies läuft, käme ich nicht auf die idee die schuld bei der hardware zu suchen.
dann muss man wohl die lösung 2 - allein schon aus vernunft - präferieren, oder?
Nein, wie gesagt, bei Preisen rund um 1000€ seh ich es nicht ein auch nur diese 5% in hässlich spielen zu müssen, nur weil das Unternehmen in Grün dadurch größere Margen einfahren kann. AMD verkauft 8GB Karten ab 130€, man möge mir einmal begründen, inwiefern das für eine 5-10 Mal so teure Grafikkarte eine akzeptable Ausbaustufe ist.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Shoryuken94 und B3nutzer
Zurück
Oben