News GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an

@Chiaki hätten sie wenigstens mit dem Original Verglichen. Sie haben aber DLSS mit TAA Verglichen was hier und da schon als Unschärfefilter verschrien war. Solche Vergleiche sollten wenn schon mit dem nativen Bild verglichen werden bevor man sagt"sieht besser aus"

Zudem muss bei der Implementierung noch was passieren. Ein Spiel wo es mal funktioniert und viele tausend die es weiterhin nicht nutzen können. Solange das so bleibt wird es keine Durchdringung dieses Verfahrens geben
 
  • Gefällt mir
Reaktionen: GINAC
PS828 schrieb:
@Chiaki hätten sie wenigstens mit dem Original Verglichen. Sie haben aber DLSS mit TAA Verglichen was hier und da schon als Unschärfefilter verschrien war. Solche Vergleiche sollten wenn schon mit dem nativen Bild verglichen werden bevor man sagt"sieht besser aus"
Worauf wird sich hier bezogen? Ich habe in diesem Thread immer explizit von DLSS 2.0 und nicht von DLSS gesprochen.
Im Übrigen kann DLSS 2.0 von jedem Spielehersteller selbst implementiert werden; einfach mal besser informieren.
 
  • Gefällt mir
Reaktionen: Laphonso
Onkel Föhn schrieb:
dass für "gute" Custom Modelle der RTX 2080 1000 € ausgeben konntest ?!?

Eine stock RTX3080 für 999 Dollar, gleich schnell wie die große AMD zu gleichem Preis, ist so in etwa das, was ich erwarte. Beide werden round about 20-30% schneller sein als die RTX2080Ti, kann man mit arbeiten.

Im 600-800 Dollar bereich spielt die Musik und hier wird es spannend. Für die ganz großen Monster, können auch gerne mal 1500 Dollar über den Tisch wandern. Wer hier die letzten 10-20% haben will, muss halt noch einmal tiefer in die Tasche greifen.

GERmaximus schrieb:
Arbeiten, weiterbilden, sparen oder mit dem zufriedengeben was man hat.

Ja, leider wird ja aber diese Kette immer mehr auf den Kopf gestellt.

Erst kaufen, dann ab bezahlen und am Ende wundern, dass man noch so viel arbeiten muss, um die Dinge, die man gekauft hat, auch irgend wann einmal sein Eigentum nennen zu können. Viel zu viel gehört der Bank :(

Aber schuld sind immer die anderen, wenn gerade mal die Arbeit weg fällt, man aber noch mindestens 6 Monate Lohn abzahlen muss.

mfg
 
  • Gefällt mir
Reaktionen: dgschrei, GERmaximus, Shoryuken94 und 2 andere
Chiaki schrieb:
Ganz einfach: Bei RDNA2 läuft Raytracing über die ganz normalen, nicht für Raytracing spezialisierten Shader der GPU. Es gibt keine speziellen RT-Kerne. Das ist schon seit Ewigkeiten bekannt. WIe kommst du zu einer anderweitigen, falschen Annahme?
Hardware-RT ist per Definition also nur solches über RT-Kerne? Autsch... Das war hoffentlich Ironie.
 
  • Gefällt mir
Reaktionen: GINAC, DarkerThanBlack, PS828 und eine weitere Person
Chiaki schrieb:
In der Pressewelt wurde nicht nur einmal gesagt, dass das Spiel in DLSS 2.0 4K sogar besser aussieht als in nativem 4K. Und das einfach mal bei doppelten FPS.
Das Spiel? Wovon reden wir hier eigentlich?

Chiaki schrieb:
Dein Einwand RTX Karten führen automatisch dazu, dass du mehr Geld pro FPS bezahlen musst, ist leider damit völliger Schwachfug.
Aufgrund der schlechten Verfügbarkeit von DLSS 2.0 (3 Vorzeigetitel?) ist deine gemachte Aussage noch viel mehr Schwachfug. Gemessen an der Menge von Spieletiteln sind das jetzt wie viel % der Spiele welche DLSS supporten? 0.01%? CB hat "Deliver Us The Moon" (Noch nie gehört), Control (Auch nie gehört) und Wolfenstein Youngblood (Hey, endlich ein halbwegs relevanter Titel) getestet. Es gibt einige Titel die DLSS 1.0 supporten, aber nicht wirklich vom Hocker gehauen haben.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack
Wird Zeit mein GTX meinen Bruder zu geben hab gewartet bis Raytracing mehr in absehbarer Zeit implementiert wird in Games und das es sich lohnt eine RTX Grafikkarte zu holen.
 
BxBender schrieb:
Das ist für mich einmal zu viel udn einmal zu wenig.
Selbst für eine 3060 sollten es schon mindestens 10, 11 oder besser 12GB sein, selbst wenn man nur FullHD damit spielt.

Nur kann sich Nvidia die Speicherausbauten auch nicht beliebig aussuchen. Die Breite des Speicherinterfaces bestimmt die Ausbaustufen. Es gibt halt keine Speicherchips mit krummen Größen. Wenn die 24GB Karte also ein 384Bit SI verwendet, nutzt man Beispielsweise 24 1GBits Speicherchips mit jeweils 16 Bit Adressbreite. Oder eben 500 MBit Chips und daraus resultieren dann 12GB Speicherausbau. Zwischengrößen resultieren in Problemen wie mit der GTX 970. Wenn der 2080 Nachfolger also ein 320bit SI verwendet, können 20 Chips a 16 Bit SI verwendet werden. Das resultiert dann in 20GB oder 10GB VRAM. Alles andere ist Murks, da dann nicht alles gleich schnell angebunden ist und es dann darauf ankommen würde, wo die Daten im VRAM genau liegen (vgl. GTX 970). Und einfach wie man lustig ist das Speicherinterface verändern ist im Designprozess so eines Chips nur begrenzt möglich. Würde davon ausgehen, dass die Interfacebreite schon vor 1,5-2 Jahren festgelegt wurde (musste). So ein Chip entwickelt sich nicht in einem Monat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
Linmoum schrieb:
Hardware-RT ist per Definition also nur solches über RT-Kerne? Autsch... Das war hoffentlich Ironie.
Demnach wäre mein Nintendo 64-Emulator also Nintendo 64-Hardware, weil meine generischen Prozessorkerne die Hardware eines Nintendo 64 emulieren können? Guter Joke.
Ja, für mich sind hochspezialisierte Tensorkerne nicht mit generischen Shadern, auf denen Raytracing wahlweise per GPU beschleunigt wird vergleichbar, denn darin sind sie deutlich schlechter als tatsächlich für RT gedachte Hardware.
Wenn das für dich anders ist, ist es hoffentlich Ironie.

Chillaholic schrieb:
Das Spiel? Wovon reden wir hier eigentlich?

Aufgrund der schlechten Verfügbarkeit von DLSS (3 Vorzeigetitel?) ist deine gemachte Aussage noch viel mehr Schwachfug. Gemessen an der Menge von Spieletiteln sind das jetzt wie viel % der Spiele welche DLSS supporten? 0.01%?
Das sollte "ein Spiel" heißen. Von mir aus auch "jedes Spiel". Ich werde nicht zum drölfzigsten Mal auf die unzähligen Benchmarks im Netz verweisen.

DLSS 2.0 kann von JEDEM Spielehersteller in JEDES Spiel EIGENSTÄNDIG eingebunden werden. Wenn DLSS 2.0 nicht verfügbar ist, ist es die Schuld der Spieleherstellers und niemandes sonst. Bei Unreal Engine 4 ist es sogar bereits eingebacken und du brauchst nicht einmal ein pre-training.
 
  • Gefällt mir
Reaktionen: cruse
Ich halte es für keine guten Nahrichten - den großen Speicherausbau scheint es ja nur bei den Sondermodellen zu geben. Die Standard-Modelle von 3060/3070 kommen weiterhin mit 8 GB und auch die 10 GB der 3080 sind mit Blick auf die 2080 Ti nun weniger berrauschend.

Das wird dann der gleiche Käse wie bei der 5500 XT - da hätten 8 GB die Regel sein sollen und nicht als kaufbare Zusatzoption. Mir graut es davor, wieivel mehr die Modelle mit größerem Speicherausbau kosten werden.
 
  • Gefällt mir
Reaktionen: m0bbed, fox40phil und Onkel Föhn
Chiaki schrieb:
DLSS 2.0 kann von JEDEM Spielehersteller in JEDES Spiel EIGENSTÄNDIG eingebunden werden. Wenn DLSS 2.0 nicht verfügbar ist, ist es die Schuld der Spieleherstellers und niemandes sonst. Bei Unreal Engine 4 ist es sogar bereits eingebacken und du brauchst nicht einmal ein pre-training.
Ändert nichts an der fehlenden Verfügbarkeit und so lange diese nicht gegeben ist, ist das P/L-Verhältnix von RT-Karten auch weiterhin beschissen. Da kannst du noch so viel strampeln. Computerspiele werden immer Komplexer, Ansprüche von Gamern immer höher. Die meisten Spiele werden noch gar nicht in DX12/Vulkan produziert und haben somit gar keine Möglichkeit DLSS zu implementieren.

Deine Aussage oben war, dass RT die Karten nicht teurer machen würde im Verhältnis zu den FPS, aber wenn DLSS 2.0 von fast keinem Game supportet wird, bleibt die Rechnung komplett auf der Strecke.
 
  • Gefällt mir
Reaktionen: schkai und GINAC
Irgendwie werde ich das Gefühl nicht los, dass wir es uns selbst eingehandelt haben, nach den ganz großen, dicken GraKas zu schielen:
Durch unseren Drang zu großen Monitoren mit schön fetten Auflösungen (mich selbst eingeschlossen).
Hätte ich noch meinen FHD, würde ich mit meiner 1080Ti müde lächeln.
Das ist halt der teure Rattenschwanz, der an hohen Auflösungen hängt. ;)
 
  • Gefällt mir
Reaktionen: fox40phil, Don Sanchez, Beatmaster A.C. und 2 andere
legenddiaz schrieb:
Natürlich wird es mehr Leistung für weniger geld geben. Wie kommt man auf so ein Blödsinn?

Ansonsten würde nur die Ti Sinn Machen. Die 3080 müsste also nach deiner Theorie genau so viel kosten wie die 2080ti... ernsthaft?
Du hast die letzten Jahre ggf. nicht im Detail die GPU Produktion und Fertigung beobachtet, aber die 3000er Karten bieten die "herkömmlichen" Rechen+Rendereinheiten, und on top dazu die Turing Technologie, in die Nvidia ein Jahrzehnt R&D + QS investiert hatte parallel zur Virtualisierung und AI Backends, Deep Learning etc.

Wie soll eine 3080, mit moderner Technik, die das Leistungsniveau der 2080TI übertreffen wird physikalisch und in den Apps (=SW+Games) bitte WENIGER kosten?

Die GPU, welche die 2080TI ersetzt mit mehr VRAM und 30-40% mehr Power in RTX on und off, für "nur" 1000 Euro wäre toll, aber überraschend , eher sogar sensationell, wenn man die Hintergründe der Fertigung und die Komplexität berücksichtigt.
 
Chillaholic schrieb:
Ändert nichts an der fehlenden Verfügbarkeit und so lange diese nicht gegeben ist, ist das P/L-Verhältnix von RT-Karten auch weiterhin beschissen. Da kannst du noch so viel strampeln. Computerspiele werden immer Komplexer, Ansprüche von Gamern immer höher. Die meisten Spiele werden noch gar nicht in DX12/Vulkan produziert und haben somit gar keine Möglichkeit DLSS zu implementieren.
Du beschwerst dich gerade über fehlende Verfügbarkeit von einer GPU die selbst noch nicht verfügbar ist? Holy moly...

Du hast aber schon mitbekommen, dass Sony an einem DLSS 2.0-Klon für die PS5 arbeitet und Microsoft bei DXR auch nicht schläft? Du kaufst dir eine Next Gen GPU nicht für das was jetzt schon geht, sondern für das was die nächsten 1-3 Jahre geht und mir ist herzlich egal womit du deinen Homo Oeconomicus belügen willst, aber die Tatsache, dass immer mehr Triple A Games mit DLSS 2.0 kommen reicht mir vollkommen aus um mein Geld lieber für ein paar Tensorkerne auszugeben, die mir statt 4K 30 FPS dann 4K 70 FPS geben, als für mehr generische Shader auf der Chipfläche.

Du kannst für diese Games ja dann deine geliebte GPU mit mehr Shadern auf dem Wafer nehmen die 4K 40 FPS schaffen wird, wenn du denkst damit die klügere Entscheidung getroffen zu haben.
 
legenddiaz schrieb:
Und was die Leute hier schreiben... Die 3080 für 1000€+ , dass glaube ich niemals. Dann bin ich raus und sehr viele andere auch. Da bin ich mir sicher und das bringt Nvidia dann auch nix..

Die werden eher die Bombe krachen lassen!
Gleiche Preise ungefähr für verdammt viel Leistung, Speicher und Raytracing und alle drehen durch...

abwarten ist schonmal eine gute devise.
ob die preise wirklich so bombe sein werden, muss sich zeigen - es geht ja auch um preisleistung im relation zu dem was heute verfügbar ist.
eine unsicherheit ist natürlich was nvidia für die chips bei samsung im 8nm verfahren blechen muss und zu welchen konditionen man den gddr6(x) ram bekommt - das kann beides ein massiver preistreiber sein.

so ein einziger micron 2GB gddr6 (non-x!) baustein kostet im großhandel in 1000er stückzahlen immernoch ca. 24$ - nvidia und amd werden aber wegen ihrer hohen stückzahlen wesentlich günstigere konditionen haben - selbst wenn es aber die hälfte des üblichen preises wäre, so würden 20gb so schon ca 120-140$ bei den herstellkosten ausmachen!
so eine karte verkauft man dann nicht für 400$..
 
der_Schmutzige schrieb:
Irgendwie werde ich das Gefühl nicht los, dass wir es uns selbst eingehandelt haben, nach den ganz großen, dicken GraKas zu schielen:
Durch unseren Drang zu großen Monitoren mit schön fetten Auflösungen (mich selbst eingeschlossen).
Hätte ich noch meinen FHD, würde ich mit meiner 1080Ti müde lächeln.
Das ist halt der teure Rattenschwanz, der an hohen Auflösungen hängt. ;)
Genau das.

Die erwähnte Transition von 23 umd 24 Toll auf 27 Zoll oder mehr bedeutet statt 2 Mio FHD Pixel nun 3,6 Millionen Pixel oder sogar 4,9 Mio pixel bei 34 Zoll und 3440 Pixel Breite.
Das sind hefitge Sprünge, welche die GPU stemmen muss.

RDR2 prügelt eine 2080TI auf Ultra+manuell maxed bei 1440p an Stellen mit Wasser ingame direkt mal auf 40-45 fps runter.
Das ist die Realität. Die "schönen" Spiele wie Metro, RDR2 und die Ubisoft Open World games sind trotz 2080Ti nicht mal mehr in der Nähe dreistelliger fps.

Man "muss" das ja nicht haben wollen, aber wer High + Ultra Settings liebt und ggf Reshade on top UND noch Raytracing, und stabil 60+ fps in allen kommen Games haben will, darf 1000 Euro einplanen, oder die gfx Slider nach links ziehen.

Rettungsanker hier wird dann DLSS.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Revan1710 schrieb:
Mir graut es davor, wieivel mehr die Modelle mit größerem Speicherausbau kosten werden.
ja, speicher kostet geld! (oh wunder!)
so eine verdopplung nicht sicherlich nicht billig - gerade bei neuerem gddr6x ...
 
Alleine die Tatsache, dass weiterhin 8 GB bei solchen teuren highEnd Karten angeboten werden, riecht nach einer Preiserhöhung.

Solche Speicherabstufungen werden normalerweise im 200-300€ bereich angeboten, um eben den Preis nochmal um 50€ oder so drücken zu können und den Preisbereich enger zu staffeln.

Aber bei 400-1000€ Karten wird sich keiner wegen 50€ den VRAM halbieren lassen. Deswegen geht man den umgedrehten weg und bietet die Karten mit zu wenig VRAM zu etablierten Preisen an, während man für die brauchbare/gute Ausstattung ordentlich in den Geldbeutel der Kunden greift.

Da gehts schließlich nicht mehr um das Einsparen von Produktionskosten, um dem Kunden ein attraktives Angebot zu ermöglichen, da gehts nur noch um beeindruckende Specs und wie viel die Leute bereit sind dafür hinzulegen.

Wobei es schon komisch ist, wie gebrandmarkt wir sind. Vor einigen Jahren waren die Verdopplungen von 128 auf 256, 512, 1024, 2048, 4096 usw. bei einer neuen Gen selbstverständlich und das hatte keine Preiserhöhungen zur Folge. Mit einer neuen GPU zu gleichen Preisen mehr GPU Leistung und mehr VRAM zu bekommen war ganz normal. Technischer Fortschritt eben.

Es ergibt eigentlich keinen Sinn, bei einer Verdopplung von 8 auf 16 GB jetzt plötzlich übertriebene Preise zu erwarten. Es ist immerhin "NUR" eine Verdoppelung, wie es sie schon dutzende male zuvor gegeben hat. Etwas ganz normales in der IT Welt, vor allem nach so langer Zeit mit 8GB.
Aber Nvidia hat uns wohl schon so gut erzogen, dass sie wohl ohne Probleme saftige Aufpreise für einen eigentlich selbstverständlichen und längst überfälligen technischen Fortschritt verlangen können.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Acedia23, Wow4ikRU, Edulus und 9 andere
Mein kleiner Bruder wäre höchst erfreut meine 2080 Ti übernehmen zu können... Wenn ~30% mehr Leistung und 24GB VRAM mit der RTX 3080 Ti / RTX 3090 geliefert würden, wäre ich zu einem Wechsel bereit. Bei allzu fantastischen Prognosen hinsichtlich der Leistung neuer Grafikkarten bin ich immer skeptisch, daher setze ich meine Erwartungen lieber etwas niedriger an.

Na ja, mal sehen was von Nvidia auf die Beine gestellt wird und zu welchem Preis so eine Karte dann zu bekommen ist.
 
zivilist schrieb:
Das würde mich auch interessieren. Aber egal: ich habe mir vor kurzem (nur für FullHD!) erst eine neu Grafikkarte gekauft. Überspringe somit die neue Generation.

Also wenn es sich dabei um die Karte aus Deiner Signatur handelt GTX 1650 super 4 GB für ca. 165 €,
hätte meiner einer eher zur RX 580 mit 8 GB oder 5500XT mit 4 GB gegriffen.
Die 580´er hat doppelt soviel Speicher und ist gleich schnell und 5500XT hat gleich viel Speicher,
ist dafür aber schneller (siehe Bench im Anhang) und das zum gleichen Preis ...

https://geizhals.de/gigabyte-radeon-rx-5500-xt-oc-4g-gv-r55xtoc-4gd-a2196638.html?hloc=at&hloc=de

https://geizhals.de/asrock-phantom-...0-ga0m00-00uanf-a1885722.html?hloc=at&hloc=de

MfG Föhn.
 

Anhänge

  • Bench CB.jpg
    Bench CB.jpg
    261,1 KB · Aufrufe: 295
  • Gefällt mir
Reaktionen: fox40phil
rlchampion schrieb:
Die Zukunft heißen PS 5 und XBox Series X. Die allermeisten Spiele werden ja für Konsolen entwickelt und orientieren sich an deren Hardware.

Die allermeisten AAA Spiele wohlgemerkt.
und da sowohl die PS5 als auch die Series X, nicht mal RTX2080ti, ganz zu schweigen Titan RTX performance haben, werden die RTX3000er serie, ihre 16GB oder 24GB VRAM erstmal nur dann ausnutzen wenn es wieder mal schlechte Ports gibt (wie es z.B. bei Batman Arkham Knight und Monster Hunter World war, oder wie es gerade immer noch bei AC Odyssey, Borderlands 3 oder Horizon Zero Dawn ist), damit die neuen GPU Flagschiffe genug Rohleistung zum Brute forcen haben, um halbwegs vernünftige fps bei Ultra settings auf den Bildschrim zu bringen.

Bis gescheite Spiele released werden, die vernünftig skalieren und gut optimiert sind, um 24GB voll auszunutzen, um z.B. 4k 120fps, 1440p 144fps oder 1080p 166fps, bei max settings bringen zu können, vergehen noch locker 1 oder 2 Jahre.
 
Zurück
Oben