News Nvidia Blackwell: Gerüchte deuten auf 12 GB VRAM bei der GeForce RTX 5070

Wanderwisser schrieb:
So könnte man aber auch für die aktuellen AMD Karten argumentieren "hier und da die Raytracing Einstellungen reduzieren, dann reicht die RT Leistung dicke".

Eigentlich haben beide Hersteller eine Sollbruchstelle. Bei AMD ist es die RT Leistung, bei Nvidia der Vram. Nur das AMD es leider aktuell nicht besser kann und Nvidia anscheinend nicht besser möchte.
RT und DLSS sind aber wichtig ! AMD hat nicht nur eine RT Schwäche sondern beherrscht auch das Upsampling nicht so gut wie Nvidia.
VRAM ist nicht soo wichtig, vor allem nicht in FullHD. Diese ganzen Games wo selbst 12GB auf FullHD nicht reichen sollen kann man ganz einfach bekämpfen in dem man den Regler etwas nach links schiebt.

Eine 5070 ist nun mal keine Highendkarte. Kannst nicht erwarten, dass alles auf Anschlag immer perfekt zu Laufen hat. Die meiste Zeit geht das aber trotzdem.

Mir ist's egal. Wer den VRAM braucht kauft sich halt 'ne 5080. Bei AMD hast du keine Wahl. Selbst die beste GPU im Lineup stinkt gegen Nvidia's Mittelklasse ab wenn es um RT geht.

Hast du eine AMD GPU und willst du eine sehr gute RT Leistung MUSST du praktisch zu Nvidia greifen.
Bei Nvidia greifst du einfach zur nächst höheren GPU wenn dir der VRAM nicht ausreicht.
 
K3ks schrieb:
Ich hatte die 3050 weiter oben erwartet

Ich nicht. Die 3050 dürfte viel Konkurrenz durch deutlich günstigere gebrauchte GTX 1070/1080/1660 Super haben.

Und was hat das Steam Deck damit zu tun ? Das werden wohl nur wenige als Ersatz für den Desktop zu Hause kaufen, sondern als Zweitgerät für unterwegs. Teurer Luxus, genau wie die 4090.
 
JMP $FCE2 schrieb:
Beispiel ?



Was ist das denn für eine alberne Ausrede ? Bei Multiplayershootern waren 120 fps auf 120 Hz-Röhrenmonitoren schon vor 20 Jahren "Zeitgeist".
120fps bei 1024x768 oder 1280x1024 sind aber etwas anderes als 120fps bei 3840x2160 von den Möglichkeiten der 3D Beschleunigung mal abgesehen. Was lief da vor 20 Jahren? DX8.1 oder DX9. Und was Sinn macht oder nicht, liegt im Auge des Betrachters. Die Qualität der Grafik ist ja quasi ins unermessliche gestiegen, das kann man ja nicht mal ansatzweise vergleichen, was hatten die Grafikkarten damals? 64MB und mit Glück 128MB. Mittlerweile wollen wir alle 16GB haben.
 
  • Gefällt mir
Reaktionen: Cinquedea
Nighteye schrieb:
on 1080p auf 1440p sind es schon 2,25x mehr Pixel. Dass muss alles in den Vram
Das sind knapp nur 1gb mehr an vram. Auflösung braucht nicht soviel vram wie imme gesagt wird. Das Problem ist das es sich füllt während des spielens bei wenig wird dann geren schon einmal autoamtisch schlehctere texturen verwendet und lod reduziert.

Auch haben andere grafik settings einen viel höhere auswirkung auf den vram als nur die _Auflösung.
 
  • Gefällt mir
Reaktionen: Mcr-King
Cinquedea schrieb:
Bei Nvidia greifst du einfach zur nächst höheren GPU wenn dir der VRAM nicht ausreicht.
Naja ist wie beim PKW oder Games der Kunde wird an der Nase durch den Ring gezogen und lässt alles mit sich machen und muss sich dann aber nicht beschweren.

Zum Thema Higend naja Der Preis ist es und nach 10 Jahren kein Fortschritt ist lächerlich irgendwie und da sieht man wie wenig Interesse da von Nvidia vorhanden ist.

Früher oder später wird es sowieso keine GPUs mehr unterhalb der RTX xx70 gegeben.
 
@Mcr-King
Es gibt nun mal keine andere Möglichkeit. Will ich eine tolle RT Leistung muss ich zwangsläufig zu Nvidia greifen.

Wenn Nvidia außerhalb von ihrem Oberklasse-Lineup nicht massig VRAM bereitstellt dann kann ich das scheiße finden, muss aber damit leben. Upselling gibt es überall, auch in Restaurants.
 
Nighteye schrieb:
Von 1080p auf 1440p sind es schon 2,25x mehr Pixel. Dass muss alles in den Vram.
In welcher Schule lernt man sowas?
1920x1080 sind 2073600
2560x1440 sind 3686400

Das sind gerade mal ~78% mehr Pixel die mehr berechnet werden müssen.
 
  • Gefällt mir
Reaktionen: Mcr-King
K3ks schrieb:
Speicherbedarf: Erst ab 16 GB wirklich sorgenfrei
Diablo IV benötigt eine erstaunlich hohe Menge an Grafikkartenspeicher, denn erst ab 16 GB VRAM läuft das Spiel auch in hohen Auflösungen mit dem höchsten Preset einwandfrei. Verfügt die Grafikkarte lediglich über 12 GB, muss in Ultra HD mit Einschränkungen gelebt werden.
https://www.computerbase.de/2023-06...icherbedarf_erst_ab_16_gb_wirklich_sorgenfrei
Eine Besserung:
Volle Details mit 8 GB sind nicht möglich
Diablo 4: Vessel of Hatred benötigt eine ordentliche Portion VRAM. Wie viel Speicher es tatsächlich sind ist nicht ganz klar, 8 GB sind aber definitiv nicht genug für die maximalen Texturdetails und das auch schon in Full HD – ganz gleich ob eine GeForce oder eine Radeon im Rechner steckt, ganz gleich ob das PCIe-Interface gekürzt ist oder nicht.
Das Spiel geht dabei absolut radikal vor. Reicht der Grafikkartenspeicher nicht aus, stürzt Diablo 4: Vessel of Hatred sang und klanglos ab. Auf einer AMD-Grafikkarte gab das Spiel dann zumindest noch eine kurze Fehlermeldung über die geringen VRAM-Speicher aus, bevor das Spiel per Task-Manager geschlossen werden musste. Auf einem Nvidia-Beschleuniger wurde schlicht der Bildschirm schwarz und ein Hard-Reset was notwendig. Beides sollte es in einem modernen Spiel bei Speichermangel eigentlich nicht geben.
Ab 10 GB VRAM gab es zumindest in Full HD keinerlei Probleme mehr in Form von Abstürzen. Ob es nach längerer Spielzeit zu Problemen kommt, kann ComputerBase aber nicht ausschließen. 10 GB waren dann auch für WQHD ausreichend, ab 12 GB haben sich auch in Ultra HD keine Probleme mehr gezeigt.
https://www.computerbase.de/artikel...tt_volle_details_mit_8_gb_sind_nicht_moeglich
Und lel zum Crash wenn der VRAM alle ist. :D
 
  • Gefällt mir
Reaktionen: JarlBallin und Mcr-King
Mcr-King schrieb:
Naja ist wie beim PKW oder Games der Kunde wird an der Nase durch den Ring gezogen und lässt alles mit sich machen und muss sich dann aber nicht beschweren.

Das ist ein Trugschluss. Der Bedarf an Nvidia-Hardware ist so hoch, dass sie ihn nicht näherungsweise decken können. So ist sowohl die Produktpolitik samt Spezifikationen der Modelle als auch die Preispolitik zu verstehen: Als eine Maßnahme, nach der es sich rechnet, Kapazitäten freizumachen. Entsprechend würde hier ein Marktmechanismus wie Kundenverzicht so semi greifen. Die sehr endlichen Kapazitäten würden einfach in mehr KI-Lösungen investiert. Wo mehr zu holen ist. Ganz aufgeben würden Nvidia Gaming&CO. natürlich nicht, da Technologieführer. Aber eine Massenabwanderung der Kundschaft würde es genau wegen dieser Führerschaft sowieso gar nicht geben.

Jeder andere Konzern würde das aber genauso machen.
 
  • Gefällt mir
Reaktionen: Moritz Velten
Iconoclast schrieb:
Welche Tests sollen das sein oder vor allem welche RT/PT Szenarien?
Dann zeig uns doch mal deine Benchmarks mit Lumen und Nanite. ...

Sooo viele Spiele mit diesen Features fibt es noch gar nicht als das man da einen Trend absehen kann
Ergänzung ()

Dedenne1987 schrieb:
RT wird nicht mehr gehen. In spätestens zwei Jahren kräht kein Hahn mehr nach Raster.
Manche denen auch seit 25 Jahren das sich Linux im nächsten Jahr "durchsetzten" wird :- P

Denn woher sollen die ganzen Spiele mit RT kommen?

Die paar AAA Games die jährlich rauskommen und RT unterstützen, wirst du wohl nicht gemeint haben...
 
  • Gefällt mir
Reaktionen: JarlBallin, Verak Drezzt und Chismon
Sehe ich genauso. Wieso sollte ich von einer 7800XT/4070 - 500€ für eine 4070Ti Super oder 4080Super draufzahlen, um in WQHD mit RT/PT einigermaßen Land zusehen, für einige Handvoll Games wo es entsprechend gut umgesetzt wurde.

Steht für mich nicht wirklich in Relation und jeder der da Bock drauf hat, kann gerne den Aufpreis an Nvidia dafür zahlen. Wenn in paar Jahren jedes zweite oder dritte AAA Game damit kommt und sich RT etabliert hat, sodass man auch im 500-600€ Bereich vernünftig spielbare FPS, von mir aus auch mit DLSS/FSR in Quality raus bekommt, können wir gerne weitersehen.

Auch wenn dies mit einer 4070Super jetzt schon gegeben ist. Würde ich aber dann gern doch ne Karte haben, die länger als 1-2 Jahre gute Leistung in dem Bereich abliefert, mit ihren tollen 12GB VRam und sieht wohl mit einer kommenden 5070 nicht wirklich besser aus.
Ergänzung ()

und wenn es nicht um RT Leistung geht, fährt man dann doch besser indem man sich eher alle zwei Generationen ne 500€ Karte holt und diese dann schneller als eine jetzige 1000€ Karte ist.

Bei 4K sieht es natürlich dann etwas anders aus, wenn man denn die Leistung auch benötigt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wanderwisser
Eli0t schrieb:
120fps bei 1024x768 oder 1280x1024 sind aber etwas anderes[...]

Was hat das jetzt mit deiner ursprünglichen Behauptung zu tun ? Nach deinen Maßstäben hat es auch vor RT nie eine Grafikkarte gegeben, die keine "Krücke" war, und ich warte auf das Gegenbeispiel.

Nebenbei drehen E-Sportler auch heute eher selten die Auflösung auf 4k und alle Details auf Anschlag. Selbst das uralte Overwatch 1 wurde bei Detailstufe "Episch" und WQHD mit dem vorgewählten Downscaling erstaunlich gefräßig. Bei ausgewählten Szenen aus einem Replay kapitulierte sogar eine RTX 2070 Super an der 120 fps-Grenze.

Dauerhaft stabile 120 fps bei aktuellen AAA-Spielen mit allen Details auf Anschlag sind reine Fiktion.
 
Eli0t schrieb:
Muß verlötet werden, wie auf einer Grafikkarte. Da regst Dich ja auch nicht auf, daß die Karte nicht erweiterbar ist?! WTF?
Das ist nicht vergleichbar. Auf Grafikkarten funktioniert austauschbarer Speicher eben deshalb nicht, weil sie mit hochgezüchtetem GDDR6/7 betrieben werden, der bald die dreifache Datenrate von LPDDR5X und den schnellsten JEDEC-Standards liefert und die 5-fache von dem, was aktuelle CPUs so an JEDEC-Standards unterstützen.
Strix Halo tut das aber nicht und bietet mir mit LPDDR5X-8533 auch keinen nennenswerten Vorteil ggü. LPCAMM2, nur ggü. SODIMM (aber auch nicht unbedingt CSODIMM). Ich habe also ggü. einer separaten GPU zumindest für den Grafikteil immer noch enorme Bandbreitennachteile.
Da der Speicher von CPU und IGP gleichzeitig verwendet wird, brauche ich aber auch mehr davon, mindestens 48GB sollten es sein, besser 64GB oder 96GB, wenn ich dieses teure Notebook lange verwenden möchte.
Strix Halo kann das, sogar viel mehr, die Frage ist, wieviel wird tatsächlich erhältlich sein und was wird es kosten. Und hier sehe ich eben, dass verlöteter Speicher gerne zur Gewinnmaximierung genutzt wird und deutlich mehr kostet, als entsprechend große SO-DIMM-Module.

Selbst wenn Strix Halo aber GDDR6 anbinden könnte, machte das für eine Verwendung mit Windows und Co keinen Sinn: Bei einem 256Bit-Speicherinterface ließen sich momentan maximal 32GB anbinden (16x2GB, zwei Chips pro 32Bit-Controller), ein Bisschen arg wenig für CPU und GPU zusammen in diser Softwareumgebung.
Eli0t schrieb:
Hast Du das auch Sony und M$ gesagt? Ich meine, was sind Konsolenchips anderes als große APUs? Kann man damit spielen? Ja. Sorry, diese Argumentation hat keinen Sinn.

DrFreaK666 schrieb:
Sag das den Konsolen-Gamern :D

Konsolen sind etwas anderes. Ersteinmal sind sie technisch noch etwas anders aufgebaut und verwenden tatsächlich schnellen GDDR6 für CPU und GPU, allerdings ist die Gesamtmenge deutlich niedriger als in zeitgenössischen PCs. Auch 2020 hätte ja niemand einen neuen Spielerechner mit nur 16GB für CPU und GPU zusammen ausgestattet, bei der Xbox sind für die CPU sogar nur 6GB vorgesehen.
Die Leistung von Konsolen ist aber auch nicht mit PCs vergleichbar, da durch die einheitliche Hardware Spiele viel besser für diese Hardware optimiert werden können. Das zeigen die oft miesen Konsolen-Portierungen, die für veraltete Grafik oft viel neuere Hardware trotzdem stark fordern. In letzter Zeit gab es aber auch viele gute Gegenbeispiele.
Gerade in der aktuellen Konsolengeneration hat sich aber auch gezeigt, dass man auf Konsolen auch mit schlechterer Performance leben muss. Ich bin selbst kein Konsolenspieler und kann nur wiedergeben, was ich gelesen habe, aber dass ein Spiel auf der Konsolo wirklich in nativem UHD oder auch nur WQHD mit 60fps gerendert wird war wohl von Anfang an kaum möglich und alles über 1080p muss hochskaliert werden, trotzdem sind 60fps meist nicht konstant möglich.
Dennoch wird eine Xbox Series X oder PS5 jedes Spiel besser rendern können als ein hypothetischer Windows-Rechner mit einer ähnlichen CPU (die aber in beiden Geräten niedriger taktet als jede mobile Zen2-CPU) und GPU (die ebenfalls deutlich niedriger takten als mobile RDNA2-GPUs) dank der optimierten Software.

Ich weiss nicht, wie das nun auf dem Steamdeck und Rog Ally funktioniert, da ich mich hiermit noch nicht beschäftigt habe. Hier fällt ja AFAIK die Hardwareoptimierung weg und die Spiele laufen genauso gut wie auf jedem Windows-Rechner, es gibt allenfalls spezielle Treiberprofile und Ingame-Profile. Im Steamdeck ist die Auflösung natürlich verglichen mit Konsolen und PCs sehr niedrig, auf dem ROG Ally mit 1080p auch nicht fordernd.

Handhelds hatte ich aber mit meiner Argumentation schon ausgeschlossen - hier ist die APU nur sinnvoll, weil eben kein Platz für eine dGPU ist. Wer weiss, es wird wahrscheinlich sehr viele Mini-PCs mit Strix Halo geben, vielleicht machen die ja Xbox und PS5 Konkurrenz.

Verglichen mit dem (auf dem Markt quasi irrelevanten) Portfolio an mobilen AMD GPUs ist die IGP von Strix Halo auch wirklich relativ stark, wahrscheinlich etwas oberhalb von allem, was 6700 oder 7600 heisst, und vielleicht auf dem Niveau von 6800M oder 6850M XT und damit RTX 4060. Wahrscheinlich aber unter letzteren, weil zwar die Shaderzahl der 6800M/6850M XT entspricht, der GPU-Takt noch höher sein soll und RDNA3.5 generell schneller sein sollte als RDNA2, aber die beiden Karten haben schon alleine fast soviel bzw. mehr TDP als das Gesamtpaket bei Halo Strix.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cinquedea, Mcr-King und Tr8or
Svennc schrieb:
Jeder andere Konzern würde das aber genauso machen.
Klar aber wie bei MS man hat immer eine Wahl siehe VW und Co Punkt und wenn erstmal der China Markt weckbricht für Nvidia.

Naja aber so lange dass Kartellamt blind ist und der Kunde alles kauft ist er selbst schuld.

Ich habe eine PS5 demnächst eine PRO und eine Switch und bin glücklich damit und es ist billiger als PC u da besser optimiert.
 
Verak Drezzt schrieb:
und wenn es nicht um RT Leistung geht, fährt man dann doch besser indem man sich eher alle zwei Generationen ne 500€ Karte holt und diese dann schneller als eine jetzige 1000€ Karte ist.
Wenn ich die 4080 nach dem Blackwell Release verkaufe, werde ich wohl 500 Euro draufzahlen und eine 5080 ergattern. So wie es bereits beim Wechsel 2080 -> 6800XT oder 6800XT - > 4080 gelauden ist.

Es ist relativ egal ob man jede Generation mitnimmt oder die nachfolgende Generation überspringt. Wenn man die alte Karte verkauft und jede gen upgraded, hat man über längere Zeit in etwa gleich hohe Kosten.

Wer jede neue Gen mitnimmt, hat aber immer die neusten Features:- D
 
  • Gefällt mir
Reaktionen: Cinquedea und DaHell63
Die preise werden nicht so abgehoben sein da es kein Sinn ergibt.
Maxed sehe ich beim gb203 84sm chip um die 1150€
Wichtiger sind die preise um die 500€ und welcher chip das wird. gddr7 ist völlig unnötig wenn der busbreite genug ist würde gddr6 völlig reichen aber ich glaube nicht daran das nvidia bei einer neuen gen 2 imc verbaut
leider ist gddr6 nicht kompatibel mit gddr7 um das zu vermeiden daher wird es teuer oder die vram Bestückung ist total daneben.
Etwa 10gb vram oder 6gb bei ner rtx5060 die rtx5080 reichen die 16gb locker nur ist das eben trotz des preises von 1150€ keine 2160p gpu
Dafür gibt es nur einen klasse enthusiast da war schon immer so
Sinnvolle konfig sehe ich nicht kommen nicht bei dem design das hätte mit rebrand ada chips deutliche andere preisstrategien ermöglicht.
gb207 20sm ist am desktop nicht zu gebrauchen gb206 36sm nahe dem zu wenig fürs geld und gb205 muss es richten aber ohne vcore keule wonach es leider aussieht
Einzig gb203 kann gute sku machen ist aber teuer 140$ und somit keine andere option als ne rtx5080 rt5080ti die den preispunkt der rtx4090 einnimmt 1700€

Die ai blase platzt bald dann muss nvidia eine Antwort haben für die Zukunft.
Nebenbei die rtx5080 wird kau schneller als die rtx4080 super sein. nviodia versucht mit dlss4 zu vermarkten

Wäre blackwell in n3e und schon auf doppelte alu per sm sähe es anders aus. aber das wird nicht passieren.
Der Grund ist auch das samsung sf3 nicht bereit ist
Der Preistreiber ist aber gddr7
 
syfsyn schrieb:
Nebenbei die rtx5080 wird kau schneller als die rtx4080 super sein. nviodia versucht mit dlss4 zu vermarkten
Interssantes Gerücht. Würde mich nicht überraschen.

Haste ne Quelle dafür?

Mit 20 Prozent höherem Power Target und 11 Prozent mehr Recheneinheiten könnte da 20-30 Prozent höhere Leistung bei raus kommen.

Aber nur wenn nVidia den Chip auf ca 3500Mhz takten kann.
 
Zuletzt bearbeitet:
Zurück
Oben