News Nvidia-Grafikchips: Ampere, Turing und Pascal im Fokus der Gerüchte

Vitec schrieb:
Da halte ich mal dagegen:
3080Ti-384bit-22GB
3080-320bit-20Gb
3070-256bit-16GB
3060Ti-256bit-16GB ?
3060- 192bit-12GB ?
GTX 3050Ti-128bit-8GB
GTX 3050-128bit-8/4GB

Es wäre zwar nicht NV`s Strategie, aber ich könnte mir vorstellen, dass sie dieses mal beim Vram wieder mal zulegen, auch im Hinblick auf RTX (braucht ja auch vram) und dann diese Vram Bestückung wieder einige Jahre stagnieren wird.

Du meinst, dass Nvidia von RTX 2080TI 11GB auf RTX 3080 TI 22GB springt? Wie du schon sagst, wünschenswert wäre es, aber es ist jenseits der Realität. Ich weiß, man sollte niemals nie sagen. Trotzdem sehe ich es so, dass Nvidia die Gewinnmarge weiter steigern will um kräftig abzukassieren und da wären geringe Herstellungskosten gerade ein Segen, da AMD durch Konsolenchips(vielleicht auch wegen Ray Tracing-Hardware noch nicht bereit) limitiert Grafikkarten in allen Bereichen ink. High-End-Bereich liefern kann. Nvidia hat ihren Karten immer wenig VRAM zur Seite gestellt, was die Grafikkarten zu einer kürzeren Lebensdauer verdammt hat.
 
  • Gefällt mir
Reaktionen: 1Pferdemädchen
weshalb sind 22 Gb VRam wünschenswert? Damit man zig Gb auf der KArte hat, die man nicht benutzen kann?
 
  • Gefällt mir
Reaktionen: USB-Kabeljau und GERmaximus
@Mustis
Wenn man den Gerüchten und der aktuellen Entwicklung in Sachen Rendering glauben schenken darf, lässt sich sowohl der Aufbau einer Beschleunigungsstruktur als auch die gesamte restliche Szenenverarbeitung auf die GPU schieben, so lange der VRAM ausreicht.

Durch RT muss man, wenn man es ernsthaft betreibt, weit mehr Information im Speicher halten, da jederzeit auch Szenerie außerhalb des Sichtbereiches dargestellt werden muss. Szenendaten+Texturen.

Die neuen Karten werden diesbezüglich einige Verbesserungen erfahren, die einige der notwendigen Berechnungen von der CPU auf die GPU verlagern. Das Programmiermodell flexibilisiert sich zudem DXR 1.1 ist der erste Schritt da hin.

Das braucht aber wie gesagt alles Platz auf den Karten. Zudem muss man sich der VRAM- Größe der künftigen Konsolengeneration anpassen. Deren RAM Ausstattung wird schätzungsweise zur Mindestkonfiguration auf den relevanten Gaming- Karten werden.

Zugriff auf den Arbeitsspeicher ist zeittechnisch wahnsinnig teuer. Herr Stutter lässt grüßen.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: USB-Kabeljau
Ich habe meine Zweifel, dass das bereits mit dieser Generation kommt. Zu teuer die Chips in der Menge, zu teuer das Interface (bzw. je nachdem). Das es mal so kommt, daran habe ich auch weniger Zweifel, ich denke nur, dass das mit der Generation ein zu großer Sprung wird. Wir haben grade erst RT bekommen (bei AMD steht es sogar noch bevor) und dann soll direkt ein solch Sprung beim Speicher kommen? Ich weiß nicht...
 
  • Gefällt mir
Reaktionen: USB-Kabeljau und v_ossi
Mustis schrieb:
weshalb sind 22 Gb VRam wünschenswert? Damit man zig Gb auf der KArte hat, die man nicht benutzen kann?
Also ich denke das man diesen Speicher durchaus sinnvoll nutzen kann, vor allem mit der neuen Konsolengeneration und Raytracing im Hinterkopf. Eine Speicherverdopplung ist jetzt auch nichts allzu ungewöhnliches, bei Nvidia zuletzt von Kepler auf Maxwell und dann nochmal auf Pascal (Natürlich mit kleineren Unterschieden, wie 780 3GB -> 980 4GB und 980ti 6GB -> 1080ti 11GB). Zudem muss man auch schauen was sinnvoll im Vergleich zur Konkurrenz ist, es ist gut möglich das der größte Navi Chip mit 16GB kommt, warum sollte Nvidia da weniger haben? Ja Nvidia verbaut meist nur das nötigste, war aber beim Topmodell in den letzten Jahren immer gleich auf oder gar voraus (980ti). Und dann muss man schauen was als Aufbau sinnvoll ist, ein 512bit Interface halte ich weiterhin für unrealistisch, somit bleibt für 16GB im Vollausbau eigentlich nur HBM (für die ganzen Pessimisten vlt auch beschnitten auf 14GB) und bei GDDR mit 1,5GB Chips gibt es wahrscheinlich keine krummen Werte (Wie sehen denn zb 16,5GB aus).
Also eine Steigerung des VRAM wird es sicherlich geben und somit halte ich 22GB für möglich. Wenn Nvidia auf eine Steigerung verzichtet, dann wäre das für mich überraschend und natürlich enttäuschend, aber wenn ich bedenke, dass sie RTX voran bringen wollen und wahrscheinlich der Einstieg diesmal schon mit einer möglichen 3050 stattfinden soll und 6GB schon bei der 2060 knapp werden mit Raytracing dann halte ich 6-8GB im Einstieg für möglich. Aber alles reine Spekulation, abwarten müssen wir sowieso.

Edit: auch immer wichtiger wird die Speicherbandbreite, also ist HBM vlt doch wahrscheinlicher? Oder Nvidia hat einen Weg gefunden 512bit mit weniger Aufwand herzustellen oder beschneidet es immer stark, wer weiß.
 
Zuletzt bearbeitet: (Ergänzung Speicherbandbreite)
CrustiCroc schrieb:
Du kannst Stand Bilder NIE mit dem echten "Am Monitor Erlebnis" vergleichen, das ist unmöglich.
Jedem, der bei mir zum ersten mal RT in Metro "Live" sieht, sagt nur : Wow !

So unterschiedlich sind halt die Wahrnehmungen.

Naja, wenn mir ein Freund stolz und begeistert seinen 2000€ PC mit Raytracing zeigt würde ich auch freundlich Wow sagen.
 
  • Gefällt mir
Reaktionen: professor1
@NMir
RTRT soll ja letztenendes gar keinen "Wow- Faktor" erschaffen. Es ist dann am besten, wenn es sich natürlich in die Gesamtszenerie einfügt und einfach nur die Schwächen der Rasterisierung ausbügelt und das Bild stimmiger wirken lässt. Dann trägt es unterbewusst schon viel zur Immersion bei. Dann ist der Kopf nicht die ganze Zeit beschäftigt die Fehler aus dem Bild rausrechnen zu müssen...

Dass einen RTRT nicht mehr vom Hocker haut ist ja auch insofern klar, als dass alle AAA Produktionen bereits mit Raytracing arbeiten. Ist zwar alles vorberechnet und unflexibel, sieht aber genau so aus bzw. kommt RTRT noch nicht an dessen Qualität ran:

z.B.

Grafisch eine Bombe...RT kanns qualitativ nicht besser.
Aber einfachste Dinge funktionieren nicht. Öffnet oder schliesst man aber eine Tür, merkt man, dass das Licht sich nicht enstprechend anpasst.

Eine "lebendige" Spielwelt, mit der man interagieren kann, wird mit zunehmendem Grad der Qualität immer ferner.
Hast Du ohne RTRT vorberechnete Schatten und Beleuchtung und Du zerstörst einen größeren Gegenstand in einem Raum, stimmt das gesamte Beleuchtungskonzept nicht mehr.

Rückwärtige Spiegelungen werden gemieden wie die Pest. Mirror in mirror wird gemieden wie die Pest. Hochauflösende Screenspace- Reflections ebenso.

Derzeit bauen die Leveldesigner oftmals nicht das, was sie wirklich erschaffen wollen, sondern um die technischen Einschränkungen vorberechneter Technik herum. RTRT beseitigt diesen Umstand.

Beispielhaft brauchst Du im Rasterverfahren zum ganzen händischen Tuning der Szenen auch noch exemplarisch 50.000 Codezeilen um die Szenerie hinzufaken, wohingegen RT mit 5000 auskommt.
Zudem hat man erheblich weniger Arbeit mit dem Generieren von Probes, Fake Lichtern etc. also all der manuellen Arbeit, die notwendig sind um eine Rasterbasierte Szene einigermaßen gut aussehen zu lassen...

RT ist also weniger ein Effekt, denn eine hochflexible Art den Szeneninhalt physikalisch korrekt und szenenunabhängig akkurat darzustellen.

Metro hat im übrigen einen "Bug" bzw. schlechtes Preset in Sachen Gamma bei aktiviertem RT. Das sollte man händisch korrigieren.
Die Gesamtszenenhelligkeit ist mit RT zu niedrig angesetzt, wenngleich die durch einen Patch angepasste eye adaption das Bild schon deutlich gegenüber der Erstversion aufbessert. Wenn man das beherzigt, saufen auch die Details nicht ab und man sieht deutlich besser, wo die Technik ansetzt...

LG
Zero
 
Zuletzt bearbeitet:
CrustiCroc schrieb:
Du kannst Stand Bilder NIE mit dem echten "Am Monitor Erlebnis" vergleichen, das ist unmöglich.
Jedem, der bei mir zum ersten mal RT in Metro "Live" sieht, sagt nur : Wow !

Hast du demjenigen den VORHER und NACHHER Vergleich gezeigt, oder nur Metro mit RTX on?
Ernstgemeinte Frage!
 
GERmaximus schrieb:
Hast du demjenigen den VORHER und NACHHER Vergleich gezeigt, oder nur Metro mit RTX on?
Ernstgemeinte Frage!
Für wie doof haltest du uns ?

Ernstgemeinte Frage!
 
@ZeroZerp Ja, Raytracing ist natürlich der eleganteste Weg und ohne Zweifel die Zukunft. Irgendwann wird es bestimmt Standard werden und die Kluft zu RTX off wird sich vergrößern. Mir persönlich ist zwar nicht mal in Watchdogs aufgefallen, dass alle Scheiben die gleiche leere Kreuzung spiegeln, aber Fotorealismus wird ohne Raytracing nicht gehen. Im Moment ist es imho allerdings nur für Enthusiasten attraktiv.
 
  • Gefällt mir
Reaktionen: Skysurfa
NMir schrieb:
Mir persönlich ist zwar nicht mal in Watchdogs aufgefallen, dass alle Scheiben die gleiche leere Kreuzung spiegeln, aber Fotorealismus wird ohne Raytracing nicht gehen. Im Moment ist es imho allerdings nur für Enthusiasten attraktiv.
Hehe- Es gibt halt die Grafik- Fetischisten und diejenigen, die über Unzulänglichkeiten einfach hinweg sehen.
Zweitere haben einfach den Vorteil, sich Geld sparen zu können und nicht jeden Trend mitmachen zu müssen.

Die können dann einfach entspannt warten und sich über den Mainstream mit der Zeit ganz automatisch von den grafischen Fortschritten abholen lassen.

Ich kann durchaus nachvollziehen, dass viele keine Lust haben 400€ und teils bedeutend mehr in Grafikkarten zu versenken. Muss halt einfach jeder für sich selbst entscheiden.

Einfach mal abwarten was das zweite Jahr mit RT bringen wird. Mit Konsolen und RDNA ist einiges an Bewegung garantiert.

Hoffentlich gestalten sie die Preise etwas humaner.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 54698uij0
Botcruscher schrieb:
Weil Faktracing wenig mit echtem RT gemein hat und die meisten bis her gezeigten Dinge auch deutlich billiger gehen. Der Qualitätsgewinn von durchgehend UHD@120Hz ist massiv höher als irgendwo ein Feuerlöscher mit besserem aber bei weitem nicht perfekten Schatten.
Aber scheinbar hatte das Marketing um RT mehr Erfolg als die Technologie eigentlich in der Form hergibt... Dafür bezahlt man dann massiv durch mehr Die Size bzw. weniger Leistung.

Weiß nicht, ich find Minecraft mit Pathtracing eigentlich wirklich, wirklich gut. Da kann ich auch auf UHD mit 120hz gerne Verzichten. Natürlich läuft das auch erstaunlich gut auf einer 5700xt und nutzt die RT Kerne gar nicht, aber ich find den RT Hype trotzdem gut. ;-)
 
Ich denke die neue Generation könnte wirklich enorm zu legen wenn ich die interessanten Ausführungen auch von anderen Foren lese.
Vermutliche Verdopplung der Shadereinheiten pro Cluster damit ein enormer Zuwachs an RT-Leistung da bessere Ausnutzung der auch stärker werdenden RT-Cores, dazu benötigt man auch mehr Speicher.
Für mich alles schlüssig.
 
Ich erstelle mir dann auch mal schnell einen Twitter Account, poste schwammige Leaks und komme in die Medien.
 
  • Gefällt mir
Reaktionen: Cpt.Willard, MrNejo und GERmaximus
CrustiCroc schrieb:
Für wie doof haltest du uns ?

Uns?
Wenn dann dich und das war nicht mal so gemeint wie du es vermutlich verstanden hast. Musst mich irgendwie falsch verstanden haben, dass dein Ton plötzlich so umschlägt. Oder ernte ich den Frust den NMir bei dir gesäht hat?
Wärst nicht der erste der jemanden völlig begeistert etwas zeigst, ohne vorher nachher Vergleich.

Und warum ich dich das Fragte:
zwei für RT offene Personen haben kaum bis keine Unterschiede festgestellt, während zwei Andere einen WOW Effekt hatten...
 
Wer kauft als Gamer Nvidia? Dann doch lieber eine der neuen Konsolen zum Preis einer Grafikkarte und man hat sogar noch deutlich mehr Leistung und seine Ruhe.
Was wohl die 10 und 20 GB VRAM Karten kosten werden? Bei der derzeitigen Preisstruktur sicher zu viel!

Leider gibt es auch keine neue Technologie welche irgendwie den Kauf einer teuren Grafikkarte rechtfertigt.
RT halte ich in der derzeitigen Situation für einen Blender, kann man nur mit den teuersten Karten überhaupt laufen lassen.
Mal sehen was die Marktführer in diesem Bereich auf den Markt bringen.
Mit Nvidia geht es jedenfalls steil bergab, bei Treibern zieht man auch immer mehr den kürzeren.
Technolgisch ist man seit Jahren hintenan. Es wird leider nur versucht mit exklusiven und eingeschränkten Features gegenüber den anderen Firmen zu punkten. Nur macht da weder Microsoft, noch die anderen mit...

Schade für Nvidia...
 
USB-Kabeljau schrieb:
Auch PhysX ist nach wie vor in Spielen vorhanden. Nur eben nicht mit exklusiver Beschleunigung durch NVidia-Grafikkarten.
Sabotiert das immer noch Systeme mit einer GPU von AMD? Davon ab hat das Nvidia eingekauft. Ist immer noch für mich ein Ausschluss Grund für ein Spiel, einfach weil zu viel scheiß mit der Bibliothek gemacht wurde. Dann doch lieber das ältere und schnellere Havoc und was es sonst so gibt.
 
  • Gefällt mir
Reaktionen: bierschiss.
bierschiss. schrieb:
Wer kauft als Gamer Nvidia? Dann doch lieber eine der neuen Konsolen zum Preis einer Grafikkarte und man hat sogar noch deutlich mehr Leistung und seine Ruhe.

Vielleicht Leute die auf dem PC zocken wollen ? Wann begreift man endlich das eine Konsole keine Alternative ist ? Ein PC Spieler will nicht auf einer Konsole zocken.
 
  • Gefällt mir
Reaktionen: acc und GERmaximus
bierschiss. schrieb:
Wer kauft als Gamer Nvidia? Dann doch lieber eine der neuen Konsolen zum Preis einer Grafikkarte und man hat sogar noch deutlich mehr Leistung und seine Ruhe.
Was wohl die 10 und 20 GB VRAM Karten kosten werden? Bei der derzeitigen Preisstruktur sicher zu viel!

Leider gibt es auch keine neue Technologie welche irgendwie den Kauf einer teuren Grafikkarte rechtfertigt.
RT halte ich in der derzeitigen Situation für einen Blender, kann man nur mit den teuersten Karten überhaupt laufen lassen.
Mal sehen was die Marktführer in diesem Bereich auf den Markt bringen.
Mit Nvidia geht es jedenfalls steil bergab, bei Treibern zieht man auch immer mehr den kürzeren.
Technolgisch ist man seit Jahren hintenan. Es wird leider nur versucht mit exklusiven und eingeschränkten Features gegenüber den anderen Firmen zu punkten. Nur macht da weder Microsoft, noch die anderen mit...

Schade für Nvidia...
Dein Beitrag ist echt erhellend.
Danke für deine Weisheiten.

In Schulnoten ausgedrückt ne glatte Sechs !
 
  • Gefällt mir
Reaktionen: USB-Kabeljau, GERmaximus und MrNejo
bierschiss. schrieb:
Wer kauft als Gamer Nvidia?
Frag das doch die >70% der Leute mit diskreter Grafikkarte, aber um eine echte (wenn auch nicht repräsentative) Zahl zu nennen, ich und 7 Leute in meinem Umfeld, aber die sind jetzt nach dir alle zu doof eine ordentliche Kaufentscheidung zu fällen oder wie darf ich deinen Post interpretieren.
bierschiss. schrieb:
Mit Nvidia geht es jedenfalls steil bergab, bei Treibern zieht man auch immer mehr den kürzeren.
Technolgisch ist man seit Jahren hintenan. Es wird leider nur versucht mit exklusiven und eingeschränkten Features gegenüber den anderen Firmen zu punkten. Nur macht da weder Microsoft, noch die anderen mit...

Schade für Nvidia...
Das stimmt bei über 3 Milliarden Dollar Umsatz im letzten Quartal geht es steil bergab bei Nvidia, habe gehört das die dort jetzt nur noch den billigen Kaffee kaufen. Technologisch immer hinten dran, keine dezidierten Einheiten für moderne Deep-Learning Berechnungen oder Raytracing und seit Jahren nicht die schnellste GPU am Markt. Eine richtige kleine traurige Firma, dieses verkümmerte Nvidia.
Apocalypse schrieb:
Sabotiert das immer noch Systeme mit einer GPU von AMD? Davon ab hat das Nvidia eingekauft. Ist immer noch für mich ein Ausschluss Grund für ein Spiel, einfach weil zu viel scheiß mit der Bibliothek gemacht wurde. Dann doch lieber das ältere und schnellere Havoc und was es sonst so gibt.
Wenn PhysX für dich ein Ausschlusskriterium ist, dann müsstest du in Zukunft auf beispielsweise alle Spiele mit UE 4 und Unity verzichten.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau und CrustiCroc
Zurück
Oben