News GPU-GerĂĽchte: Hinweise auf GeForce RTX 3070 (Ti) mit GA104

redlabour schrieb:
8 GByte werden noch lange ausreichen. 🙄 Das Genörgel über 8GB ignoriert jedesmal den Fakt das bei mehr VRAM einfach mehr Ballast geladen wird der überhaupt nicht nötig ist.
Das war vor RTX so, ja. Aber die vielen Millionen Lichtstrahlen, die über RT zusätzlich berechnet werden müssen, summieren sich und heben den Speicherbedarf (vor allem bei hohen Auflösungen) enorm an.

Tatsächlich gilt: Je mehr, desto besser, da man sonst sehr komplizierte (und langsame) Algorithmen braucht, um den Speicherbedarf künstlich nach unten zu schrauben - was eben Performance kosten kann.
 
  • Gefällt mir
Reaktionen: Bright0001
Also ich brauche ebenfalls keinen erneuten AufguĂź einer 8 GB Karte. Ich wĂĽrde mir die 3080 (non TI) zwischen 700 und 800 Euro wĂĽnschen. Dann bitte aber mit 10 GB Speicher zumindest. Ansonsten schaue ich mich im roten Lager um. Ist mir Wuppe, wer meine Kohle bekommt.
 
Che-Tah schrieb:
Ohne Gsync... (auch wenn es beworben wird) außerdem erzeugt der ständig blackscreens. Muss man ständig abstecken und neu anstecken.
Können die LGs denn Gsync/FreeSync bei 4k/120? Die neuen Samsungs z.b. können es laut Spezifikation nicht. Da muss man sich zwischen 4K/120 ohne alles oder 4K/60 + VRR + HDR + ALLM entscheiden. Keine Ahnung wie das LG bei seinen handhabt oder ob das vielleicht sogar technisch limitiert ist. Beschäftige mich damit erst exzessiv wenn ein neuer TV ansteht und da ich aktuell mit dem LG 77G7V noch sehr zufrieden bin ist das frühestens nächstes Jahr der Fall ;)
Ergänzung ()

Xtrasmart schrieb:
Also ich brauche ebenfalls keinen erneuten AufguĂź einer 8 GB Karte. Ich wĂĽrde mir die 3080 (non TI) zwischen 700 und 800 Euro wĂĽnschen. Dann bitte aber mit 10 GB Speicher zumindest. Ansonsten schaue ich mich im roten Lager um. Ist mir Wuppe, wer meine Kohle bekommt.
700-800€ :lol:

In einem Jahr vielleicht aber sicher nicht als UVP ;)

Warum sollte Nvidia auch mit den Preisen runtergehen bei keiner Konkurrenz im High-End Bereich? AMD hat ja noch nicht mal die alte Generation eingeholt....und so lange sich das nicht ändert gehen bei Nvidia die Preise gehen nur in eine Richtung: Nach Oben!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bright0001
Zubz3ro schrieb:
hat nvidia dir den kopf gewaschen?

8gb sind bei amd/radeon schon lange untere mittelklasse/einsteiger. den 5600 unfall ignorieren wir mal.

Der Herr kann sich ja mal Statistiken ansehen welche GPUs tatsächlich verkauft werden.

Und AMD musste ja bisher ihre gruseligen Treiber und schlappen Karten wenigstens mit irgendetwas noch halbwegs konkurrenzfähig halten.

Tipp - AMD wird nicht sympathischer wenn die Fanboys jetzt auch noch deren Grafikkarten glorifizieren bevor diese ĂĽberhaupt auf dem Markt sind. AMD muss erstmal liefern.

Noch ein Tipp - diesen AMD Hochmut habe ich schonmal erlebt. Danach war AMD fast insolvent. Geschichte wiederholt sich.

AMD konnte schon immer Hardware und hat dann immer im Treibersupport versagt. Wer billig kauft kauft zweimal....

Das nimmt ja langsam esoterische ZĂĽge an. Leute..... Intel und AMD sind beides Konzerne. Kriegt Euch mal ein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
redlabour schrieb:
8 GByte werden noch lange ausreichen. 🙄 Das Genörgel über 8GB ignoriert jedesmal den Fakt das bei mehr VRAM einfach mehr Ballast geladen wird der überhaupt nicht nötig ist.
CB hat doch damals zu Anfang mit Turing das Gegenteil bewiesen. Teils deutliche Ruckler bzw. ruckeliges Gameplay.
Nachdem viele wegen dem kleinen Speicher aufgeschrien haben, hat Nvidia doch eine Kompression eingefĂĽhrt, damit die 8 GB langen und bei anderen sogar mehr Speicher verbaut.
Wenn ich mir deine Kommentare so durchlese, bist du wohl auch drauf reingefallen.
 
dann bringt doch mal beispiele also spiele in denen der vram nicht reicht und zu rucklern führen soll. natürlich mit 60fps aufwärts

drunter brauchen wir gar nicht drĂĽber reden.

in RDR2 oder control habe ich mit der 2080S in 3440x1440 keinerlei problem mit dem vram dennoch muss ich die settings runterstellen da die rohleistung nicht reicht. der vram ist hier nicht das problem.

in welchen games soll der vram denn mit 8gb so wenig sein dass es zu problemen kommt?
 
  • Gefällt mir
Reaktionen: redlabour
1070, 2070, 3070 mit 8GB...neee ist doch Kacke...dann halt einfach mal AMD, BIG Navi
 
ich weis es auch nicht. ich hatte noch nie vram probleme auĂźer als ich skyrim auf ner 4gb (gtx970) karte ĂĽbermoddet hatte...
 
  • Gefällt mir
Reaktionen: redlabour
MrNejo schrieb:
Solch einen Konkurrenzkampf wie damals wünsche ich mir auch für Ende diesen Jahres (290X damals als Titan Killer, 780ti mit jenem Titan Chip usw.). Ich versuche mich in Zurückhaltung aber bin doch sehr gespannt auf die nächsten Monate.
Wenn AMD und Intel konkurenzfähige Lösungen präsentieren sollten, dann wirds sogar noch besser als damals. ;) Ein Dreikampf in allen Leistungsklassen wäre wünschenwert, aber aus meiner Sicht reicht auch erstmal ein guter Preiskampf mit drei Fronten im Bereich 100-750€.
Ergänzung ()

redlabour schrieb:
Oh, da ist er - der erste der uns jetzt sofort alle Daten und Fakten liefern kann. Kniet nieder und empfangt die Erleuchtung. Big Navi wir huldigen Dir.... Leute...... 🙄
redlabour schrieb:
Kleiner Tipp - Big Navi wird nicht mit einer RTX3070 vergleichbar sein sondern mit der RTX3080 konkurrieren. 🤦‍♂️
Von Daten und Fakten schwadronieren und dann das... :D Das war jetzt schon irgendwie Situationskomik. Findest du nicht?
 
  • Gefällt mir
Reaktionen: budspencer und MrNejo
Chris2670 schrieb:
Nun wo ich schon länger bei 4K angekommen bin, möchte ich auch nicht mehr zurück, die Pixeldichte ist nun aber so hoch, dass ich nicht sehe irgendwann auf 8K Gaming zwingend upgraden zu müssen. 4K langt mir locker für Monitorgrößen von 32" bis 48". Bei 48" muss man ja auch zwangsläufig mehr Sichtabstand nehmen.

Meine 2080Ti langt auch nicht für alle Spieletitel auf 4K60 in Ultra konstant. Aber jede neue Graka Gen. wird mich von nun an auf immer neue fps Höhen hiefen. Jedenfalls hoffe ich das. Die Spiele Entwickler werden da natürlich schön gegen an arbeiten.
Wenn ich irgendwann mal mit Gsync oder Freesync auf 4k90-120 auf Ultra lande, bin ich zufrieden.

Wenn die 2080 Ti da schon zu kämpfen hat wird die 3080 da hoffentlich noch ein klein wenig drauf legen. Komme mit hohen Details aber auch noch zurecht. 4k60 ist dann allein für den 55" TV, denn der Monitor hat noch 1.080p 144Hz, das reicht mir.
 
Scrush schrieb:
dann bringt doch mal beispiele also spiele in denen der vram nicht reicht und zu rucklern führen soll. natürlich mit 60fps aufwärts

drunter brauchen wir gar nicht drĂĽber reden.
Wer legt die Grenze dafĂĽr fest? Du?

Spiel Witcher 3 mit VRR bei 45fps und mit 60fps ohne und du merkst z.B. keinen Unterschied. In Zeiten von VRR sind solche Grenzen schlicht Quatsch. Und irgendwelche avg-Werte sowieso. Ansonsten als aktuelles Beispiel mit Nutzung von zukĂĽnftiger Technik, die sich auch wegen der Konsolen immer weiter verbreiten wird:

Auch das zeigen unsere Benchmarks (sowie das eingebettete Video): Abhängig von der Kartenkomplexität kann es sein, dass selbst die 11 GiByte einer Geforce RTX 2080 Ti nicht genügen, sodass Daten in den Hauptspeicher ausgelagert werden müssen. Genau das passiert bei "Temples", sobald sich die dargestellten Chunks in Richtung Maximum bewegen. Mit 24 Weltstücken läuft der Speicher unserer Testkarte konsequent voll; zuerst tritt Nachladeruckeln auf und dann, mit weiterer Auslagerung zur Laufzeit, dauerhaft niedrige Performance. Mit steigender Auflösung verschlimmern sich die Symptome, da die Bildpuffer größer werden.
https://www.pcgameshardware.de/Mine...cials/Minecraft-RTX-Benchmark-Test-1348012/2/

Es ist Fakt, dass mit Raytracing der Speicherbedarf (deutlich) anziehen wird. Das ist kein Fantasiegespinst. Wer dann noch in UHD spielt, was einer Karte wie der kommenden 3080Ti angemessen ist, hat noch mehr Trauer.

Wer behauptet, dass 8GiB in (Kombination mit Raytracing) "noch lange ausreichen" werden, der lĂĽgt. Ganz einfach und da gibt es auch keine Ausreden fĂĽr eine andere Sichtweise.

Sie reichen noch lange im absoluten Mainstream. Aber darüber reden wir hier nicht, sondern über High-End mit entsprechender Performance und entsprechender Auflösung.
 
  • Gefällt mir
Reaktionen: Bright0001
Die speicheranbindung des VRam war doch bei AMD karten schon immer langsamer gewesen oder etwa nicht? Ich weiĂź nicht wie das jetzt bei den neuen navi karten ist bzw. dem SOC aber es hieĂź doch bisher immer das nvidia effizienter rechnen wĂĽrde als AMD.
 
  • Gefällt mir
Reaktionen: redlabour
Ich bin ja ma auf die Preise der 3080 und 3080Ti gespannt.
 
Dank DX12 Ultimate's Sampler Feedback hat so eine 3070 mit 8 GB VRAM auch eher 16-24 GB effektiven VRAM im Vergleich zu einer Pascal-Karte.
 
  • Gefällt mir
Reaktionen: redlabour
Beim VRAM-Argument wird immer auĂźer Acht gelassen, dass NVIDIAs DCC effizienter arbeitet als es bei AMD der Fall ist. Hinzu deutet sich bei Ampere ja auch an, dass das gesamte Platinenlayout ĂĽberarbeitet und Signalwege verkĂĽrzt worden sind - zumindest nach den Eckdaten der GerĂĽchte.

Dass RT automatisch mehr VRAM belegt, ist so auch nicht korrekt. Wird zeitgleich DLSS verwendet, bleibt der VRAM-Bedarf quasi auf gleichem Niveau - und DLSS 2.0 ist schon ziemlich gut.

Beispiel Tomb Raider (und das frisst von den neueren Spielen recht viel VRAM):

RT High:

SOTTR_2020_07_07_23_20_56_161.png


RT High + DLSS

SOTTR_2020_07_07_23_21_16_426.png


Ăśberraschung RT Off, Schatten Ultra

SOTTR_2020_07_07_23_21_40_706.png
 
  • Gefällt mir
Reaktionen: redlabour
Hoffentlich macht AMD mit deren nächster GPU Generation 16GB VRAM zum Standard im Highend-Segment, so wie es bei den GPUs der NextGen Konsolen (auch wenn shared) auch der Fall ist, so dass Entwickler ähnliche Presets verwenden können. Warum Nvidia hier geizt erklärt sich mir nicht so ganz.
 
feidl74 schrieb:
da ich nur wenige games zocke, wird wohl meine 1070 gtx auch die 3000er generation von nvidia einfach ĂĽberspringen. 4k mit 60hz geht auch mit meiner oldtimer karte;)
Und ich halte meine GTX 1080Ti fĂĽr eine FHD Karte, die mir langsam zu langsam wird.
So verschieden sind die Sichtweisen.
 
  • Gefällt mir
Reaktionen: Coeckchen
Pisaro schrieb:
NatĂĽrlich ist Ark mies optimiert. Ă„ndert leider nichts daran das dass mein meist gespieltes Spiel
dito............ oder wie ich immer sage ............es gibt Spiele und es gibt ARK!!! :lol:
 
  • Gefällt mir
Reaktionen: bad_sign und Pisaro
SKu schrieb:
Beim VRAM-Argument wird immer auĂźer Acht gelassen, dass NVIDIAs DCC effizienter arbeitet als es bei AMD der Fall ist.
Aus 8 GiB werden daraus bei Nvidia trotzdem keine 10 GiB. Das wird man dann auch im Vergleich mit einer 3080 sehen. Vorausgesetzt, sie bekommt dank Nvidias Speichergeiz nicht dasselbe Problem. ;)

SKu schrieb:
Dass RT automatisch mehr VRAM belegt, ist so auch nicht korrekt. Wird zeitgleich DLSS verwendet, bleibt der VRAM-Bedarf quasi auf gleichem Niveau - und DLSS 2.0 ist schon ziemlich gut.
Auch DLSS kann bereits für einen höheren Speicherbedarf sorgen:

Wer den Quervergleich der Benchmarkwerte wagt, erfährt außerdem, dass DLSS Speicher kostet, obwohl mit weniger Pixeln gearbeitet wird. Das lässt sich am ehesten herausfiltern, wenn man die Daten bei 24 RT-Cunks zwischen Ultra HD + DLSS mit nativem WQHD vergleicht. Ist DLSS aktiv, kommt eine Geforce RTX 2080 Ti in UHD auf keinen grünen Zweig mehr, die Performance ist infolge der großen Datenauslagerung völlig im Keller. Die gleiche Pixelmenge in nativem WQHD (ohne KI-Rekonstruktion) läuft zwar nicht flüssig, aber wesentlich besser.
https://www.pcgameshardware.de/Mine...cials/Minecraft-RTX-Benchmark-Test-1348012/2/

SKu schrieb:
Beispiel Tomb Raider (und das frisst von den neueren Spielen recht viel VRAM):
In UHD? (ok, beim Blick auf die fps erĂĽbrigt sich diese Frage schon. DĂĽrfte bei 90fps mit RT@High dann sogar nur FHD sein)

Siehe dazu auch PCGH:
Die stark divergierenden Machtverhältnisse zwischen den Modellen mit steigender Auflösung sind durchaus pikant. In Full HD ist die Welt noch in Ordnung, die Stufen von einem auf das nächstgrößere Modell wirken vertraut und "korrekt".

Schauen Sie sich nun ausschließlich die Werte mit "RT ultra" an. Ab Ultrawide-Quad-HD und erst recht in Ultra HD klappen die mit 8 und 6 GiByte bestückten Modelle zusammen. Hier spielt die Kapazität des Grafikspeichers zweifellos eine Rolle, sodass erst die mit 11 GiByte bestückte Geforce RTX 2080 Ti halbwegs spielbare Bildraten erzielt.
https://www.pcgameshardware.de/Shad.../Specials/RTX-Benchmarks-DLSS-Test-1278306/2/

Das "Problem" der reinen (min) fps, was Turing in Verbindung mit Raytracing in hohen Auflösungen noch hat, wird durch Ampere sowohl auf seiten der Rasterizing-Performance, als auch logischerweise der RT-Performance selbst angegangen. Der Speicher und das Problem bei einer GPU mit 8 GiB hingegen würde bleiben. Sprich (Roh)Leistung vorhanden, Speicher nicht. Einfach Quatsch sowas.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bright0001
ZurĂĽck
Oben