News Gaming Ampere mit 8 GB: Nvidia verschiebt GeForce RTX 3070 um zwei Wochen

@NguyenV3

Patch 1.9 kam im Oktober 2016 und selbst heute klagen Nutzer unter DX 12 mit einer GTX 1060 6GB unter FullHD darüber.

Kleiner Hinweis: ich bin Besitzer einer GTX 1060 6GB UND einer RX 480 8GB!

Der restliche Unsinn wurde ja bereits von anderen widerlegt.
 
Ist halt irgendwo echt ärgerlich mit den 8GB. Ein bisschen mehr wäre doch perfekt gewesen. Wiederum verstehe ich die vlt kommende 16GB Variante nicht. Zumindest laut meiner denke wäre das doch zu überdimensioniert und damit vermutlich ein schlechteres Preis/Leistungsverhältnis. Dann doch lieber die 8GB und dafür 2-3 Regler runterstellen schätze ich.
 
Wadenbeisser schrieb:
Das ist Unsinn weil nicht die Texturen Leistung kosten sondern deren Auslagerung in den vergleichsweise schnarch lahmen RAM wenn der VRAM zu klein ist.
Nein, das ist kein Unsinn. Und die Texturen kommen auch nicht zwangsläufig vom Ram, sondern oft direkt von der Disk. Und das ändert alles nichts an den FPS, denn die Auswirkung sind Mikroruckler und delays in den sichtbaren Texturen.
Das Processing der Texturen schlägt sich jedoch in den FPS nieder, auch wenn das je nach Spiel gering ausfällt, insbesondere zw. High, Very High. Zu Low z.B. ist aber oft schon ein größerer Sprung zu sehen. Dass dem so ist, wurde ja auch in den Diagrammen auf der vorigen Seite hier gezeigt. Ja, es handelt sich oft nur um ein paar FPS, aber es ist nunmal vorhanden.

Wadenbeisser schrieb:
Falsch, Auszug aus WikipediaL
Ich nehme ungern Wikipedia als Quelle, aber bitte:
Die PlayStation 4 Pro (PS4 Pro) verfügt wie bereits die PS4 und PS4 Slim über 8 GB RAM des Typs GDDR5 und 256 MB des langsameren Typs DDR3, dieser wurde jedoch um weitere 768 MB erweitert, sodass der PS4 Pro nun insgesamt 1 GB DDR3-RAM für Hintergrundanwendungen zur Verfügung stehen, was unter anderem dafür sorgt, dass Hintergrundanwendungen und Texturen in Spielen schneller laden.
Wobei hiermit vermutlich gemeint ist, dass die Spiele dadurch mehr GDDR5 Ram zur Verfügung haben.
Zu dem Texture Preloading, schau dir bitte einfach die Dev Doku zu Orbis an und dann können wir ja nochmals weiter diskutieren. Alternativ, falls es dir möglich ist, kannst du dich auch an Naughty Dog wenden, die diesen Mechanismus ebenfalls nutzen.

iamyvo schrieb:
Wiederum verstehe ich die vlt kommende 16GB Variante nicht.
Das liegt halt einfach am Layout.. Da werden nur die 8Gb durch 16Gb Chips ausgetauscht.
 
foo_1337 schrieb:
Das liegt halt einfach am Layout.. Da werden nur die 8Gb durch 16Gb Chips ausgetauscht.
Aber warum packt man dann nicht direkt 10GB drauf und zb 12GB auf die 3080? Ich meine eine 20GB 3080 braucht doch eigentlich auch niemand oder versteh ich da was falsch?
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Weil 12GB mit einem 320bit Memory Bus (3080) nicht gehen und 10GB nicht mit 256 Bit (3070).
 
  • Gefällt mir
Reaktionen: Cpt.Willard und iamyvo
@iamyvo
Die Speicherbausteine haben eine bestimmte Größe z.B. 1 GB pro Stück
Das Speicherinterface der Karte muss mit einer passenden Anzahl verbunden werden, damit alles gleichmäßig schnell angesprochen werden kann.
Also 10 mal 1GB oder später 10 mal 2GB

@foo_1337
Theoretisch geht das schon, nur hat kein Hersteller VRAM-Steinchen mit 1,2GB pro Stück :freaky:
 
  • Gefällt mir
Reaktionen: USB-Kabeljau, Nagilum99 und iamyvo
@foo_1337

Wo bleibt das Textverständnis?
Wenn deine Ausführung zum Thema Leistungsbedarf bei Texturen stimmen würde, warum spart man dann beim runterschalten von der höchsten zur geringsten Texturenstufe so gut wie nichts an Leistung wenn der VRAM reicht?

Des weiteren beschleunigt es natürlich Hintergrundanwendungen und Spiele wenn die Hintergrundprogramme ihren eigenen Speicher bekommen, Spiele dadurch mehr vom schnellen Speicher zur Verfügung steht und dem auch noch die Speicherzugriffe der Hintergrundprogramme abgenommen werden.
 
Wadenbeisser schrieb:
@foo_1337

Wo bleibt das Textverständnis?
Wenn deine Ausführung zum Thema Leistungsbedarf bei Texturen stimmen würde, warum spart man dann beim runterschalten von der höchsten zur geringsten Texturenstufe so gut wie nichts an Leistung wenn der VRAM reicht?
https://images.nvidia.com/geforce-c...bow-six-siege-texture-quality-performance.png
Wenn das dein Verständnis von "so gut wiegar nichts" ist, ok.
Soll ich noch nach weiteren Diagrammen suchen oder bist du mittlerweile damit Einverstanden, dass das je Implementierung unterschiedlich sein kann?

Wadenbeisser schrieb:
Des weiteren beschleunigt es natürlich Hintergrundanwendungen und Spiele wenn die Hintergrundprogramme ihren eigenen Speicher bekommen, Spiele dadurch mehr vom schnellen Speicher zur Verfügung steht und dem auch noch die Speicherzugriffe der Hintergrundprogramme abgenommen werden.
Dass dem so ist, habe ich bereits geschrieben. Ändert aber nichts daran, dass es auch noch die andere Methode gibt. Leider ist die Orbis SDK Doku nicht öffentlich, daher als Quelle nicht verwendbar.

Pizza! schrieb:
@foo_1337
Theoretisch geht das schon, nur hat kein Hersteller VRAM-Steinchen mit 1,2GB pro Stück :freaky:
Ja richtig.. In dem Fall ist man aktuell sogar auf 8Gb limitiert, bis Micron die 16Gb liefern kann ;)
 
Pizza! schrieb:
Theoretisch geht das schon, nur hat kein Hersteller VRAM-Steinchen mit 1,2GB pro Stück

Theoretisch gehen auch 6x1GByte und 2x2Gbyte, es würde nur dazu führen, dass ein Teil vom Speicher nur vergleichsweise langsam angesprochen werden könnte. Man hätte dann einen Nachfolger der GTX970.

EDIT: Nur kurz zu Erklärung, der 320bit Speicherbus ergibt sich aus 10x32bit pro Modul. Wenn nun zwei größere Module verbaut wären, könnte man auf 10GB vom gesamten Speicher mit 320bit zugreifen und auf die restlichen 2GB, nur mit 64bit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337
@foo_1337

Versuch es doch einfach mal mit den Balken aus #278 und stelle dir die Frage warum bei deinem Beispiel so gut wie kein Unterschied zwischen Very high und medium besteht.....
Ersteres entspricht übrigens auch meinen Erfahrungen, mehr als eine hand voll % ist da nicht zu holen, es sei denn das dadurch noch andere Funktionen beeinträchtigt werden. Vermuitlich war genau das bei deinem Beispiel der Fall.

Und nein, deine Aussage war das Texturen in diesen Zusatzspeicher geladen werden um sie vorzuhalten und das ist offensichtlich falsch. Des weiteren gibt es im Vergleich zum PC Sektor noch einen weiteren, entscheidenen Unterschied beim Speichermanagement des Hauptspeichers.
CPU und GPU schreiben Daten in einen gemeinsamen Adressbereich und können diesen vollständig auslesen (hUMA). Kopiervorgänge zwischen beiden Einheiten, wie in einem konventionellen System mit getrennten Speicherpartitionen, entfallen.
 
Wadenbeisser schrieb:
@foo_1337

Versuch es doch einfach mal mit den Balken aus #278 und stelle dir die Frage warum bei deinem Beispiel so gut wie kein Unterschied zwischen Very high und medium besteht.....
Ersteres entspricht übrigens auch meinen Erfahrungen, mehr als eine hand voll % ist da nicht zu holen, es sei denn das dadurch noch andere Funktionen beeinträchtigt werden. Vermuitlich war genau das bei deinem Beispiel der Fall.
32bit FP vs 8bit FP, hatte ich ja bereits gesagt. In #278 sind es 4FPS. Meine Aussage war, dass es Leistung zehrt und das ist damit auch belegt. Ich habe nie ein adjektiv vor Leistung gesetzt, das war die reine Interpretation von dir und RuhmWolf.

Wadenbeisser schrieb:
Und nein, deine Aussage war das Texturen in diesen Zusatzspeicher geladen werden um sie vorzuhalten und das ist offensichtlich falsch. Des weiteren gibt es im Vergleich zum PC Sektor noch einen weiteren, entscheidenen Unterschied beim Speichermanagement des Hauptspeichers.
Ist das jetzt ein Witz? Kurz nach der APU für die PS4 war hUMA auch in den "normalen" AMD x86 CPU im PC Sektor, freilich nur bei intergrierter Grafik, wobei die diskrete GPU auch auf diesen Speicherbereich zugreifen könnte. Wird aber in der Praxis fast nie gemacht, außer im Serverbereich (Virtualisierung). Mit der angesprochenen Thematik hat das aber nichts zu tun und die Wikipedia Zitate nerven langsam.
Ich habe dich nun mehrfach auf die Doku von Sony hingewiesen. Da diese nirgendwo öffentlich zugänglich ist, kann ich daraus auch nicht zitieren, sorry. Und meine Aussage war btw:
Wobei hiermit vermutlich gemeint ist, dass die Spiele dadurch mehr GDDR5 Ram zur Verfügung haben.
 
@foo_1337

Das sind dann aber nicht die Texturen sonden das zusätzlich noch etwas anderes ab-/umgeschaltet wurde......
Demzufolge kosten die höherwertigen Texturen an sich also so gut wie nichts an Grafikleistung und schon sind wir wieder da wo wir angefangen haben.

Und nein, hUMA ist für PC Spiele praktisch irrelevant da es keinen gemeinsamen Speicherpool für CPU und GPU gibt. AMDs APUs mögen dazu in der Lage sein, genutzt wird es aber nicht weil dennoch mit getrennten Speicherbereichen gearbeitet wird. Genau das war ja auch meine Aussage, es ist für aktuelle PC Spiele faktisch irrelevant weil ungenutzt.

Du kannst übrigens so oft auf Sonys Dokumentation hinweisen wie du willst, du bist für das Belegen deiner Aussage in der Bringepflicht und entsprechend erwarte ich dann auch die entsprechenden Links und Zitate in denen steht das Texturen zum Zwischenspeichern in den DDR3 Speicher geladen werden und keine waage Interpretationeiner Aussage.
Ergänzung ()

Ach ja, per PM weil sich bei mir mehr und mehr der Einduck festigt das du nur rumtrollen willst.
 
Wadenbeisser schrieb:
@foo_1337
Das sind dann aber nicht die Texturen sonden das zusätzlich noch etwas anderes ab-/umgeschaltet wurde......
Demzufolge kosten die höherwertigen Texturen an sich also so gut wie nichts an Grafikleistung und schon sind wir wieder da wo wir angefangen haben.
Wir haben beim Regler angefangen siehe #257. Und daher ist meine Aussage nicht falsch. Alles andere, was du korrekt dazu gesagt hast, habe ich bestätigt, und dir nicht widersprochen.

Wadenbeisser schrieb:
@foo_1337

Das sind dann aber nicht die Texturen sonden das zusätzlich noch etwas anderes ab-/umgeschaltet wurde......
Demzufolge kosten die höherwertigen Texturen an sich also so gut wie nichts an Grafikleistung und schon sind wir wieder da wo wir angefangen haben.

Und nein, hUMA ist für PC Spiele praktisch irrelevant da es keinen gemeinsamen Speicherpool für CPU und GPU gibt. AMDs APUs mögen dazu in der Lage sein, genutzt wird es aber nicht weil dennoch mit getrennten Speicherbereichen gearbeitet wird. Genau das war ja auch meine Aussage, es ist für aktuelle PC Spiele faktisch irrelevant weil ungenutzt.
Doch, es wird genutzt, nämlich unter anderem in der Virtualisierung. Du hast btw nicht "PC Spiele" geschrieben, sondern "PC Sektor". Und was das mit dem Texturen Preloading zu tun hat, erschließt sich mir nach wie vor nicht.

Wadenbeisser schrieb:
@foo_1337

Das sind dann aber nicht die Texturen sonden das zusätzlich noch etwas anderes ab-/umgeschaltet wurde......
Demzufolge kosten die höherwertigen Texturen an sich also so gut wie nichts an Grafikleistung und schon sind wir wieder da wo wir angefangen haben.

Und nein, hUMA ist für PC Spiele praktisch irrelevant da es keinen gemeinsamen Speicherpool für CPU und GPU gibt. AMDs APUs mögen dazu in der Lage sein, genutzt wird es aber nicht weil dennoch mit getrennten Speicherbereichen gearbeitet wird. Genau das war ja auch meine Aussage, es ist für aktuelle PC Spiele faktisch irrelevant weil ungenutzt.

Du kannst übrigens so oft auf Sonys Dokumentation hinweisen wie du willst, du bist für das Belegen deiner Aussage in der Bringepflicht und entsprechend erwarte ich dann auch die entsprechenden Links und Zitate in denen steht das Texturen zum Zwischenspeichern in den DDR3 Speicher geladen werden und keine waage Interpretationeiner Aussage.
Ach ja, per PM weil sich bei mir mehr und mehr der Einduck festigt das du nur rumtrollen willst.
Ich bin in keiner Bringpflicht, wieso auch? Es juckt mich ehrlich gesagt relativ wenig, ob es jemand glaubt, oder nicht. Und ich werde hier sicher keine Passagen, die unter NDA sind, veröffentlichen, zumal diese mir selbst nicht vorliegen. Es ist nur sehr lächerlich, dass dein Standpunkt anscheinend ist, dass wenn etwas nicht bei Wikipedia steht, es nicht existiert, oder möglich ist. Daher ist die Diskussion für mich ohnehin beendet. Da brauche ich auch keine PM.
Eigentlich solltest du wissen, dass, gerade bei Konsolen, aber auch in der x86 Welt schon immer undokumentierte Quirks ausgenutzt wurden. Und beim c64 wären, wenn man sich nur an die Commodore/MOS Doku gehalten hätte, so vieles nicht möglich gewesen und man hätte sich nur knapp über Atari 2600 Niveau bewegt. Aber hey, das steht ja mittlerweile wahrscheinlich auch bei Wikipedia ;)
Der Witz an der Sache ist nur, dass das Feature hier nichtmal undokumentiert ist, außer man nimmt halt Wikipedia als Dokumentation.

Aber alles in allem hast du natürlich recht: Ich will nur rumtrollen. Daher sollten wir das Thema jetzt auch gut sein lassen.
 
Zuletzt bearbeitet von einem Moderator:
fox40phil schrieb:
(aber ja ich weiß, es wird sich stets für NV entschieden, auch wenn AMD das „bessere“ Produkt hat oder mehr Vram, siehe 1060 vs 480)

die 480 war auch ein paperlaunch. und die 1060 ist abgesehen vom vram nichtmal schlechter. verbaucht auch nix
 
  • Gefällt mir
Reaktionen: fox40phil
@foo_1337

Ah OK, du versuchst künstlich am Thema vorbei zu reden um eine nutzlose Diskussion vom Zaun zu brechen, was ich wiederum als trollen ansehe und ignorierst auch noch den PM Hinweis.
Damit kann ich mir sparen weiter darauf einzugehen.
 
  • Gefällt mir
Reaktionen: cookie_dent
Eines noch: Du solltest wirklich mal die Texte ganz lesen. Auf den PM Hinweis bin ich bereits eingegangen. Zitat:
Daher ist die Diskussion für mich ohnehin beendet. Da brauche ich auch keine PM.
Und die ganze (da stimme ich dir zu: Nutzlose) Diskussion ist doch auch nur entstanden, weil seit der Vorstellung der Karten zum gefühlt 1000sten mal die 8GB VRAM der 3070 kritisiert wurden. Wo man sich immer noch fragt: Was erwartet man denn von Nvidia für 499€?
Ich wollte die Wichtigkeit der VRAM Menge bei <4k lediglich relativieren, was mir anscheinend nicht gelungen ist, daher lass ich's nun bleiben. Das Thema PS4 hab nicht ich ins Spiel gebracht ;)
 
Zuletzt bearbeitet von einem Moderator:
Toll, dann sind zum launch 120 start 100 Karten verfügbar.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
cypeak schrieb:
weil man fortschritt bei gpu's nicht nur mit der menge an vram misst.

es gibt auch eine welt außerhalb der 4k/uhd blase, und die ist sogar eher die regel als ausnahme - der großteil der leute spielt noch in fhd und wqhd - da sind 8gb noch gut.
Sorry, aber wenn die Leistung deutlich über der 1080Ti liegen soll wäre ein entsprechender Speicherausbau durchaus sinnvoll.
Schon die 1080Ti kann UHD ja ohne Probleme. Die hat aber auch 11GB. Die 3070 wäre mit einem besseren Speicherausbau eine echte Alternative. Aber mit 8GB reisst sie nur für Auflösungen unterhalb UHD interessant, obwohl sie durchaus das Potenzial für eben UHD hat.
Da hoffe ich nur, dass Custom-Designs hier mit mehr Speicherausbau auftrumpfen. Dann reisst die 3070 im Mittelfeld alles ein.
 
DocWindows schrieb:
Hoffentlich kündigt AMD einen Tag vorher was vernünftiges an. Dann ist vielleicht noch eine kleine Preissenkung für die 3070 drin. Entschädigt dann etwas für die längere Wartezeit.
Warum kauft man dann nicht einfach AMD?
 
  • Gefällt mir
Reaktionen: McTheRipper
GrinderFX schrieb:
... welche Trümpfe handelt es sich denn? ... Insider und AMD hat eine extrem überlegene Karte auf Lager, von der wir alle nichts wissen?

Navi20(?), denkbar wäre so etwas angesichts der ausgesprochen guten Anti-Leak-Politik bei AMD/RTG aktuell und mehr Chipgröße ist allemal drin, da man diesbezüglich ja auch noch weit unter nVidia liegt.

Allerdings wäre solch eine GPU verbrauchstechnisch eher nicht unbedingt sinnvoll und am wichtigsten, wohl nicht sonderlich gewinnträchtig sondern kostentreibend in kleiner Auflage (zumal AMD/RTG eben kein Premiumpreis Produkt-Image hat im Gegensatz zu nVidia, Apple oder Intel etwa).

Auch wenn man sich die Leistungskrone dann sichern würde - und irgendwie habe ich nicht das Gefühl, dass AMD/RTG in der 3090(+) Leistungsklasse um biegen und brechen aus Prestigegründen mitspielen will, damit aber gleichzeitig finanzielle Verluste einzufahren bereit ist (zumal man auch nicht dGPU-Marktführer ist) - wäre dieser Ansatz sicherlich ein Risiko und weil Navi RDNA3 schon in Treibern gesichtet wurde wohl auch nicht unbedingt passend in einer solchen Roadmap (wer weiss wie zeitnah RDNA3 nach RDNA2 schon kommen könnte(?), denn das könnte der große Knaller werden und nVidia massiv fordern).

Es wäre eine riesige Überraschung, keine Frage, aber das ist auf die aktuelle Nachrichtenlage wohl eher unwahrscheinlich und Wunschdenken einiger AMD/RTG Anhänger (nicht, dass ich es damit aber kategorisch ausschließen würde, denkbar ist vieles).
 
Zurück
Oben