Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Gaming Ampere mit 8 GB: Nvidia verschiebt GeForce RTX 3070 um zwei Wochen
- Ersteller Jan
- Erstellt am
- Zur News: Gaming Ampere mit 8 GB: Nvidia verschiebt GeForce RTX 3070 um zwei Wochen
Ist halt irgendwo echt ärgerlich mit den 8GB. Ein bisschen mehr wäre doch perfekt gewesen. Wiederum verstehe ich die vlt kommende 16GB Variante nicht. Zumindest laut meiner denke wäre das doch zu überdimensioniert und damit vermutlich ein schlechteres Preis/Leistungsverhältnis. Dann doch lieber die 8GB und dafür 2-3 Regler runterstellen schätze ich.
F
foo_1337
Gast
Nein, das ist kein Unsinn. Und die Texturen kommen auch nicht zwangsläufig vom Ram, sondern oft direkt von der Disk. Und das ändert alles nichts an den FPS, denn die Auswirkung sind Mikroruckler und delays in den sichtbaren Texturen.Wadenbeisser schrieb:Das ist Unsinn weil nicht die Texturen Leistung kosten sondern deren Auslagerung in den vergleichsweise schnarch lahmen RAM wenn der VRAM zu klein ist.
Das Processing der Texturen schlägt sich jedoch in den FPS nieder, auch wenn das je nach Spiel gering ausfällt, insbesondere zw. High, Very High. Zu Low z.B. ist aber oft schon ein größerer Sprung zu sehen. Dass dem so ist, wurde ja auch in den Diagrammen auf der vorigen Seite hier gezeigt. Ja, es handelt sich oft nur um ein paar FPS, aber es ist nunmal vorhanden.
Ich nehme ungern Wikipedia als Quelle, aber bitte:Wadenbeisser schrieb:Falsch, Auszug aus WikipediaL
Die PlayStation 4 Pro (PS4 Pro) verfügt wie bereits die PS4 und PS4 Slim über 8 GB RAM des Typs GDDR5 und 256 MB des langsameren Typs DDR3, dieser wurde jedoch um weitere 768 MB erweitert, sodass der PS4 Pro nun insgesamt 1 GB DDR3-RAM für Hintergrundanwendungen zur Verfügung stehen, was unter anderem dafür sorgt, dass Hintergrundanwendungen und Texturen in Spielen schneller laden.
Wobei hiermit vermutlich gemeint ist, dass die Spiele dadurch mehr GDDR5 Ram zur Verfügung haben.
Zu dem Texture Preloading, schau dir bitte einfach die Dev Doku zu Orbis an und dann können wir ja nochmals weiter diskutieren. Alternativ, falls es dir möglich ist, kannst du dich auch an Naughty Dog wenden, die diesen Mechanismus ebenfalls nutzen.
Das liegt halt einfach am Layout.. Da werden nur die 8Gb durch 16Gb Chips ausgetauscht.iamyvo schrieb:Wiederum verstehe ich die vlt kommende 16GB Variante nicht.
Aber warum packt man dann nicht direkt 10GB drauf und zb 12GB auf die 3080? Ich meine eine 20GB 3080 braucht doch eigentlich auch niemand oder versteh ich da was falsch?foo_1337 schrieb:Das liegt halt einfach am Layout.. Da werden nur die 8Gb durch 16Gb Chips ausgetauscht.
F
foo_1337
Gast
Weil 12GB mit einem 320bit Memory Bus (3080) nicht gehen und 10GB nicht mit 256 Bit (3070).
@iamyvo
Die Speicherbausteine haben eine bestimmte Größe z.B. 1 GB pro Stück
Das Speicherinterface der Karte muss mit einer passenden Anzahl verbunden werden, damit alles gleichmäßig schnell angesprochen werden kann.
Also 10 mal 1GB oder später 10 mal 2GB
@foo_1337
Theoretisch geht das schon, nur hat kein Hersteller VRAM-Steinchen mit 1,2GB pro Stück
Die Speicherbausteine haben eine bestimmte Größe z.B. 1 GB pro Stück
Das Speicherinterface der Karte muss mit einer passenden Anzahl verbunden werden, damit alles gleichmäßig schnell angesprochen werden kann.
Also 10 mal 1GB oder später 10 mal 2GB
@foo_1337
Theoretisch geht das schon, nur hat kein Hersteller VRAM-Steinchen mit 1,2GB pro Stück
W
Wadenbeisser
Gast
@foo_1337
Wo bleibt das Textverständnis?
Wenn deine Ausführung zum Thema Leistungsbedarf bei Texturen stimmen würde, warum spart man dann beim runterschalten von der höchsten zur geringsten Texturenstufe so gut wie nichts an Leistung wenn der VRAM reicht?
Des weiteren beschleunigt es natürlich Hintergrundanwendungen und Spiele wenn die Hintergrundprogramme ihren eigenen Speicher bekommen, Spiele dadurch mehr vom schnellen Speicher zur Verfügung steht und dem auch noch die Speicherzugriffe der Hintergrundprogramme abgenommen werden.
Wo bleibt das Textverständnis?
Wenn deine Ausführung zum Thema Leistungsbedarf bei Texturen stimmen würde, warum spart man dann beim runterschalten von der höchsten zur geringsten Texturenstufe so gut wie nichts an Leistung wenn der VRAM reicht?
Des weiteren beschleunigt es natürlich Hintergrundanwendungen und Spiele wenn die Hintergrundprogramme ihren eigenen Speicher bekommen, Spiele dadurch mehr vom schnellen Speicher zur Verfügung steht und dem auch noch die Speicherzugriffe der Hintergrundprogramme abgenommen werden.
F
foo_1337
Gast
https://images.nvidia.com/geforce-c...bow-six-siege-texture-quality-performance.pngWadenbeisser schrieb:@foo_1337
Wo bleibt das Textverständnis?
Wenn deine Ausführung zum Thema Leistungsbedarf bei Texturen stimmen würde, warum spart man dann beim runterschalten von der höchsten zur geringsten Texturenstufe so gut wie nichts an Leistung wenn der VRAM reicht?
Wenn das dein Verständnis von "so gut wiegar nichts" ist, ok.
Soll ich noch nach weiteren Diagrammen suchen oder bist du mittlerweile damit Einverstanden, dass das je Implementierung unterschiedlich sein kann?
Dass dem so ist, habe ich bereits geschrieben. Ändert aber nichts daran, dass es auch noch die andere Methode gibt. Leider ist die Orbis SDK Doku nicht öffentlich, daher als Quelle nicht verwendbar.Wadenbeisser schrieb:Des weiteren beschleunigt es natürlich Hintergrundanwendungen und Spiele wenn die Hintergrundprogramme ihren eigenen Speicher bekommen, Spiele dadurch mehr vom schnellen Speicher zur Verfügung steht und dem auch noch die Speicherzugriffe der Hintergrundprogramme abgenommen werden.
Ja richtig.. In dem Fall ist man aktuell sogar auf 8Gb limitiert, bis Micron die 16Gb liefern kannPizza! schrieb:@foo_1337
Theoretisch geht das schon, nur hat kein Hersteller VRAM-Steinchen mit 1,2GB pro Stück
Pizza! schrieb:Theoretisch geht das schon, nur hat kein Hersteller VRAM-Steinchen mit 1,2GB pro Stück
Theoretisch gehen auch 6x1GByte und 2x2Gbyte, es würde nur dazu führen, dass ein Teil vom Speicher nur vergleichsweise langsam angesprochen werden könnte. Man hätte dann einen Nachfolger der GTX970.
EDIT: Nur kurz zu Erklärung, der 320bit Speicherbus ergibt sich aus 10x32bit pro Modul. Wenn nun zwei größere Module verbaut wären, könnte man auf 10GB vom gesamten Speicher mit 320bit zugreifen und auf die restlichen 2GB, nur mit 64bit.
Zuletzt bearbeitet:
W
Wadenbeisser
Gast
@foo_1337
Versuch es doch einfach mal mit den Balken aus #278 und stelle dir die Frage warum bei deinem Beispiel so gut wie kein Unterschied zwischen Very high und medium besteht.....
Ersteres entspricht übrigens auch meinen Erfahrungen, mehr als eine hand voll % ist da nicht zu holen, es sei denn das dadurch noch andere Funktionen beeinträchtigt werden. Vermuitlich war genau das bei deinem Beispiel der Fall.
Und nein, deine Aussage war das Texturen in diesen Zusatzspeicher geladen werden um sie vorzuhalten und das ist offensichtlich falsch. Des weiteren gibt es im Vergleich zum PC Sektor noch einen weiteren, entscheidenen Unterschied beim Speichermanagement des Hauptspeichers.
Versuch es doch einfach mal mit den Balken aus #278 und stelle dir die Frage warum bei deinem Beispiel so gut wie kein Unterschied zwischen Very high und medium besteht.....
Ersteres entspricht übrigens auch meinen Erfahrungen, mehr als eine hand voll % ist da nicht zu holen, es sei denn das dadurch noch andere Funktionen beeinträchtigt werden. Vermuitlich war genau das bei deinem Beispiel der Fall.
Und nein, deine Aussage war das Texturen in diesen Zusatzspeicher geladen werden um sie vorzuhalten und das ist offensichtlich falsch. Des weiteren gibt es im Vergleich zum PC Sektor noch einen weiteren, entscheidenen Unterschied beim Speichermanagement des Hauptspeichers.
CPU und GPU schreiben Daten in einen gemeinsamen Adressbereich und können diesen vollständig auslesen (hUMA). Kopiervorgänge zwischen beiden Einheiten, wie in einem konventionellen System mit getrennten Speicherpartitionen, entfallen.
F
foo_1337
Gast
32bit FP vs 8bit FP, hatte ich ja bereits gesagt. In #278 sind es 4FPS. Meine Aussage war, dass es Leistung zehrt und das ist damit auch belegt. Ich habe nie ein adjektiv vor Leistung gesetzt, das war die reine Interpretation von dir und RuhmWolf.Wadenbeisser schrieb:@foo_1337
Versuch es doch einfach mal mit den Balken aus #278 und stelle dir die Frage warum bei deinem Beispiel so gut wie kein Unterschied zwischen Very high und medium besteht.....
Ersteres entspricht übrigens auch meinen Erfahrungen, mehr als eine hand voll % ist da nicht zu holen, es sei denn das dadurch noch andere Funktionen beeinträchtigt werden. Vermuitlich war genau das bei deinem Beispiel der Fall.
Ist das jetzt ein Witz? Kurz nach der APU für die PS4 war hUMA auch in den "normalen" AMD x86 CPU im PC Sektor, freilich nur bei intergrierter Grafik, wobei die diskrete GPU auch auf diesen Speicherbereich zugreifen könnte. Wird aber in der Praxis fast nie gemacht, außer im Serverbereich (Virtualisierung). Mit der angesprochenen Thematik hat das aber nichts zu tun und die Wikipedia Zitate nerven langsam.Wadenbeisser schrieb:Und nein, deine Aussage war das Texturen in diesen Zusatzspeicher geladen werden um sie vorzuhalten und das ist offensichtlich falsch. Des weiteren gibt es im Vergleich zum PC Sektor noch einen weiteren, entscheidenen Unterschied beim Speichermanagement des Hauptspeichers.
Ich habe dich nun mehrfach auf die Doku von Sony hingewiesen. Da diese nirgendwo öffentlich zugänglich ist, kann ich daraus auch nicht zitieren, sorry. Und meine Aussage war btw:
Wobei hiermit vermutlich gemeint ist, dass die Spiele dadurch mehr GDDR5 Ram zur Verfügung haben.
W
Wadenbeisser
Gast
@foo_1337
Das sind dann aber nicht die Texturen sonden das zusätzlich noch etwas anderes ab-/umgeschaltet wurde......
Demzufolge kosten die höherwertigen Texturen an sich also so gut wie nichts an Grafikleistung und schon sind wir wieder da wo wir angefangen haben.
Und nein, hUMA ist für PC Spiele praktisch irrelevant da es keinen gemeinsamen Speicherpool für CPU und GPU gibt. AMDs APUs mögen dazu in der Lage sein, genutzt wird es aber nicht weil dennoch mit getrennten Speicherbereichen gearbeitet wird. Genau das war ja auch meine Aussage, es ist für aktuelle PC Spiele faktisch irrelevant weil ungenutzt.
Du kannst übrigens so oft auf Sonys Dokumentation hinweisen wie du willst, du bist für das Belegen deiner Aussage in der Bringepflicht und entsprechend erwarte ich dann auch die entsprechenden Links und Zitate in denen steht das Texturen zum Zwischenspeichern in den DDR3 Speicher geladen werden und keine waage Interpretationeiner Aussage.
Ach ja, per PM weil sich bei mir mehr und mehr der Einduck festigt das du nur rumtrollen willst.
Das sind dann aber nicht die Texturen sonden das zusätzlich noch etwas anderes ab-/umgeschaltet wurde......
Demzufolge kosten die höherwertigen Texturen an sich also so gut wie nichts an Grafikleistung und schon sind wir wieder da wo wir angefangen haben.
Und nein, hUMA ist für PC Spiele praktisch irrelevant da es keinen gemeinsamen Speicherpool für CPU und GPU gibt. AMDs APUs mögen dazu in der Lage sein, genutzt wird es aber nicht weil dennoch mit getrennten Speicherbereichen gearbeitet wird. Genau das war ja auch meine Aussage, es ist für aktuelle PC Spiele faktisch irrelevant weil ungenutzt.
Du kannst übrigens so oft auf Sonys Dokumentation hinweisen wie du willst, du bist für das Belegen deiner Aussage in der Bringepflicht und entsprechend erwarte ich dann auch die entsprechenden Links und Zitate in denen steht das Texturen zum Zwischenspeichern in den DDR3 Speicher geladen werden und keine waage Interpretationeiner Aussage.
Ergänzung ()
Ach ja, per PM weil sich bei mir mehr und mehr der Einduck festigt das du nur rumtrollen willst.
F
foo_1337
Gast
Wir haben beim Regler angefangen siehe #257. Und daher ist meine Aussage nicht falsch. Alles andere, was du korrekt dazu gesagt hast, habe ich bestätigt, und dir nicht widersprochen.Wadenbeisser schrieb:@foo_1337
Das sind dann aber nicht die Texturen sonden das zusätzlich noch etwas anderes ab-/umgeschaltet wurde......
Demzufolge kosten die höherwertigen Texturen an sich also so gut wie nichts an Grafikleistung und schon sind wir wieder da wo wir angefangen haben.
Doch, es wird genutzt, nämlich unter anderem in der Virtualisierung. Du hast btw nicht "PC Spiele" geschrieben, sondern "PC Sektor". Und was das mit dem Texturen Preloading zu tun hat, erschließt sich mir nach wie vor nicht.Wadenbeisser schrieb:@foo_1337
Das sind dann aber nicht die Texturen sonden das zusätzlich noch etwas anderes ab-/umgeschaltet wurde......
Demzufolge kosten die höherwertigen Texturen an sich also so gut wie nichts an Grafikleistung und schon sind wir wieder da wo wir angefangen haben.
Und nein, hUMA ist für PC Spiele praktisch irrelevant da es keinen gemeinsamen Speicherpool für CPU und GPU gibt. AMDs APUs mögen dazu in der Lage sein, genutzt wird es aber nicht weil dennoch mit getrennten Speicherbereichen gearbeitet wird. Genau das war ja auch meine Aussage, es ist für aktuelle PC Spiele faktisch irrelevant weil ungenutzt.
Ich bin in keiner Bringpflicht, wieso auch? Es juckt mich ehrlich gesagt relativ wenig, ob es jemand glaubt, oder nicht. Und ich werde hier sicher keine Passagen, die unter NDA sind, veröffentlichen, zumal diese mir selbst nicht vorliegen. Es ist nur sehr lächerlich, dass dein Standpunkt anscheinend ist, dass wenn etwas nicht bei Wikipedia steht, es nicht existiert, oder möglich ist. Daher ist die Diskussion für mich ohnehin beendet. Da brauche ich auch keine PM.Wadenbeisser schrieb:@foo_1337
Das sind dann aber nicht die Texturen sonden das zusätzlich noch etwas anderes ab-/umgeschaltet wurde......
Demzufolge kosten die höherwertigen Texturen an sich also so gut wie nichts an Grafikleistung und schon sind wir wieder da wo wir angefangen haben.
Und nein, hUMA ist für PC Spiele praktisch irrelevant da es keinen gemeinsamen Speicherpool für CPU und GPU gibt. AMDs APUs mögen dazu in der Lage sein, genutzt wird es aber nicht weil dennoch mit getrennten Speicherbereichen gearbeitet wird. Genau das war ja auch meine Aussage, es ist für aktuelle PC Spiele faktisch irrelevant weil ungenutzt.
Du kannst übrigens so oft auf Sonys Dokumentation hinweisen wie du willst, du bist für das Belegen deiner Aussage in der Bringepflicht und entsprechend erwarte ich dann auch die entsprechenden Links und Zitate in denen steht das Texturen zum Zwischenspeichern in den DDR3 Speicher geladen werden und keine waage Interpretationeiner Aussage.
Ach ja, per PM weil sich bei mir mehr und mehr der Einduck festigt das du nur rumtrollen willst.
Eigentlich solltest du wissen, dass, gerade bei Konsolen, aber auch in der x86 Welt schon immer undokumentierte Quirks ausgenutzt wurden. Und beim c64 wären, wenn man sich nur an die Commodore/MOS Doku gehalten hätte, so vieles nicht möglich gewesen und man hätte sich nur knapp über Atari 2600 Niveau bewegt. Aber hey, das steht ja mittlerweile wahrscheinlich auch bei Wikipedia
Der Witz an der Sache ist nur, dass das Feature hier nichtmal undokumentiert ist, außer man nimmt halt Wikipedia als Dokumentation.
Aber alles in allem hast du natürlich recht: Ich will nur rumtrollen. Daher sollten wir das Thema jetzt auch gut sein lassen.
Zuletzt bearbeitet von einem Moderator:
fox40phil schrieb:(aber ja ich weiß, es wird sich stets für NV entschieden, auch wenn AMD das „bessere“ Produkt hat oder mehr Vram, siehe 1060 vs 480)
die 480 war auch ein paperlaunch. und die 1060 ist abgesehen vom vram nichtmal schlechter. verbaucht auch nix
F
foo_1337
Gast
Eines noch: Du solltest wirklich mal die Texte ganz lesen. Auf den PM Hinweis bin ich bereits eingegangen. Zitat:
Daher ist die Diskussion für mich ohnehin beendet. Da brauche ich auch keine PM.
Und die ganze (da stimme ich dir zu: Nutzlose) Diskussion ist doch auch nur entstanden, weil seit der Vorstellung der Karten zum gefühlt 1000sten mal die 8GB VRAM der 3070 kritisiert wurden. Wo man sich immer noch fragt: Was erwartet man denn von Nvidia für 499€?
Ich wollte die Wichtigkeit der VRAM Menge bei <4k lediglich relativieren, was mir anscheinend nicht gelungen ist, daher lass ich's nun bleiben. Das Thema PS4 hab nicht ich ins Spiel gebracht
Daher ist die Diskussion für mich ohnehin beendet. Da brauche ich auch keine PM.
Und die ganze (da stimme ich dir zu: Nutzlose) Diskussion ist doch auch nur entstanden, weil seit der Vorstellung der Karten zum gefühlt 1000sten mal die 8GB VRAM der 3070 kritisiert wurden. Wo man sich immer noch fragt: Was erwartet man denn von Nvidia für 499€?
Ich wollte die Wichtigkeit der VRAM Menge bei <4k lediglich relativieren, was mir anscheinend nicht gelungen ist, daher lass ich's nun bleiben. Das Thema PS4 hab nicht ich ins Spiel gebracht
Zuletzt bearbeitet von einem Moderator:
bigbrother25
Lt. Junior Grade
- Registriert
- Juli 2006
- Beiträge
- 300
Sorry, aber wenn die Leistung deutlich über der 1080Ti liegen soll wäre ein entsprechender Speicherausbau durchaus sinnvoll.cypeak schrieb:weil man fortschritt bei gpu's nicht nur mit der menge an vram misst.
es gibt auch eine welt außerhalb der 4k/uhd blase, und die ist sogar eher die regel als ausnahme - der großteil der leute spielt noch in fhd und wqhd - da sind 8gb noch gut.
Schon die 1080Ti kann UHD ja ohne Probleme. Die hat aber auch 11GB. Die 3070 wäre mit einem besseren Speicherausbau eine echte Alternative. Aber mit 8GB reisst sie nur für Auflösungen unterhalb UHD interessant, obwohl sie durchaus das Potenzial für eben UHD hat.
Da hoffe ich nur, dass Custom-Designs hier mit mehr Speicherausbau auftrumpfen. Dann reisst die 3070 im Mittelfeld alles ein.
Warum kauft man dann nicht einfach AMD?DocWindows schrieb:Hoffentlich kündigt AMD einen Tag vorher was vernünftiges an. Dann ist vielleicht noch eine kleine Preissenkung für die 3070 drin. Entschädigt dann etwas für die längere Wartezeit.
Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.737
GrinderFX schrieb:... welche Trümpfe handelt es sich denn? ... Insider und AMD hat eine extrem überlegene Karte auf Lager, von der wir alle nichts wissen?
Navi20(?), denkbar wäre so etwas angesichts der ausgesprochen guten Anti-Leak-Politik bei AMD/RTG aktuell und mehr Chipgröße ist allemal drin, da man diesbezüglich ja auch noch weit unter nVidia liegt.
Allerdings wäre solch eine GPU verbrauchstechnisch eher nicht unbedingt sinnvoll und am wichtigsten, wohl nicht sonderlich gewinnträchtig sondern kostentreibend in kleiner Auflage (zumal AMD/RTG eben kein Premiumpreis Produkt-Image hat im Gegensatz zu nVidia, Apple oder Intel etwa).
Auch wenn man sich die Leistungskrone dann sichern würde - und irgendwie habe ich nicht das Gefühl, dass AMD/RTG in der 3090(+) Leistungsklasse um biegen und brechen aus Prestigegründen mitspielen will, damit aber gleichzeitig finanzielle Verluste einzufahren bereit ist (zumal man auch nicht dGPU-Marktführer ist) - wäre dieser Ansatz sicherlich ein Risiko und weil Navi RDNA3 schon in Treibern gesichtet wurde wohl auch nicht unbedingt passend in einer solchen Roadmap (wer weiss wie zeitnah RDNA3 nach RDNA2 schon kommen könnte(?), denn das könnte der große Knaller werden und nVidia massiv fordern).
Es wäre eine riesige Überraschung, keine Frage, aber das ist auf die aktuelle Nachrichtenlage wohl eher unwahrscheinlich und Wunschdenken einiger AMD/RTG Anhänger (nicht, dass ich es damit aber kategorisch ausschließen würde, denkbar ist vieles).
Ähnliche Themen
- Antworten
- 290
- Aufrufe
- 48.621
- Antworten
- 43
- Aufrufe
- 8.711
- Antworten
- 54
- Aufrufe
- 10.912
- Antworten
- 464
- Aufrufe
- 83.989
- Antworten
- 345
- Aufrufe
- 63.766