News Gaming Ampere mit 8 GB: Nvidia verschiebt GeForce RTX 3070 um zwei Wochen

foo_1337 schrieb:
Nur wird die 3070 in der Regel nicht als 4k Karte angesehen und damit reichen die 8GB wieder aus.
Wovon bei mir auch nicht die Rede war.
Die 8 GB reichen jetzt dafür aus und wie schaut es bei kommenden Spielen aus die bereits für die Ressorcen der neuen Konsolen ausgelegt werden? Das gleiche Thema hatten wir in der Vergangenheit auch schon bei der 2 und 4 GB Grenze....
 
Ich kann es auch noch 100 mal sagen: Für 1440p werden auch in 3 Jahren 8GB locker ausreichen. Für 4k sieht es ggf. anders aus. Aber dafür ist es eh die falsche Karte.
 
Wadenbeisser schrieb:
Dir ist schon bewußt das erst kürzlich den bisherigen Ampere Modelle nachträglich per Treiber Update das Boost Verhalten geändert wurde?
Per Final Treiber kann man das direkt beim Kunden erledigen und für die OC Modelle ist es ohnehin irrelevant da diese abseits der Referenz Werte laufen.

Hat aber nichts mit dem Baseclock / Boostclock und der TDP zu tun. Man kann die Rohrleistung der Karte meiner Meinung nicht über Treiber steuern. Ich bin da aber nicht weit genug drin in der Materie um das sicher klarzustellen.
 
foo_1337 schrieb:
Denn selbst wenn man damit ordentlich 4k Spielen wollte, müsste man ohnehin die Regler runterstellen.
Aber die Regler für Texturen könnte man trotzdem oben lassen, wenn der VRAM groß genug ist.
Ergänzung ()

foo_1337 schrieb:
Für 4k sieht es ggf. anders aus. Aber dafür ist es eh die falsche Karte.
Die 2080Ti wurde doch bis vor 2 Wochen auch als stärkste Karte für 4K genutzt, wo die 3080 nur 15-20% schneller als eine OC 2080Ti ist.
Wenn die 3070 so stark ist, dann ist sie genau so geeignet, zumindest dann in ihrer 16GB Variante die noch kommt.
 
xexex schrieb:
Es ist immer ein Vorteil für einen Hersteller eine zeitnahe Antwort auf das zeigen zu können was die Konkurrenz gerade präsentiert hat. Sie werden die Leistung nicht mehr ändern können, aber alles andere lässt sich an einem Tag anpassen.
Unter einer zeitnahen Anwort als Reaktion auf den Wettbewerb verstehe ich ein Produkt wie die 2070 Super, aber nicht ein bereits vollständig angekündigtes Produkt nach hinten zu verschieben. Das einzige was sich nämlich da noch drehen lässt, ist beim Preis 1 Tag vor Launch zurückzurudern.

Dass Nvidia einfach den ursprünglichen Zeitplan nicht einhalten konnte (sei es wegen mangelndern Verfügbarkeit, Treiberproblemen oder wegem was auch sonst.) scheint ja bei einigen wirklich überhaupt nicht in Betracht zu kommen - es muss natürlich ein genialer Schachzug dahinter stecken. Ist ja nicht so, dass ein jüngster Produkt-Release alles andere als reibungslos verlief.
 
  • Gefällt mir
Reaktionen: Toni_himbeere
SPECIALIZED- schrieb:
weil am Ende das Gesamtpaket besser ist und ja auch die Treiber, selbst wenn jetzt wieder x Leute sagen keine Probleme usw. es ist Definitiv ein unterschied....
Man könnte aber auch meinen dass die Mundpropaganda Richtung NV passt. NV hat Probleme, das hört man, aber das wird wenn dann als einmaliger Ausrutscher oder sonstiges abgetan, während bei AMD echt ständig das Haar in der Suppe gesucht wird. Als wäre es nicht so, dass in den letzten Jahren AMD nicht auch Features hatte, die sehr vielversprechend für die Zukunft waren. Man sollte nicht vergessen, dass es durchaus AMD war, die Low Level API auch durch Konsolen und Mantle stark gepushed haben.

Was es benötigt um diese Mundpropaganda leiser werden zu lassen und das sieht man auch bei Intel vs AMD.
Eine "Erschütterung der Macht" ^^
RDNA hat schon im Mittelbereich Konkurrenz gebracht, sodass NV das komplette Line Up angepasst hat. Und genau da fängt eben Mundpropaganda an. Wieso wird denn so genau hingeschaut und ständig von Features und Treiber geredet, weil man weiß, dass AMD bei Performance(/Watt) und sonstigen Aspekten sehr nahe an NV kommt.
Wenn aber kontinuierlich wieder zu einem Schlagabtausch kommt, wird es zu einen echten Vergleich kommen und Mundpropaganda wird abnehmen.
Bestes Beispiel Intel vs AMD. Würde man aktuell lesen, was man damals noch zu Zen 1 gelesen hat, würde man rückblickend den Kopf schütteln. Angefangen von ebenso Stabilität, Werterhaltung, billiges Kleben und Co.

Und ohne dir jetzt zu nahe zu kommen. Wiederholst du doch auch nur das was du so "mitbekommen" hast. Aber so echte Erfahrung mit AMD Karten dürftest du scheinbar nicht haben. Mund Propaganda eben.
 
  • Gefällt mir
Reaktionen: Revan1710
dann gibt es ja wohl in 2 wochen 50 karten mehr.
außer sich darüber lustig zu machen bleibt einem wohl nicht.
 
  • Gefällt mir
Reaktionen: BlackhandTV
Ex3cuter schrieb:
Ja. Gut dann viel Spaß damit. Mit Horzion Zero Dawn, Crysis Remasterd, Doom Eternal, Wolfenstein und Co. sind auch schon heute Bespiele wo 8GB sehr knapp bemessen sind. :D :D

Aber gut. Wenn man meint es besser zu wissen. ^^

Texturen @ Medium. Einfach nur Geil. PC Gaming dank Speicherkrüppels. 8GB gibt es seit 2015 mit der R9 390. Geil. Nvidia kann anscheinend alles verkaufen.

Wow, in so wenig Sätzen, so viel Unsinn. Chapeau
 
  • Gefällt mir
Reaktionen: foo_1337
.Sentinel. schrieb:
Ja- Die Ingenieure machen ja kein hehl draus, dass Ampere darauf ausgelegt wurde, mit hohen Strömen zu skalieren.

Das skaliert noch schlechter als Turing.
Während meine 2080Ti der letzten Generation von 270 Watt auf 350 Watt noch mit rund 15% skalierte, reißt Ampere hier nur 5 bis 10%.
Ampere ist eigentlich eine wesentlich schlechtere Generation als Turing. Denn bei Turing kam die 2080 Super noch relativ deutlich über den Top Chip der letzten Generation (1080Ti+15%) hinaus, während Ampere mit der 3070 nur noch mehr gleichziehen soll.

.Sentinel. schrieb:
Wieso die verfügbaren Leistungsfenster also nicht ausnutzen?

Hätte man die verfügbaren Leistungsfenster bei Turing auch so ausgenutzt wie bei Ampere, wäre die 3080 nur 15% über der 2080 Ti herausgekommen und die 3090 nur 35% statt 50%.

.Sentinel. schrieb:
Macht doch sämtliche moderne Hardware inzwischen so. Und das finde ich auch garnicht schlecht oder schlimm.

Ich finde es schon "schlecht" ein Produkt unnötig viel Strom saufen zu lassen, damit man 5% mehr Leistung herausholt. Eine 3080 würde auch prima mit 250 Watt laufen, wäre dann vielleicht 6% langsamer oder umgekehrt die 3080 @320 Watt 7% schneller.

.Sentinel. schrieb:
Zudem liefert Ampere ja auch ordentlich Leistung für seinen Verbrauch. Das muss erstmal jemand besser machen, damit man hier "schimpfen" darf.

Korrekt. Aber vergleicht Ampere gegen sich selbst, ist Ampere einfach nur ein hochgezüchtetes Produkt, was ganz offensichtlich darauf zurückzuführen ist, dass AMD sehr starke Produkte hat.
 
  • Gefällt mir
Reaktionen: Vendetta und Zubz3ro
Na geht doch, nVidia :), wieso nicht gleich so angekuendigt, gut Ding will Weile haben (auch wenn 8GB natuerlich zu mager sind) und so gibt es dann wenigstens einige Karten im Handel zum offiziellen Marktstart und keinen Quasi-Paper Launch wie bei den vorherigen RTX Ampere GPUs.

Nicht auszuschließen, dass der spätere Marktstart zwar zweifelsohne der Verfügbarkeit im Handel zugute kommt, Nvidia aber auch andere Überlegungen in den neuen Termin hat einfließen lassen. Wie AMD RDNA2 positioniert, dürfte für die GeForce RTX 3070 von großer Bedeutung sein.

Es fehlt nur noch, dass AMD/RTG nach dieser Ankuendigung der RTX 3070 Verschiebung bei nVidia die Vorstellung von RDNA2 (Big) Navi jetzt auch noch um ein paar Tage nach hinten verschiebt, Katze und Maus Spiel par excellence.
 
SPECIALIZED- schrieb:
Und das hat nix mit Fanboy blabla zu tun ich will nur das schnellste zum Gamen Kaufen, der Preis ist mir egal und das bekomme ich Leider seit Jahren bei AMD eben nicht!
Und genau das ist des Problem, das es bei den Leuten in den Köpfen hängt und somit trotzdem oft zu Intel / NV gegriffen wird, da es sich über die Jahre so eingebrannt hat...

Um das wieder aus den Köpfen zu bekommen wird es leider immer noch ein paar Jahre dauern, sollte z.B ZEN 3 jetzt spürbar schneller sein in Games geht der 10900k in die Bucht und ich Kaufe ne ZEN 3 Plattform...
Nur damit nicht wieder welche kommen Fanboy hier und da!

Dem stimme ich als nativer AMDler durchaus zu. Für die High End Fraktion hatte AMD lange nichts im Portfolio. Es hat 3 Generationen Ryzen gebraucht um in die Köpfe des High Performance CPU Klientel zu kommen. Da ist AMD aber sehr nachhaltig angekommen. Das gleiche wird AMD auch im Bereich der Grafikkarten brauchen. Man hat erkannt, das aus Imagegründen auch das high End Segment wieder addressiert werden muß und man tut dies jetzt. Genauso wichtig wie eine ordenliche Performance von Big Navi, ist ein schnellerer Nachfolger. Genau das hat man im Falle von Ryzen begriffen. Und so muss es auch bei den Grafikkarten laufen, ein Big Navi Update muss schnell kommen....nur Nvidia ist nicht Intel ... das wird spannend werden.
 
schkai schrieb:
Hat aber nichts mit dem Baseclock / Boostclock und der TDP zu tun.
Angesichts der bisherigen Angewohnheit über den Boost Takt hinaus zu takten, nichts leichter als das.
Gib den Boost Takt geringer an als sonst und variiere später bei Bedarf den erreichbaren Boost Takt.
Die TDP interessiert nur bei Über- und der Basistakt bei Unterschreitung und beides kann man mit genug Puffer angeben.

Eine andere, noch simplere Variante wäre es mit den OC Modellen zu starten und mit den angepassten Referenz Modellen nachzuziehen. Für die OC Modelle sind die entsprechenden Parameter der Referenz Modelle ohnehin egal.
 
Ex3cuter schrieb:
Ja. Gut dann viel Spaß damit. Mit Horzion Zero Dawn, Crysis Remasterd, Doom Eternal, Wolfenstein und Co. sind auch schon heute Bespiele wo 8GB sehr knapp bemessen sind. :D :D

Ich habe meine RTX 3080 Eagle OC unter anderem deshalb an Zero_Strat für nen Freundschaftspreis verhökert.
Ich hatte in Red Dead Redemption unter WQHD mit Downsampling bei ~40 FPS schon eine Speicherbelegung von satten 9,7GB und lag in Crysis Remastered voll im V-ram Limit. (Das Spiel ist aber auch ein Haufen Codeschrott).

Für Grafikfetischisten verhungert die 3080 in manchen Fällen schon heute an ihrem Speicher.
 
Zuletzt bearbeitet von einem Moderator:
Taxxor schrieb:
Aber die Regler für Texturen könnte man trotzdem oben lassen, wenn der VRAM groß genug ist.
Texturdetails zehren sowohl am VRAM wie auch an der Leistung.

Taxxor schrieb:
Die 2080Ti wurde doch bis vor 2 Wochen auch als stärkste Karte für 4K genutzt, wo die 3080 nur 15-20% schneller als eine OC 2080Ti ist.
Wenn die 3070 so stark ist, dann ist sie genau so geeignet, zumindest dann in ihrer 16GB Variante die noch kommt.
Die 3070 wird aller Voraussicht nach nicht mit der 2080ti mithalten können, erstrecht nicht mit der OC Variante. Dazu kommt, dass auch die 2080ti schon aktuell nicht in der Lage ist, einige Spiele in 4k in vernünftigen Frameraten darzustellen ohne die Regler runterzudrehen. In 1440p sieht es da schon ganz anders aus.
Die 2080ti war bisher einzig und allein aus dem Grund, dass es nix besseres gab die stärkste 4k Karte...
 
KlaraElfer schrieb:
Das skaliert noch schlechter als Turing.
Während meine 2080Ti der letzten Generation von 270 Watt auf 350 Watt noch mit ... Turing auch so ausgenutzt wie bei Ampere, wäre die 3080 nur 15% über der 2080 Ti herausgekommen und die 3090 nur 35% statt 50%.
Alles gut und schön, nur wir hier meines Erachtens wieder der Fehler begangen mit alter Software eine neue Architektur bewerten zu wollen.

Derzeit ist schlichtweg nicht bekannt, was eine Ampere Karte zu leisten imstande ist.
Wovon man aber ausgehen kann ist, dass wir mit aktueller Software den worst case zu sehen bekommen, weil bei Turing groß auf Int32 hin optimiert wurde, was für Ampere Gift ist.

Ich weiss, dass das hier wieder niemanden interessieren wird, da die Beurteilung immer mit Erscheinen der ersten Tests abgeschlossen ist. Ändert aber ichts an der Tatsache, dass z.B. ein Doom Eternal eher den zukünftigen Workload abbildet als viele andere der "alten" Titel.

Ich finde es schon "schlecht" ein Produkt unnötig viel Strom saufen zu lassen, damit man 5% mehr Leistung herausholt.
Deswegen gibt es inzwischen glücklicherweise Hersteller, die einen per Switch das Bios in Performance und Silent schalten lassen. Da kann dann jeder für sich raussuchen, was ihm wichtiger ist.

Eine 3080 würde auch prima mit 250 Watt laufen, wäre dann vielleicht 6% langsamer oder umgekehrt die 3080 @320 Watt 7% schneller.
Ja- Die 7% brauch ich dringend für VR. Da ist auch noch das letzte % entscheidend.
Deswegen befürworte ich es, dass sie die Architektur ans Maximum treiben.

Korrekt. Aber vergleicht Ampere gegen sich selbst, ist Ampere einfach nur ein hochgezüchtetes Produkt, was ganz offensichtlich darauf zurückzuführen ist, dass AMD sehr starke Produkte hat.
Wir werden sehen, was AMD zu bieten hat. Das ist ein bißchen Wundertüte. Von einem 3090 Raster- Konkurrenten zu einem etwas über der 2080TI ist alles drin.

Den großen Wurf, den hier einige beschwören (knapp 3090 Leistung, 250Watt, 600€, 16GB) sehe ich noch nicht...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
Ex3cuter schrieb:
Ich bleibe dabei 8GB MinimalAnforderung in einem Jarhr. Bei einem Neukauf ende 2020 sollten es schon 12 odere 16GB VRAM sein.

Jetzt übertreib nicht. Habe bis letztes Jahr noch eine 1060 6GB genutzt. Selbst im CB-Test von Horizon Zero Dawn sind 6GB ausreichend für Full-HD - jedoch nur knapp 30 fps (ähnlich wie die 580 mit 8GB). Und das auch nur mit einer unrealistischen Kombo aus einem Ryzen 3900XT. Fazit: Nach 4 Jahren ging der schon damals Full-HD-Karte die Puste aus, bevor der Speicher nicht mehr ausreicht. Jetzt muss man noch bedenken, dass HZD ein exemplarisches Spiel ist, dass am Ende einer Konsolen-Ära erschienen ist.

Die 1060 wurde übrigens durch den "Speicherkrüppel" RX 5700 ersetzt. Muss ich mir jetzt Sorgen machen, dass ich nächstes Jahr nur noch die Mindestanforderungen erfülle? Glaube kaum.

Ex3cuter schrieb:
Was für ein Stillstand? Es kommen neue Next Gen Konsolen. Mit insgesamt benutzbaren/anpassbaren 16 GB Gesamtspeicher.

Die schnelle Xbox wird als 4k Konsole dargestellt und hat 16 GB Shared Memory. Davon 2,5 GB für das OS und 3,5 GB für den Entwickler. Bleiben 10 GB VRAM für die Grafikkarte. Die günstigere Full-HD Xbox hat nur 10 GB Gesamtspeicher. Dann kannst du dir vorstellen, wie wenig für den VRAM reserviert werden. Quelle
 
foo_1337 schrieb:
Texturdetails zehren sowohl am VRAM wie auch an der Leistung.
Texturen beeinflussen idR. die Framerate nur dann wenn der VRAM nicht reicht.
Am Anfang wird öfters nachgeladen, wodurch sich Nachladeruckler häufen und wenn das nicht mehr reicht und zu viel in den RAM ausgelagert werden muss geht die Framerate runter wenn auf jene Daten gewartet werden muss.
 
foo_1337 schrieb:
Texturdetails zehren sowohl am VRAM wie auch an der Leistung.
Nicht wirklich spürbar...

Hier mal ein Vergleich zwischen Texturen auf niedrigster und Texturen auf höchster Stufe.
Screenshot 2020-10-02 200717.png


Das sind 4% Unterschied über die gesamte Bandbreite des Textur Settings.

foo_1337 schrieb:
Dazu kommt, dass auch die 2080ti schon aktuell nicht in der Lage ist, einige Spiele in 4k in vernünftigen Frameraten darzustellen ohne die Regler runterzudrehen.
Und es gibt sehr viele Spieler, die vollkommen zufrieden sind, nur auf Mittel bis Hoch statt auf Ultra zu spielen, vorallem jetzt da sie das für 500€ haben könnten.
 
  • Gefällt mir
Reaktionen: KlaraElfer
KlaraElfer schrieb:
[...] Ampere ist eigentlich eine wesentlich schlechtere Generation als Turing. [...]
In Anbetracht der kleineren Fertigung stimmt das sogar. Turing wiederum war bzgl. Performance/Watt kaum besser als Pascal (in Games versteht sich).
 
.Sentinel. schrieb:
Ändert aber ichts an der Tatsache, dass z.B. ein Doom Eternal eher den zukünftigen Workload abbildet als viele andere der "alten" Titel.
Das ändert aber auch nichts an der Tatsache, dass es im Grunde die gleiche Thematik wie bei Vega damals ist, wo auch gesagt wurde "wartet nur ab, sobald die Spiele auf die Architektur angepasst sind".

Die Frage ist, ob Spiele in Zukunft sehr viel FP lastiger werden, da man für RTX 4000 doch wohl das Ziel verfolgt, dass die SM wie bei AMD jetzt schon, FP und INT gleichzeitig verarbeiten kann, geht Nvidia ja wohl selbst nicht davon aus.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Zurück
Oben