News Ampere: Nvidia nährt Gerüchte um GeForce RTX 3080 mit 20 GB

Dazu habe ich das hier gefunden...


Der Fehler von Gigabyte scheint das zu bestätigen
 
  • Gefällt mir
Reaktionen: Painkiller72, thuNDa und Mcr-King
boika schrieb:
@Chismon
Überlanges Zitat entfernt

Natuerlich gibt es Leute, die glauben Ihren Kauf vehement verteidigen zu muessen und sich durch Kritik am Hersteller und/oder Produkt gekraenkt fuehlen, wobei dann zu hinterfragen ist, ob es da nicht ein Problem mit dem eigenen Selbstwertgefuehl gibt.

Die vorherige Konsolengeneration war natuerlich ziemlich schwachbruestig und es ist den Herstellern (Sony und Microsoft, von der vergleichsweise teuren Nintendo Switch will ich erst gar nicht anfangen) anzukreiden, dass sie da keine Standards setzen und solche Spiele abgenommen/auf die Kundschaft losgelassen haben auf den jeweiligen Konsolenplattformen.

Mit der PS4 Pro und vor allen der XB One X ist da vieles deutlich besser geworden und ich denke man kann zumindest von den grossen Modellen der kommenden Konsolen, PS5 und noch mehr einer XB SX erwarten, dass man sich nicht mehr mit 30fps zufrieden geben muss, sondern hoffentlich durchgehend 60fps bei Spielen im Angebot haben wird (selbst 60 fps in WQHD sind besser als "30fps" in 4K/UHD, aber ob sich Sony daran halten wird?).

Wie gut sich eine XB SS schlagen wird, muss man abwarten, aber auch eine solche duerfte noch unter Full HD durch die Bank 60 fps bieten koennen und waere mit dem Gamepass zusammen dann ein vorzuegliches Angebot fuer Konsolen-Einsteiger (einziges Wermutstropfen waere wohl das fehlende UHD-BlueRay-Lafwerk, die es zu keinem Allrounder mehr macht und wenn Microsoft irgendwann entscheiden sollte den Online Service einzustellen, waere die Konsole dann quasi Elektroschrott bzw. nicht mehr zu gebrauchen).

Was die RTX 3090 angeht, in drei Jahren kraeht kein Hahn mehr nach der Karte, weil sie dann schon lange nicht mehr Nonplusultra sein wird und nVidia, vermutlich auch AMD/RTG sowie evt. gar Intel mehr bieten werden bei hoffentlich deutlich geringerem Verbrauch (Dank MCM-GPU-Design).

Wenn Du Dir zwei dieser RTX 3090 400W Raumheizungen in einen PC bauen willst per SLI mag das im Winter zwar noch angenehm sein, aber im Sommer wohl eher ein Qual was die Abwaerme angeht.

Des Weiteren ist SLI bei den GeForce Karten nach der letzten Ankuendigung nVidias wirklich "toter als tot" ;)

Ja, langlebig waeren die RTX 3090 aufgrund des massiven Speicherausbaus schon, aber hast Du Dir 'mal den Leistungszuwachs von einer RTX 3080 kommend und gleichzeitig den Preisanstieg zur RTX 3080 angeschaut.

Ich finde das geht gar nicht bzw. lohnt sich nicht, zumal eine (dazwischen liegende) RTX 3080Ti, die im kommenden Jahr vermutlich aufschlagen wird, deutlich interessanter waere und das muesste keine RTX 3080 mit 20GB sein, sondern koennte ein weniger beschnittener Chip selbst, mit noch hoeher taktendem RAM (da ist noch viel Spielraum, momentan nutzt nVidia das untere Ende diesbezueglich bei GDDR6X) und schnellerem, leicht groesserem Speicherinterface als bei einer RTX 3080 (352 Bit wuerden da im Zusammenspiel mit 22 GB Sinn machen) sein und wenn diese bei TSMC in 7nm gefertigt werden sollte, waere wohl auch der Verbrauch nicht so enorm wie bei den von Samsung in 8nm gefertigten Grafikkarten ;).

Ergo, wuerde ich Dir noch zum warten raten, zumindest bis die ersten Karten von den (ersten) grossen Modellen bei nVidia und AMD/RTG auf dem Tisch sind und eine womoeglich spuerbar effizientere RX 6900XT (bei der ich davon ausgehe, dass sie bei der Rohleistung - abseits von RT-Raytracing - eine RTX 3080 schlagen wird koennen) mit dem 16 GB Speicher-Sweet Spot (oder gar im kommenden Jahr eine RX 6950 XT oder RX6900 XTX als Halo-Karte/Flaggschiff) koennte dann evt. auch interessant werden fuer Dich.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Mcr-King
Wenn es zu wenig wäre würde nvidia dann die Karten so produzieren? Kann ich mir kaum vorstellen :)
 
boika schrieb:
Ich wollte 500 Euro sparen, aber ich werde mir eine 3090 mit SLI Anschluss kaufen und wenn diese nach 3 Jahren knapp wird, eine zweite 3090 SLI mit (Nvidia Profile Inspector) kann man alle Spiele SLI fähig machen.
Viel Spaß damit. Die 3090 wird maximal 15 % auf die 3080 drauflegen. Dafür kostet sie das doppelte. Multi-GPU ist tot, warum auch unterstützen? Unterhalb der stärksten (und teuersten, 1500€) Karte ist es sinnlos und wegen den 100 Idioten, die meinen ihr Geld mit zwei Händen aus dem Fenster werfen zu müssen, muss sich Nvidia kein Bein ausreißen in Sachen Treiberunterstützung. Meine Vorhersage für dein Vorhaben: mit zwei GPUs im System wird ein Großteil der Spiele schlechter laufen, als mit einer Karte.
 
  • Gefällt mir
Reaktionen: Aquilid, Bright0001 und .Snoopy.
Chismon schrieb:
Bei nVidia ist es doch auch ein Paperlaunch und meinst Du, dass Du die paar Monate mit einer GTX 1080 nicht mehr verkraften kannst, nachdem Du wie lange mit dem aufruesten gewartet hast?
Ich werde so oder keine 900 oder 1000 Euro für eine 3080 mit 20GB ausgeben. Das die Karte günstiger wird ist recht unwahrscheinlich. AMD wird meiner Ansicht nach leistungstechnisch nicht mithalten können.
Wenn man jetzt nicht kauft, wird es wahrscheinlich diese Jahr nichts mehr mit einer neuen Karte, da kommt Weihnachten und dann chinesisches Neujahr. Dazu noch Corona. Ich bin tatsächlich jemand der die Karte zum zocken haben will und die Spiele kommen jetzt. Da geht mir ne ganze Season flötten. Ab März steht der PC sowieso größtenteils wieder in der Ecke.
Die Zukunftssicherheit kannste dir komplett in die Haare schmieren. Wer von einem Jahre ne 2080ti für 1200 euro gekauft hat, hat sich die Zukunft auch ganz anders vorgestellt und überlegt zumindest aufzurüsten. Vielleicht bringt das MCM Design ja den nächsten riesen Leistungssprung. Dann haste in zwei Jahren zwar genug Speicher, bekommst aber für 500€ mehr Leistung als mit einer 3090 bei wesentlich weniger Verbrauch. Dann haben sich die 300 Euro Mehrinvestition jetzt und die 5 Monate warten so richtig gelohnt.
Hardware kann man nicht für die Zukunft kaufen, dass hat selten funktioniert. Und es ist ein Hobby, keine langfristige Investition für die Altersvorsorge.
 
  • Gefällt mir
Reaktionen: Cyberbernd
Nach all den Informationen erscheint mir eine RTX 3070 16 GB die vernünftigste Karte zu werden. Die 3080 10GB hat einfach für "Next Gen" zu wenig Videospeicher. 20 GB erscheint mir dann zum Zocken wieder zu viel und damit auch zu teuer zu werden.
Abwarten was AMD noch präsentiert, wird sicherlich die Preise im 3060 und 3070 Segment etwas drücken.
 
  • Gefällt mir
Reaktionen: Aquilid, nikky, Zwirbelkatz und eine weitere Person
Gaspedal schrieb:
Die 20GB Version bringt nichts ausser dass es mehr Geld kostet.
ist einfach falsch wenn man zb viele Texture Mods laufen hat bei spielen braucht man mehr speicher da reichen 10 Gb nicht auch in Wqhd nichtmal 4k
 
  • Gefällt mir
Reaktionen: Aquilid
GrooveXT schrieb:
Ich werde so oder keine 900 oder 1000 Euro für eine 3080 mit 20GB ausgeben. Das die Karte günstiger wird ist recht unwahrscheinlich. AMD wird meiner Ansicht nach leistungstechnisch nicht mithalten können.

Vielleicht solltest Du dann Dein Augenmerk auf eine RTX 3070Ti mit 16GB richten, die aller Wahrscheinlichkeit nach kommen wird und vermutlich nicht wesentlich langsamer als eine RTX 3080 sein wird, dafuer aber eben mit 16GB ausreichend Speicher bieten duerfte in anspruchsvollen Szenarien/Spielen und wohl auch weniger verbrauchen wegen des kleineren Chips ;).

Alternativ, koenntest Du auch zur Big Navi RDNA2 Konkurrenz greifen (wenn dort eine RX 6900(XT) lommt, duerfte schon der Name sowie das 2X Versprechen bezogen auf die RX 5700XT Leistung sugerrieren, dass diese eine RTX 3080 schlagen wird koennen ausser in speziellen/einzelnen RT-Raytracing/DLSS2.0 Szenarien vielleicht oder auf deren Ankuendigung/Roadmap im Oktober warten, wie erwaehnt, es ist Deine Entscheidung.

Die Konsolen und deren verbauter Speicher sind normalerweise ein Indikator, ob und wann ein Speichersprung ansteht und daneben einige Titel wie Horizon Zero Dawn oder die Vorab-Version des Crysis Remastered (wovon ich hier ein paar Testvideos auch schon verlinkt hatte und in welchen der 10GB Speicher einer RTX 3080 aktuell nicht uneingeschraenkt reichen wird).

Die erste MCM-GPU-Generation wird wohl (wie Turing wegen RT_Raytracing) sehr teurer vermarketet werden, weswegen ich auch nicht darauf warten werde, nein, RTX Ampere von nVidia, RDNA2 (Big) Navi von AMD/RTG und evt. noch Xe HPG von Intel (was aber eher zu spaet kommen duerfte und noch nicht in der angestrebten Leistungsklasse) sollte es dann schon werden, denke ich.

Wenn Du meinst Dich nicht mehr gedulden und warten zu koennen, dann ist das okay, aber dann musst Du evt. mit den daraus resultierenden, sich ankuendigenden Kosnequenzen/Engpaessen leben.
 
  • Gefällt mir
Reaktionen: Aquilid
Wie ist das bei AMD Grafikkarten mit der Software/ Treiber. "Früher" war es immer so, dass NVIDIA einfach viel bessere Treiber und Einstellmöglichkeiten hatte. Die NVIDIA Systemsteuerung und GeForce Experience find ich schon sehr gelungen. Wie siehts das bei AMD aktuell aus?
 
Chismon schrieb:
Vielleicht solltest Du dann Dein Augenmerk auf eine RTX 3070Ti mit 16GB richten, die aller Wahrscheinlichkeit nach kommen wird und vermutlich nicht wesentlich langsamer als eine RTX 3080 sein wird
Eine potentielle RTX 3070Ti mit 16GB VRAM wird mitnichten an eine 3080 heranreichen. Wie denn auch? Sie basiert aller Wahrscheinlichkeit nach auf dem Vollausbau des GA-104 und hat somit nur 48 SM, die RTX 3080 hat derer 68. Dazu ein kleineres SI und langsamerer Speicher.

Ich glaube die Lücke zwischen 3070 und 3080 wird recht groß, die 3070 landet ca. 5% hinter der 2080Ti. Die 3070Ti macht eine Punktlandung auf die 2080Ti.
 
  • Gefällt mir
Reaktionen: Apocalypse und Laphonso
MGFirewater schrieb:
hätte aber auch ein gegenteiliges beispiel ich hatte mir damals die gtx 260 1792mb geholt, weil "alle" meinten 896mb sind zu wenig.
Das war vor 12 Jahren. Mit komplett anderen Engines, Betriebssystemen und Auflösungen.

Kleptomanix schrieb:
Wenn es zu wenig wäre würde nvidia dann die Karten so produzieren?
Selbstverständlich wäre das möglich.
Stichwort "Geplante Obsoleszenz".

Zum Thema:
Man kann 700€ UVP bis 800€ Straßenpreis für ein Produkt ausgeben. Gleichzeitig läuft man Gefahr, damit heute oder in naher Zukunft trotzdem nicht die volle Bildqualität zu erhalten, bspw. falls eine Engine im Hintergrund die Texturen manipuliert.
Eine GTX1080 hatte 8GB Speicher. Wir erleben mindestens eine Verdopplung der Leistung durch die RTX3080 - der Speicher bleibt jedoch bei übersichtlichen 10GB.

Was nun eine RTX3070/ti kostet, leistet und verbrauchen wird und ob es sie mit 16GB gibt, wird die Zeit zeigen.
AMDs Produkte dürften ebenfalls einen Blick wert sein.
 
  • Gefällt mir
Reaktionen: Aquilid
GrooveXT schrieb:
AMD wird meiner Ansicht nach leistungstechnisch nicht mithalten können.

Abwarten!
AMD hat keinen Konter gegen DLSS 2.0 (soweit wir wissen), und ob und wie sie beim Raytracing 1:1 mithalten, werden wir sehen.

Aber dass AMD mit RDNA2 nicht etwas gegen eine 3080 stellen kann in Rasterisation und Render Performance, ist für mich absolut unverstellbar.
Das "RTX off" Feld wird AMD nicht Nvidia überlassen.
 
McLovin14 schrieb:
potentielle RTX 3070Ti mit 16GB VRAM wird mitnichten an eine 3080 heranreichen. Wie denn auch? Sie basiert aller Wahrscheinlichkeit nach auf dem Vollausbau des GA-104 und hat somit nur 48 SM, die RTX 3080 hat derer 68. Dazu ein kleineres SI und langsamerer Speicher.... Lücke zwischen 3070 und 3080 wird recht groß, die 3070 landet ca. 5% hinter der 2080Ti. Die 3070Ti macht eine Punktlandung auf die 2080Ti.

Wenn sie im nächsten Jahr kommen wird, könnte die schnelleren GDDR6X Speicher bekommen und evt. gibt es ja Versionen mit noch weiter beschnittenem GA 102 Grosschip, wer weiß?

Laut Gerüchten soll eine RTX 3070Ti 5-10% vor einer RTX 2080Ti landen, was sie (abseits von 4K/UHD) nicht unwesentlich langsamer in vielen Szenarien als eine RTX 3080 werden lassen würde und eben nicht speicherlimitiert mit 16GB anstelle von nur 10GB bei der RTX 3080.
 
@Chismon
16GB Speicher bedeuten zwangsläufig ein 256-Bit SI. Glaubst du wirklich, Nvidia beschneidet seinen GA102 um 1/3 seiner Größe? Preislich muss das ganze ja auch noch in das Schema passen. Warum sollte Nvidia fast die Leistung einer 3080 mit mehr Speicher für weniger Geld anbieten?
 
  • Gefällt mir
Reaktionen: monitorhero
Zwirbelkatz schrieb:
Eine GTX1080 hatte 8GB Speicher. Wir erleben mindestens eine Verdopplung der Leistung durch die RTX3080 - der Speicher bleibt jedoch bei übersichtlichen 10GB.
Mit GDDR6x und dem doppelten Durchsatz, die ganzen Mapping+Swapping Prozesse laufen entsprechend schneller.
Ich muss einen Tunnel nicht breiter machen, wenn ich den gleichen Tunnel schneller durchfahren kann.

10 GB VRAM reichen dicke für 4K, denn selbst tripple Buffering sind 3 * 32 Bit mal 3840x2160 = 100 Megabyte und damit 1 % des VRAMs einer 3080. DIe Auflösung ist hier quasi ein non-Faktor.
Der Daten-Bus der 3080 und das GDDR6x sind hier nichtmal mit der Zehenspitze gefordert im ganz normalen Rendering und Texturen und Polygone Streaming.
Hier können GIGABAYTE an Platzhalterdaten in Millisekunden geswapped werden, das ist ein Kinderspiel für eine 3080.
Und taugliche Engines.

Dass tatsächlich belegtes VRAM bei 4K überhaupt auf mehr mehr als 4-6 GB VRAM (NICHT ALLOKATION!) kommt, sollte man mal belegen.
Ansonsten lasst uns einfach die unoptimierten Engines outen, die das Swapping nicht hinbekommen.
Wie Horizon Zero Dawn und Control.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: etoo und monitorhero
Zwirbelkatz schrieb:
Zum Thema:
Man kann 700€ UVP bis 800€ Straßenpreis für ein Produkt ausgeben. Gleichzeitig läuft man Gefahr, damit heute oder in naher Zukunft trotzdem nicht die volle Bildqualität zu erhalten, bspw. falls eine Engine im Hintergrund die Texturen manipuliert.
Eine GTX1080 hatte 8GB Speicher. Wir erleben mindestens eine Verdopplung der Leistung durch die RTX3080 - der Speicher bleibt jedoch bei übersichtlichen 10GB.

Was hat denn die Verdoppelung der Leistung einer Karte mit Vram zu tun? Da ist es wieder, diese festgesetzten Zahlen in den Köpfen der Käufer.
 
Laphonso schrieb:
Hier können GIGABAYTE an Platzhalterdaten in Millisekunden geswapped werden, das ist ein Kinderspiel für eine 3080.
Da sagst also, dass man kein großes Volumen benötigt, da man "schneller aufräumen" kann? So hab ich es noch nicht betrachtet. Das klingt auf jeden Fall spannend. Es stellt sich die Frage, ob das ältere Karten 1-2 Generationen zuvor nicht bereits konnten.

Kleptomanix schrieb:
Was hat denn die Verdoppelung der Leistung einer Karte mit Vram zu tun?
Über die Jahre hinweg belegen die Spiele im Mittel mehr Speicher. Das lässt sich denke ich beobachten und messen. Ein Argument wäre also eine potentiell lange Haltbarkeit einer Karte mit hoher Rohleistung. Sicherlich etwas, das wünschenswert ist, bei einer Investition von 700, 800 oder gar noch mehr €uronen.
 
  • Gefällt mir
Reaktionen: Aquilid und Laphonso
McLovin14 schrieb:
@Chismon
16GB Speicher bedeuten zwangsläufig ein 256-Bit SI ... Nvidia beschneidet seinen GA102 um 1/3 seiner Größe? Preislich muss das ganze ja auch noch in das Schema passen. Warum sollte Nvidia fast die Leistung einer 3080 mit mehr Speicher für weniger Geld anbieten?

Naja, eine GTX 1070Ti war von der Leistung auch nur unwesentlich langsamer als eine GTX 1080 und wurde als Konkurrenzprodukt zur RX Vega56 gebracht, die einer GTX 1070 wohl dann ab einem bestimmten Zeitpunkt meist etwas voraus war in der Leistung.

Es stellt sich die Frage was AMD/RTG bieten wird koennen und wie viele Produkte/Leistungsklassen nVidia am Ende dagegen stellen will?

Da koennte ein RTX 3070 Ti fast mit der Leistung einer RTX 3080 schon passen, wenn man damit auf Augenhoehe oder knapp ueber einem AMD/RTG RDNA2 Modell (z.B. RX 6800XT) liegen wuerde und dabei vom Verbrauch her aehnlich (deutlich unter einer RTX 3080), aber was die einzelnen Modelle am Ende leisten werden koennen, wissen wird aktuell natuerlich noch nicht.

Es kursieren ja Geruechte, dass AMD/RTG trotz nur 256Bit SI und angeblich nur GDDR6-Speicher kein Problem haben koennte mit der u.U. auf dem Papier hoeheren Hardwarebandbreite der RTX Ampere GPUs mitzuhalten, aufgrund einer Architekturanpassung/-umstellung, somit waere da evt. bei nVidia auch noch etwas moeglich, zumal man ja auch nicht weiss wie viele der Ampere Features umgesetzt werden (bspw. auch was das IO Feature angeht) und wann bzw. auf welchen Modellen in welchem Umfang.

Jedenfalls wuerde ich aktuell eher abwarten als zu handeln/kaufen, denn die Markt- und Produktentwicklung ist aktuell und in den kommenden Wochen einfach zu schlecht einzuschaetzen/unvorhersehbar.
 
Zwirbelkatz schrieb:
Da sagst also, dass man kein großes Volumen benötigt, da man "schneller aufräumen" kann?

Genau das! Es entspannt die VRAM Hysterie erheblich.
Die "Pulsamplitudenmodulation" (cooles Scrabble Wort :D) verdoppelt mal eben die Anzahl der "Zustände pro Signal", so dass die doppelte Menge an Informationen pro Takt übertragen werden kann.

Mein Bild mit dem Tunnel passt besser, wenn man den Tunnel breiter macht = bei GDDR6x fahren mehr Autos durch gleichzeitig und kommen am Ende raus. Nun fahren die auf den Parkplatz vor der Sackgasse (VRAM SPeicher gesamt). "Mehr" (analog mehr VRAM) Platz für Autos auf dem Parkplatz erhöht den Auto-Output nicht zu beiden Seiten.

Da selbst ein ARK - eine gerne genommenes Beispiel für "VRAM Probleme" - mit einer Titan RTX und 64 GB RAM etc nicht optimal läuft, müssen wir unterstellen, dass manche Hersteller den Tunnel schlicht ungut ansteuern und das Parkplatz Management nicht optimal verwalten.
Das war und ist kein VRAM Limit Problem hier.

Die 3080 erlaubt mit den 10 GB VRAM und GDDR6x genau das viel bessere und schnellere Managen der Allokationsprozesse und Swapping der Platzhalter und used/unused Grafikobjekte , die man ja immer als "VRAM Limit" Indikator nimmt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwirbelkatz und monitorhero
steve81 schrieb:
Nach all den Informationen erscheint mir eine RTX 3070 16 GB die vernünftigste Karte zu werden. Die 3080 10GB hat einfach für "Next Gen" zu wenig Videospeicher. 20 GB erscheint mir dann zum Zocken wieder zu viel und damit auch zu teuer zu werden.
Abwarten was AMD noch präsentiert, wird sicherlich die Preise im 3060 und 3070 Segment etwas drücken.
Alle Spiele die gerade entwickelt werden die vielleicht in den nächsten 2-3 Jahren erscheinen sind für maximal 11Gb optimiert, eher weniger, weil die breite Masse nicht soviel VRAM zur Verfügung hat. Irgendwie möchte das keiner hier verstehen. Die 3080 ist aktuell die stärkste Karte auf dem Markt für Gaming mit 10Gb.
Wenn ein Spiel heute in die Entwicklung geht wird es bestenfalls für diese Karte als Nonplus Ultra optimiert. Das ist alles so an den Haaren herbeigezogen und das Argument für irgendwelche Texturemods ist so an den Haaren herbeigezogen um das Argument von zu wenig VRAM irgendwie zu rechtfertigen. 10 GB sind vollkommen ausreichend für mindestens 3 Jahre. Bis dahin sind diese Karten bestenfalls noch Mittelklasse. Und viele haben bereits erwähnt, dass bis dahin ganz andere Faktoren die Karte limitieren und nicht der VRAM.
Die Argumentation ist schwach, vor allem wenn man keine Berührungspunkte hatte mit Spieleentwicklung.
 
  • Gefällt mir
Reaktionen: adex, Laphonso und xexex
Zurück
Oben