News Ampere: Nvidia nährt Gerüchte um GeForce RTX 3080 mit 20 GB

Dittsche schrieb:
CB hat aber die TUF O10G (also die OC Variante) getestet. Für 720 kriegt man aber nur die NON OC Variante. Hat Asus schlau gemacht, da fehlt nur das O im Namen. Ich weiß es, da ich die auch auf dem Schirm hatte zum Kauf.

Schau es dir direkt bei Asus auf der Homepage an. Auch fast etwas perfide finde ich ja.

Ist das wirklich so? Im CB Test steht ja auch der Preis von 720€ für die OC Variante. Dann hätte hier CB einen „Fehler“ im Test.

Obwohl es wohl eh relativ egal ist, da OC hier nichts bringt in der Praxis.
 
BrollyLSSJ schrieb:
Danke für die Info. Dann könnte man ja noch ein paar Cent sparen (zumindest wenn die mal wieder verfügbar sind) und dann einfach die non-OC Variante mit dem BIOS oder OC Variante flashen.

Wozu?
1600427797782.png

https://geizhals.de/?cmp=2366033&cmp=2364131

Wegen 60Mhz? Die kannst du im Afterburner einfach selbst einstellen, macht aber leistungstechnisch sowieso 0 Unterschied.
 
  • Gefällt mir
Reaktionen: stevefrogs
guillome schrieb:
10GB reichen heute, gepaart mit der Rohleistung und dem Preis von Ampere -> geschickter Schachzug Nvidia (Sollbruchstelle die viele nicht merken weil nur die Balkenlänge heute zählt)
Heute reichen in 9 von 10 Fällen 6GB und nur Ausnahmen brauchen 8GB. Die 11GB der 2080ti hat bisher noch niemand gebraucht. 10GB reichen noch eine gute Zeit lang.
damit die Karte ein Speicherkrüppel wird, muss es in spielen normal werden, dass die Rechenleistung noch reicht aber der Speicher bremst. Gerade mit dem immer mehr kommenden Raytracing glaube ich aber eher das die GPU aus dem letzten Loch pfeift bevor der Speicher ausgeht.
 
  • Gefällt mir
Reaktionen: Kloin, .Sentinel., Vitec und eine weitere Person
eSportWarrior schrieb:
Bin irgendwie immer mehr bestärkt in meiner Entscheidung von 4k zurück zu 1440p zu gehen.
Der Mensch ist halt ein Gewohnheitstier und etwaige Wow Effekte weichen schnell dem Alltag.

Dem stimme ich zu. Mit meiner Kombination aus einer 1080 Ti und einem LG 32GK850G-B G-Sync (WQHD) Monitor macht das Spielen immer noch großen Spaß. Nebenbei gesagt relativiert sich die Bildschärfe bei einem adäquaten Sitzabstand. Ein "must have" ist ein 4K Monitor für mich daher eher nicht.

Insofern kann ich mit der Gerüchteküche um eine 3080 (Ti) Grafikkarte mit 20GB VRAM völlig entspannt leben. Wenn überhaupt, mache ich mir frühestens nächstes Jahr Gedanken um den Kauf einer Karte aus der 3000er Serie. Der Hypetrain darf also getrost ohne mich abfahren.
 
  • Gefällt mir
Reaktionen: Laphonso
Lübke82 schrieb:
Na dafür gibt es ja auch die 3090 dann. Verstehe das Problem nicht?
Na ganz einfach, vor zwei Wochen hat jeder darüber gelästert das die 3080 wahrscheinlich an die 1000 Euro kosten würde. Jetzt ist die Karte verhältnismäßig günstig, so dass auch die Interesse haben, die vorher nicht mal dran gedacht haben sich eine 3080 zu holen. Auf einmal ist die 80er Karte das absolute Highend, nimmt die Rolle der Ti ein und soll für 700 Euro gefälligst zukunftssicher sein.
Und anstatt sich darüber zu ärgern das die Ti jetzt 1.500 Euro kostet, verlangt man das die günstige 80er Karte gefälligst mehr Speicher haben sollte. Wenn die 20GB Karten am Ende erscheinen und dann 900-1000 Euro aufwärts kosten, werden sicherlich einige die hier groß unken doch zur 10GB Karte greifen. Die Vergangenheit zeigt uns bisher immer, dass man für die Zukunft nicht vorkaufen kann. Die 2080 Käufer der letzten Generation werden ihre Karte am Ende sicherlich nicht wegen dem VRAM ausmustern.
 
  • Gefällt mir
Reaktionen: Tzk und Lübke82
GrooveXT schrieb:
Also Horizon läuft bei mit in QWQHD in max Settings mit 7,5GB VRAM Auslastung,

In diesem Forum scheitern leider große Gruppen, wiederholend, an der Unterscheidung zwischen VRAM usage und allocation.
 
  • Gefällt mir
Reaktionen: zhompster, Ko$chi, nikky und 6 andere
Steini1990 schrieb:
Im Grunde hat Igor eh schon vor Wochen vorhergesagt wie das mit RTX 3000 laufen wird. Zuerst kommen die Varianten mit wenig Speicher. Wenn dann AMD 2 Monate später die neuen Karten liefern kann, wird kurz darauf mit den Varianten mit mehr Speicher gekontert. Ich habe keinen Grund etwas anderes anzunehmen.
Ich würde es mir ja wünschen... ABER das würde NVidia so nicht tun. Im Statement von NVidia sagen die selber, dass sie in Kontakt mit den Spieleentwickler stehen und aktuelle Spiele "nur" 6-8 GB auf 4 K verbrauchen. Wenn sie zwei Monate nach den GPUs mit "wenig" Speicher und dieser Aussage, dann doch welche mit viel GB raushauen, wäre das ne ganz üble Nummer.
 
  • Gefällt mir
Reaktionen: Aquilid und stevefrogs
SirDoe schrieb:
Also welche Nachteile hat man denn genau mit einer 10GB Karte zu einer 20GB, gesetzt dem Fall die Leistung ist gleich? Lags, Nachladeruckler, weniger FPS, aufploppende Texturen?
Das sich Konsolen- VRAM und der VRAM der neuen Grafikkarte im gleichen Bereich befinden und beide Systeme inzwischen auf 4K Ausgabe gemünzt sind, wirst Du zu Lebzeiten von Konsolen bei normaler Spielenutzung keine spürbaren Einschränkungen erfahren.

-Du erfährst dann möglicherweise Einschränkungen, wenn Du auf Engines, die nicht darauf ausgelegt sind, Texturmods draufwirfst, die gigabyteweise VRAM schlucken.
-Oder auch bei Spielen, die Next- Gen Einstellungsregler implementieren (machen inzwischen die wenigsten, weil sie sich sonst einen Shitstorm einfangen wie bescheiden das Spiel optimiert sei)
-Oder bei fehlerhaft bzw. schlampig programmierten Spielen, die den Speicher sinnlos vollmüllen.

Alles also Ausnahmefälle.
Wie es richtig geht zeigt z.B. da HD Reworked Projekt bei The Witcher 3.
Alles feinst aufgelöste Texturen bis in den letzten Winkel bei hoher Sichtweite etc.

Und jetzt blicken wir mal auf den VRAM Verbrauch in 4K:

Das sollte eigentlich alle Fragen beantworten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cohen, SirDoe und GrooveXT
@xexex
Weil ich es könnte und mir sowas durchaus auch Spaß macht. Afterburner nutze ich nicht und habe ich nicht (mehr). Ich lebe nach dem Motto "weniger ist mehr" und "Kaufe erst was neues, wenn das alte kaputt ist" (da ich sowas selber nicht reparieren kann). Meine GTX 660 habe ich auch erst nach einigen Monaten mit dem OC BIOS geflasht. Habe ich damals bei meiner Geforce 5900 gemerkt, die ich per BIOS zur 5950 Ultra flashen konnte und dann selber per Hand noch mal übertakten konnten (beides waren, wenn ich nicht irre, jeweils 25 MHz, vRAM jeweils 50 MHz, hatte ich dann auch in das entsprechende BIOS genommen und noch mal geflasht). Ist augenscheinlich halt nicht die Welt, aber hat zumindest bei den Min-FPS noch was gebracht. Mir ging es da aber auch hauptsächlich nur drum, dass es möglich war.

Aktuell bin ich aber eh nicht an einen Kauf interessiert. Ich nutze lieber Alt-Hardware und wer weiß, was es in X Jahren gibt, wenn bei mir mal eine GPU abgeraucht ist. Das war mehr nur fürs "Im Hinterkopf behalten." gedacht, die Aussage.
 
KCX schrieb:
Ich kann mich nur wiederholen... wer bereits Turing im Rechner hat und nicht die 3090 will, sollte mMn warten. Unter 16GB und doppelter Leistung werde ich mir nix neues holen.
Habe auch deine Graka verbaut , allerdings hätte ich schon gern mehr FPS in einigen Spielen mit WQHD.Es komtm ja bald noch einiges neues auf dem Markt und das Thema mit RTX wird auch immer wichtiger. Hatte eigentlich vor mir eine 3080 zu kaufen und meine 2080 meiner Frau zu schenken, aber warte wohl auch auf mehr Speicher.
 
.Sentinel. schrieb:
-Du erfährst dann möglicherweise Einschränkungen, wenn Du auf Engines, die nicht darauf ausgelegt sind, Texturmods draufwirfst, die gigabyteweise VRAM schlucken.
-Oder auch bei Spielen, die Next- Gen Einstellungsregler implementieren (machen inzwischen die wenigsten, weil sie sich sonst einen Shitstorm einfangen wie bescheiden das Spiel optimiert sei)
-Oder bei fehlerhaft bzw. schlampig programmierten Spielen, die den Speicher sinnlos vollmüllen.
Und nicht zu vergessen ein Tipp aus der Rubik "Grafikkartenhersteller hassen diesen Trick":
In allen Spielen gibt ein Einstellungsmenü und da meist irgendwo versteckt sogenannte "Grafikeinstellungen", da kann man zur allergrößten Not und mir gaanz viel geschick, die Texturen eine Stufe runter stellen. Zack 300 Euro gespart, aber pssst!
 
  • Gefällt mir
Reaktionen: Ko$chi, nikky, Cohen und 5 andere
Denjenigen, die das mit dem unzureichenden VRAM als Unfug abtun, möchte ich als zweite Quelle mal das Fazit des PCGH-Tests ans Herz legen. Wenn man in 4k mit aktiviertem Ray Tracing bereits heute schon bei Control teils matschige Texturen kriegt (wird in dem Fazit auch per Screenshot belegt) weil die normal aufgelösten Versionen nicht mehr in den Grafikspeicher passen, dann fühle ich mich persönlich nicht motiviert, über 700€ für diese Grafikkarte auszugeben.
 
  • Gefällt mir
Reaktionen: Aquilid, JohnnyTexas, Hercule Poirot und 3 andere
ShiftyBro schrieb:
Wenn man in 4k mit aktiviertem Ray Tracing bereits heute schon bei Control teils matschige Texturen kriegt (wird in dem Fazit auch per Screenshot belegt) weil die normal aufgelösten Versionen nicht mehr in den Grafikspeicher passen
Der Effekt tritt auch auf, wenn genügend Grafikkartenspeicher verfügbar ist. Das ist ein Fehler in der Streaming- Engine, in welcher es Probleme mit der Texture- Budget- Verteilung gibt.

@stevefrogs
Zu unten: Das zudem.
Wobei das verzögerte Texturstreaming auch da zu beobachten ist. Egal wieviel Speicher da frei ist.

Wer unter der Krankheit der deutschen vollkasko- Menthalität leidet, kann auch auf die teurere 20GB Version der Karten warten oder sich die 3090 holen. Da kann auch der größte Pessimist damit dann jede Nacht ruhig schlafen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cohen, freezer255 und GrooveXT
ShiftyBro schrieb:
Wenn man in 4k mit aktiviertem Ray Tracing bereits heute schon bei Control
Du meinst das Spiel, dass mit DLSS glänzt? Problem gelöst!
 
  • Gefällt mir
Reaktionen: Cohen
naicorion schrieb:
Da auf den Konsolen mit dem bisschen Mehr an Speicher jetzt auf einmal echtes 4K möglich sein soll, wird entweder die Kompression viel besser (und auf dem PC nicht) , [...]
Nochmal: Warum sollte 4k so problematisch für den Speicher sein? Kann mir das mal jemand technisch erklären? 4k sind ~ 8Millionen Pixel, da brauchts nicht mehr als ein paar dutzend MB um das im Speicher zu halten.
 
  • Gefällt mir
Reaktionen: .Sentinel. und etoo
Die 10GB extra werden sicher nicht billig!
Der Speicher ist neu auf dem markt und auch noch extrem schnell.
Rechnet mal mit 200 Aufpreis!
Bis jetzt sind ja 10GB ausreichend. Wer die Karte länger als 2 Jahre behalten will und Texturen immer auf Ultra hat sollte über mehr Speicher nachdenken.
4k oder nicht macht da nicht viel Unterschied.
 
  • Gefällt mir
Reaktionen: .Sentinel. und firesnake
So eine Verarsche, eine 3080 mit 20GB kurz nach Release (dazu zählt alles bis zu einem Jahr) rauszubringen.
Sie wissen, dass AMD eine ähnlich leistungsstarke Karte mit wahrscheinlich soppelt so viel Speicher bringen wird und veranstalten so eine Sauerei. Erst, Karten ankündigen, die nicht lange so viel leisten wie sie angekündigt haben (wenn man den Verbraucht relativiert) und jetzt eine Karte verschweigen, die viel mehr SInn macht am Markt, und wegen der viele jetzt zu keiner 3080 10G gegriffen hätten. Sauladen.
 
  • Gefällt mir
Reaktionen: Aquilid
Zurück
Oben