Notiz GPU-Gerüchte: RTX 3080 Ti mit 12 GB und Mining-Bremse im April

Gsonz schrieb:
Jaaa es sind vielleicht mehr als 10GB reserviert. Trotzdem bedeutet das nicht zwingend dass das Game mit weniger VRAM schlechter laufen würde.

GrooveXT schrieb:
1. DLSS senkt den VRAM Verbrauch ordentlich, weil du in einer geringeren Auflösung renderst. In Quality-Stufe renderst du in WQHD und gibst in UHD aus. Da brauchst du keine 10GB VRAM.
2. Belegter Speicher ungleich benötigter Speicher, wenn es danach geht dürfte kaum ein Spiel mit 8 GB Karten laufen.
3. Ist es genau das was ich sage, auf der Radeon spielst du halt ohne RT, dann kommt man sicherlich ans VRAM Limit. Schalte RT hinzu, dann interessiert es überhaupt nicht ob du 16 oder 8 GB VRAM hast, denn die Karte käme (wenn überhaupt) gerade so in die spielbaren Frames. Und wenn man dann lieber ohne maximales RT spielt, dann kann ich auch genauso gut ohne maximale Texturgröße spielen. So oder so einen Regler wirst du halt für gute Performance opfern. Es sei denn du hast DLSS, dann geht beides.

Bitte nicht wieder das Thema was reserviert ist und was anliegt. Schaut doch einfach den 2021 GPU Test von cb an da sieht man auch, dass 10 GB knapp werden können und wie eine 12 GB 3060 zulegen kann im Gegensatz zu einer 3060 Ti. Watch Dogs Legions müsste ja dann auch bei mir aktuell (neueren Monitor mit UWQHD) ja auch ähnlich zu vorher in 4k über 10 GB einfach mal so reservieren, geht man zu eurer Aussage. Macht es aber nicht, dort sind es "nur" über 9 GB.

Und meine Radeon läuft gut mit RT in Watch Dogs Legions. Natürlich keine 60 Fps, brauch ich im SP und wenn ich volle Qualität haben will auch nicht. Mit über 40 Fps bin ich in WDL zufrieden.
 
Fighter1993 schrieb:
10GB sind ja jetzt schon grenzwertig, die 2gb machen den braten nicht fett... 16gb hätte dem Braten gut gestanden.
Ich denke schon....kein Spiel macht 16GB voll.
Aber die 10GB sind teilweise grenzwertig.

Ich habe keine Lust die Quelle rauszusuchen, aber ich habe da bei den 3080 Tests gesehen, dass manche Spiele und Einstellungen einen Vorteil für die 2080Ti gezeigt haben, nur wegen minimal mehr VRam.
Wenn 10 zu wenig sind und 11GB reichen.....sind 12GB gar nicht schlecht.

Und mit Ram und VRam Größe gibt es ja im Grunde nur die Frage "Ist es ausreichend viel für meinen Anwendungsfall".
Sofern beides reicht, bringt "mehr" kaum Vorteile.
Mehr VRam Bandbreite bringt hingegen mehr FPS.
Und selbst bei meiner Radeon VII reagiert die Karte noch gut auf VRAM OC....besser als auf GPU OC.
Obwohl sie schon 1TB/s Bandbreite hat und die GPU längst nicht so schnell die Daten verarbeiten kann wie eine 3080(Ti).
 
  • Gefällt mir
Reaktionen: Klever
Das was NVidia hier macht ist die reinste Verarschung.

Karten mit Mining Bremse bringen und gleichzeitig GPUs für speziell für Miner machen.
(bei gleichbleibender Fertigungskapazität, beim selben Hersteller)

Ist es nicht so dass Mining Grafikkarten genau so Chipfertigungskapazität beim Partner der Wahl brauchen und das Kontingent auffressen?
Die werden ja nicht zusätzlich produziert.

Dabei hat NV das Problem selbst geschaffen.
Man verkauft halt lieber direkt von der Fabrik, ohne Zwischenhändler und ohne Garantie.

Man könnte die Grafikkarten an Großhändler verkaufen und auf 1 Stück pro Person begrenzen, dann hätte man was für die Gamer getan.

Aber diese Scheinheiligkeit kotzt mich an. "We are Gamers" , "we do something for the Gamers".

Alles NV je getan hat, war für ihr Wallet.

Die Grafikkarten sind exzellent, keine Frage.
Aber die halten ihre potentiellen Kunden für Idioten.

Man casht doppelt ab und versucht sich als Samariter darzustellen.

Die Verfügbarkeit bei den Gaming Karten wird weiter niedrig sein, die Preise hoch.
Und man kann direkt bei den Minern Geld verdienen.

Außerdem kann man Angebot/Nachfrage=Preise steuern, da man 2 Produktschienen hat.
Dann macht man halt mehr Mining Karten, wenn die Kohle stimmt.
Man segmentiert eine feste Produktionskapazität künstlich.
Wie soll das helfen?

Nur für NV hat das Ganze Vorteile, alle anderen verlieren:

Die Miner, da sie vielleicht nach dem Boom ein wertloses Produkt haben.

Die Gamer, die eine extrem teure, beschnitte Karte haben und nichts mehr damit dazuverdienen können, wenn Sie denn wollten.
Der Wiederverkaufswert wird dadurch auch gesenkt.
(je nachdem wo die Crypto-Reise demnächst und in den nächsten Jahren hin geht.)

Wenn die Preise noch weiter steigen verkaufe ich meine 3090.
Da bleibt noch gut was hängen und ich hau mir eine 6800XT rein.

Im zweiten Rechner hab ich schon eine und die läuft verdammt gut.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lkullerkeks und tritratrullala
jetzt noch alles was weniger als 12gb vrams macht eh kein Sinn und nur die wenigsten werde den doppelten Aufpreis von 400 Zahlen, und Abwarten bis die Karten in Fülle vorhanden sind.
Werde eh auf die next Gen warten 4XXX nV die 3XXX ist nix für mich
 
Zuletzt bearbeitet von einem Moderator:
Das erste Mal seit langem das ich NVidia dann ein Lob aussprechen möchte mit der Mining Bremse. Es ist zu hoffen das AMD dann nachzieht.
 
Man sieht, Du hast den ganzen Thread gelesen und alles verstanden.
Die Welt braucht mehr Kunden wie Dich. :(
 
hat die Bremse bei der 3060 nun was gebracht?
 
Eher nicht:
https://geizhals.at/?fs=rtx+3060ti&hloc=at&hloc=de&in=


Eine 1080ti war damals DAS Topmodell und teuer zu produzieren.

Sieht so Fortschritt bei NV aus?
Die 3060ti gehört in die 250€ Klasse, wie alle 60er früher auch.
Entscheidet selber.


Lasst euch nicht das Geld aus der Hose ziehen und wartet ab.

Das ist der perfekte Zeitpunkt um den "Pile of Shame" bei Steam abzuspielen oder auch mal alte Games mit Freunden zu spielen.

(hatte jede Menge Spaß @BF4 letztens)

Bei neuen Games, die man nicht verpasst haben darf, bin ich auch für Vorschläge offen.
Hat jemand einen Tipp?

Um das Geld das eine 3060ti kosten soll, hat man viele Jahre einen kompletten Rechner der oberen Mittelklasse bekommen.
 
Zuletzt bearbeitet:
PS828 schrieb:
Aber ungeachtet davon wird sie sich halt in die schmale Ecke zwischen 3080 und 3090 zwängen.
Glaube ich nicht. Ich gehe eher davon aus, dass die 3080 dann zugunsten der TI eingestampft wird, wie seinerzeit meine 2080 als die Super rauskam.
Die werden bei Nvidia schauen müssen, dass sie überhaupt genug GDDR6x herbekommen von Micron, das wird wahrscheinlich schon schwierig genug, wenn man die 3090 weiter bedienen will und je nachdem, was auf den A100 verbaut wird.
 
  • Gefällt mir
Reaktionen: Tzk
IBISXI schrieb:
st es nicht so dass Mining Grafikkarten genau so Chipfertigungskapazität beim Partner der Wahl brauchen und das Kontingent auffressen?
Die werden ja nicht zusätzlich produziert.
Nvidia will wohl ältere chips dafür nehmen. Die laifen dann parallel zu Ampere vom Band, aber nicht bei Samsung in 8nm ;)

@Xtrasmart
Wäre zum Einstampfen der 3080 nicht eher eine 3080 Super gedacht statt einer Ti?
 
Wo dann?
TSMC scheint auch ziemlich voll zu sein.
Und GF hängt, soweit ich weiß immer noch bei 14nm.

Es gibt nicht mal genügend Chips für die Autohersteller.
 
Zuletzt bearbeitet:
MMIX schrieb:
Watch Dogs Legions müsste ja dann auch bei mir aktuell (neueren Monitor mit UWQHD) ja auch ähnlich zu vorher in 4k über 10 GB einfach mal so reservieren, geht man zu eurer Aussage. Macht es aber nicht, dort sind es "nur" über 9 GB.
Also weil eine Entwickler in seiner Engine den VRAM im Griff hat, ist das der Gegenbeweis?
Wie VRAM genutzt wird hängt an der Engine, klar gibt es welche die kümmern sich drum und es gibt welche die lassen halt alles solange liegen bis kein Platz mehr ist und überschreiben dann. So funktioniert RAM.
Cyberpunk läuft bei mir mit der 3080 und UWQHD in Ultra und Ultra RT und DLSS Q super smooth bei 55-60 FPS.. komisch wenn DLSS nichts bringt und der VRAM doch schon über 10GB liegen müsste.
Wie gesagt ich Zweifel nicht daran, dass 10GB auf Dauer zu wenig wären, nur das es diese Grafikkarte-Gen nicht juckt. Wer mit Max Settings spielen will, dem bricht vorher schon die GPU Dank RT weg. Man kommt nicht Mal dazu ein Problem mit dem VRAM zu haben. Viel wichtiger als ein Haufen Speicher sind da Techniken wie DLSS die nebenbei auch das VRAM Problem lösen.
 
IBISXI schrieb:
Das was NVidia hier macht ist die reinste Verarschung.

Karten mit Mining Bremse bringen und gleichzeitig GPUs für speziell für Miner machen.
(bei gleichbleibender Fertigungskapazität, beim selben Hersteller)
In den Mining-Karten stecken meines Wissens 12nm Turing-Chips... keine 7nm Ampere-Chips.
Miner sind nicht amused, dass sie nur den Kuchen vom Vortag zum Premiumpreis kriegen.
 
Baal Netbeck schrieb:
Ich denke schon....kein Spiel macht 16GB voll.
Aber die 10GB sind teilweise grenzwertig.

Ich habe keine Lust die Quelle rauszusuchen, aber ich habe da bei den 3080 Tests gesehen, dass manche Spiele und Einstellungen einen Vorteil für die 2080Ti gezeigt haben, nur wegen minimal mehr VRam.
Wenn 10 zu wenig sind und 11GB reichen.....sind 12GB gar nicht schlecht.

Und mit Ram und VRam Größe gibt es ja im Grunde nur die Frage "Ist es ausreichend viel für meinen Anwendungsfall".
Sofern beides reicht, bringt "mehr" kaum Vorteile.
Mehr VRam Bandbreite bringt hingegen mehr FPS.
Und selbst bei meiner Radeon VII reagiert die Karte noch gut auf VRAM OC....besser als auf GPU OC.
Obwohl sie schon 1TB/s Bandbreite hat und die GPU längst nicht so schnell die Daten verarbeiten kann wie eine 3080(Ti).
Battlefield 5 haut mir in 1440p 14555MB in den Grafikspeicher.
 
IBISXI schrieb:
Eher nicht:
https://geizhals.at/?fs=rtx+3060ti&hloc=at&hloc=de&in=

Eine 1080ti war damals DAS Topmodell und teuer zu produzieren.

Sieht so Fortschritt bei NV aus?
Die 3060ti gehört in die 250€ Klasse, wie alle 60er früher auch.
Entscheidet selber.

Um das Geld das eine 3060ti kosten soll, hat man viele Jahre einen kompletten Rechner der oberen Mittelklasse bekommen.
Ja, die RTX 3060 Ti ist etwa gleich stark wie eine GTX 1080 Ti. Ich habe mir Anfang Dezember trotzdem eine RTX 3060 Ti gekauft, da ich endlich meinen LG OLED C9 via HDMI 2.1 mit VRR befeuern wollte.

Für meine GTX 1080 Ti hatte ich CHF 800.- bezahlt, für die RTX 3060 Ti CHF 480.- Ich finde das vertretbar.
 
Zuletzt bearbeitet:
BummlerD schrieb:
Dafür war der Sprung davor kleiner als sonst. Wenn man Pascal und Ampere vergleicht und den Leistungssprung über zwei Generationen verteilt, so ist dieser doch eher wieder eine gewöhnliche Steigerung. Turing hat in der Hinsicht eher enttäuscht, da sich anscheinend eher auf RT/DLSS konzentriert wurde als auf Rasterleistung.

Trifft so unter Betrachtung der Mehrleistung von Turing zu Pascal in bei rezenten Tests von z.B. bei GN nicht zu würde ich sagen, und das ohne den Vergleich von Spielen mit eingeschaltetem RTX oder DLSS welche bei Pascal nicht nutzbar sind bzw wo die Leistung bei RT nicht für spielbare FPS reicht.

SOTTRnoRT.png

In SOtTR Vergleich 2080 Ti zu 1080 Ti, bei RT und DLSS auf aus, in 1440p hat die 2080 Ti 28% mehr Leistung als die 1080 Ti.

RDR2_1440p.png

In RDR2 auf 1440p ist eine 2080 Ti 33% schneller als eine 1080 Ti bei avg FPS, bei 0.1% low FPS sind es 32% mehr was Rasterleistung angeht.

Im Vergleich dazu hat die FE 3080 auf Stock in RDR 2 18% mehr Leistung, als eine CD 2080 Ti auf Stock bei avg FPS, bei 0.1% Low sind es 10% mehr Leistung.

Total War.png

In Total War auf 1440p ist die 2080 Ti 33% schneller als die 1080 Ti bei avg FPS, bei den 0.1% lows ist sie schon 53,4% schneller.

Dazu kommt noch dass Turing auch viel besser mit modernen low level Programmierschnittstellen/APIs wie Vulkan umgehen kann, als Pascal, was Rasterleistung angeht.

Als Beispiel Strange Brigade auf 4K mit Vulkan bei dem API Vergleichstest von GN.

strange-brigade_vulkan-4k_2060-2070-super-review.png

Wo die 2080 Ti auf Vulkan bei Strange Brigade bei avg FPS 29% mehr Leistung hat als die 1080 Ti, bei 0.1% low FPS sind es dann schon ein Unterschied von 45% zugunsten von Turing.

Da kann man noch dazu die Skalierung mit Vulkan aufführen, mit Vergleich bei RDR 2.

RDR2 Vulkan Scaling.png

Wo man gut sieht dass Pascal bei Umstellung auf Vulkan praktisch nichts gewinnt, bei Turing verbessert sich die Leistung dagegen im Vergleich dazu auf 5,4% auf Stock, mit OC liegt eine 2080 Ti bei der Vulkan Skalierung gleich auf mit der 3080 mit OC bei 10%.

Im Anbetracht der Ergebnisse finde ich dass der Leistungsprung von Pascal auf Turing viel zu oft und leider zu Unrecht unterschätzt wird und sich meistens auf ältere Titel bezieht, wobei die Mehrleistung von Turing gegenüber Pascal in moderneren Titeln oft sogar höher ist, als bei Ampere zu Turing, was die Rasterleistung ohne RT betrifft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BummlerD
3080 mit 8GB
3090 mit 12GB

Beides wären für Gamer mehr als genug gewesen. Nein man musste 10GB und 24GB wählen. Sprich, man zahlt dafür, dass man etwas nicht nutzt, mehrere hundert Euro mehr. Tolle Leistung Nvidia.

Fighter1993 schrieb:
Battlefield 5 haut mir in 1440p 14555MB in den Grafikspeicher.

Mit welchem Programm gemessen?
Ist das, was das Spiel reserviert oder tatsächlich genutzt hat?
Das Spiel kann 36 GB an Speicher reservieren, muss es aber nicht nutzen.
Und wenn ich mich nicht täusche, messen Afterburner GPU-Z und viele andere auch nur den reservierten Speicherplatz - aber nicht die tatsächliche Größe die gebraucht wird.
 
Heschel schrieb:
3080 mit 8GB
3090 mit 12GB

Beides wären für Gamer mehr als genug gewesen. Nein man musste 10GB und 24GB wählen. Sprich, man zahlt dafür, dass man etwas nicht nutzt, mehrere hundert Euro mehr. Tolle Leistung Nvidia.



Mit welchem Programm gemessen?
Ist das, was das Spiel reserviert oder tatsächlich genutzt hat?
Das Spiel kann 36 GB an Speicher reservieren, muss es aber nicht nutzen.
Und wenn ich mich nicht täusche, messen Afterburner GPU-Z und viele andere auch nur den reservierten Speicherplatz - aber nicht die tatsächliche Größe die gebraucht wird.
Also ich bin Gamer und 10GB reichen mir nicht. Was soll ich da jetzt machen? AMD Kaufen richtig. Die bauen nämlich scheinbar Karten nicht für Gamer sondern für VRAM intensive Anwendungen..... :smokin:
 
  • Gefällt mir
Reaktionen: PS828
  • Gefällt mir
Reaktionen: Klever
Fighter1993 schrieb:
Battlefield 5 haut mir in 1440p 14555MB in den Grafikspeicher.
Ist halt die immer wieder gestellte Frage, ob das nur reserviert oder auch benötigt wird.

Das kann man leider schwer testen.
Im Grunde kann man nur Nvidia Grafikkarten(unterschiedlicher VRama) nehmen, die sonst einen üblichen prozentualen Abstand zueinander haben und dann gucken ob in den Spielen wo der VRam ausgenutzt wird sich die Karte mit mehr VRam ungewöhnlich absetzen kann.

Tut sie es, dann war der VRam hilfreich....ist der Abstand typisch, wurde der VRam zwar reserviert aber nicht gebraucht.
 
  • Gefällt mir
Reaktionen: Klever
Zurück
Oben