Notiz GPU-Gerüchte: RTX 3080 Ti mit 12 GB und Mining-Bremse im April

Ich wünsche mir das sehr viele 3070Ti und 3080Ti auf den markt kommen und 2 wochen danach alle kryptocoins um 95% fallen. Dann meine Damen und Herren. GPUs für super Preise :)
 
  • Gefällt mir
Reaktionen: EmanuelB und DarkWolv
Wenn ich es nur Glauben könnte das es dann gute Karten mal wieder um normale Preise am Markt gibt!

Mir fehlt noch der Glauben, und so um die 800 bis 900 wäre mir sie schon wert, das Teil 😎
 
Sunjy Kamikaze schrieb:
Ich wünsche mir das sehr viele 3070Ti und 3080Ti auf den markt kommen und 2 wochen danach alle kryptocoins um 95% fallen. Dann meine Damen und Herren. GPUs für super Preise :)

du hast leider nen denkfehler. wenn die krypto m 95% einbrechen wird extra noch mehr nachgekauft und gemined für den nächsten hype.
 
Shoryuken94 schrieb:
Dann wirbt Nvidia wieder mit, hex guck mal, du bekommst die Leistung einer 1500€ Grafikkarte für 600€.
Alles richtig was du sagst.
Dadurch das AMD lange nicht gegenhalten konnte war es sogar recht einfach.
Wenn es so weiter geht werden viele eh von der aktuellen Gen wenig haben.
Und dann erst bei den Next Gen Karten zuschlagen können.
Da wäre dann der Sprung wieder sehr hoch😅.
 
cypeak schrieb:
es ist ein unterschied ob man einen software-schutz aushebeln will oder etwas das in hardware verankert ist.
ich arbeite z.b. mit entsprechend gefusten soc's; da läuft ohne eine gültige signierung garnichts.

alles kann irgendwo geknackt werden, die frage ist wie groß der aufwand ist und hier würde ich ihn als sehr hoch einschätzen.

Ich glaube Du hast da etwas falsche Vorstellungen, wie das mit dem Mining mittlerweile abläuft. Google mal nach Bildern von richtig (!) großen Miningfarmen. Da sind riesige Gebäude/Lagerhäuser mit vollbestückten Regalen über dutzende von Metern und eigenen Hochspannungsleitungen direkt zum nächsten Kraftwerk. Würde mich nicht wundern, wenn diese Farmen von der Rechenleistung her in der Top10 der Supercomputer mit auftauchen würden. Da geht es monatlich um Millionengewinne, die werden sich ganz bestimmt nicht durch eine Bios- und Treibersperre den Gewinn halbieren lassen.
 
  • Gefällt mir
Reaktionen: FGA
Mining-Bremse? :lol: Die sind doch gerade froh das Miner so viele Karten wie möglich abnehmen. :rolleyes:

Wenn die wollten, dass die Karten in "normal-Kunden-Hand" gelangen, hätten sie schon längst was unternommen.
 
  • Gefällt mir
Reaktionen: tritratrullala, basic123, EmanuelB und eine weitere Person
Hatsune_Miku schrieb:
Als ob diese 2 gb mehr es rausreissen werde.
...

dann lässt sich die Karte länger zum Ethereum Minig verwenden.
 
Miningbremse halte ich für einen Marketing-Gag, um die Gamer bei der Stange zu halten.
 
Eine 6900xt wird sicherlich günstiger sein (verfügbar) als alles was Nvidia als GPU mit einer 8 oder 9 drin verkauft.
Nachdem ich 2stk 2080ti sowie 3stk 3090 testen konnte und nun die 6900xt habe:
Warum habe ich seit der 780ti amd eigentlich völlig ignoriert?
Die 6900xt Performt erstaunlich gut, der Treiber ist ein Traum.
Der Speicher ist ausreichend groß dimensioniert, der Verbrauch ist um langen besser als mit der 3090 bei ähnlicher Leistung.

tut euch keine 2k Karte an, wenn ihr vergleichbare Leistung für 1-1,2k bekommt
 
Sunjy Kamikaze schrieb:
2GB mehr... das ja schon ein wenig Lächerlich. Hatte mich sehr auf eine 3080 mit 20GB gefreut.. das wäre der Leistung angemessen.
12 GB VRAM sind der Leistung vollkommen angemessen, auch 10 wären es. Am Anfang habe ich das Argument "die 3080 wird wegen zu wenige VRAM nicht alt" noch nachvollziehen können, aber die Realität sieht doch gerade ganz anders aus. Cyberpunkt, Watchdog Legion, Control, CoD oder auch ein Tomb Raider beweisen eindrucksvoll, dass nicht der VRAM der Karte in Zukunft das Genick bricht sondern Raytracing. Man muss sowieso DLSS verwenden um neue Titel mit Raytracing auf UHD zu zocken und dann ist der VRAM groß genug. Klar kann man jetzt Propagandatitel wie Godfall oder schwere Mods für GTA und Co ins Feld führen, aber das sind Ausnahmen, nicht die Regel. Beides kann man nach belieben ausdehnen, auch so, dass 20GB VRAM nicht mehr ausreichen.

Würde ich mir mehr VRAM fürs gleiche Geld wünschen? Klar. In der Realität kostet mehr VRAM aber auch mehr Geld. Und eine 3080TI mit 24 GB VRAM gibt es ja bereits, nennt sich 3090 und kostet auch entsprechend. Eine 3080 mit 20GB GDDR6X macht keinen Sinn, da sie preislich näher an einer 3090 als an einer 3080 wäre.
Aber es gibt ja die Alternative von AMD, die Karten haben doch mehr VRAM und sind auf oder über dem Niveau einer 3080. Wollte ich zwar nicht haben, denn ohne DLSS keine Zukunftssicherheit, aber das muss ja jeder selbst entscheiden.
 
  • Gefällt mir
Reaktionen: Zach
McFritte schrieb:
Ich glaube Du hast da etwas falsche Vorstellungen,

ich hab schon eine vorstellung wie mining farmen aussehen.
ich weiß aber auch welchen aufwand die hersteller treiben wenn es um hardware basierete signierung geht - ich habe das z.b. mit texas instruments in deren arm soc selbst mitgemacht; ein teil der information wird direkt in die hardware gefused und ohne pasendes zertifikat zur signierung wird die cpu nichts ausführen - da hilft dann auch keine rechenpower irgendwoher.
meines wissens gibt es für nvidia grakas seit ca. 2016/17 keine alternativen bios oder bios mods mehr, eben weil signiert wird.

was ich mir eher vorstellen könnte ist dass die miningsioftware angepasst wird um zu verhindern dass die eingebaute bremse greift...
 
GrooveXT schrieb:
12 GB VRAM sind der Leistung vollkommen angemessen, auch 10 wären es. Am Anfang habe ich das Argument "die 3080 wird wegen zu wenige VRAM nicht alt" noch nachvollziehen können, aber die Realität sieht doch gerade ganz anders aus. Cyberpunkt, Watchdog Legion, Control, CoD oder auch ein Tomb Raider beweisen eindrucksvoll, dass nicht der VRAM der Karte in Zukunft das Genick bricht sondern Raytracing.

Also bei 12 GB stimme ich dir zu. Bei 10 GB nicht. Von deinen oben genannten Games die ich zumindest habe, zieht Watch Dogs Legion (mit RT) und Cyberpunk (ohne RT da Radeon) bei mir in 4k schon mehr als 10 GB.

Und das DLSS den VRAM Verbrauch senkt, ist nicht immer so, jedenfalls nicht drastisch.
 
MMIX schrieb:
zieht Watch Dogs Legion (mit RT) und Cyberpunk (ohne RT da Radeon) bei mir in 4k schon mehr als 10 GB.
Jaaa es sind vielleicht mehr als 10GB reserviert. Trotzdem bedeutet das nicht zwingend dass das Game mit weniger VRAM schlechter laufen würde.
 
MMIX schrieb:
Von deinen oben genannten Games die ich zumindest habe, zieht Watch Dogs Legion (mit RT) und Cyberpunk (ohne RT da Radeon) bei mir in 4k schon mehr als 10 GB.

Und das DLSS den VRAM Verbrauch senkt, ist nicht immer so, jedenfalls nicht drastisch.
1. DLSS senkt den VRAM Verbrauch ordentlich, weil du in einer geringeren Auflösung renderst. In Quality-Stufe renderst du in WQHD und gibst in UHD aus. Da brauchst du keine 10GB VRAM.
2. Belegter Speicher ungleich benötigter Speicher, wenn es danach geht dürfte kaum ein Spiel mit 8 GB Karten laufen.
3. Ist es genau das was ich sage, auf der Radeon spielst du halt ohne RT, dann kommt man sicherlich ans VRAM Limit. Schalte RT hinzu, dann interessiert es überhaupt nicht ob du 16 oder 8 GB VRAM hast, denn die Karte käme (wenn überhaupt) gerade so in die spielbaren Frames. Und wenn man dann lieber ohne maximales RT spielt, dann kann ich auch genauso gut ohne maximale Texturgröße spielen. So oder so einen Regler wirst du halt für gute Performance opfern. Es sei denn du hast DLSS, dann geht beides.
 
  • Gefällt mir
Reaktionen: Gsonz
Baal Netbeck schrieb:
Ich denke, dass 12GB Vram noch ganz gut ausreichen werden... Würde ich je nach Preis kaufen.
10GB sind ja jetzt schon grenzwertig, die 2gb machen den braten nicht fett... 16gb hätte dem Braten gut gestanden.
 
  • Gefällt mir
Reaktionen: Hatsune_Miku und SSD960
Auch ich hoffe das meine 1080Ti nicht den Geist aufgibt bevor die neueren Modelle Verfügbar sind. Bei der 2080Ti war mir der Leistungszuwachs zu gering. Gerade mal ca. 25%
 
Vram ist nicht zwingend mit der Auflösung zu Skalieren. Es gibt hier doch genügend beispiele wo Games deutlich mehr als die 10GB volljagen und es dann zu Spikes in den min fps kommt. Da performt Teilweiße eine 3060 mit 12GB besser mit Raytracing als eine 3070. Wie kann man den sowas noch schönreden?.

Nvidia hat 2 Karten mit anständigem VRAM in angebot. Eine 3060 und eine 3090. Der Rest is einfach zu wenig für die Leistungsklasse.
Klar der Normale Counterstriker sieht das Problem eher nicht. Ich habe aber viele Displays an meiner GPU hängen und alleine dadurch schon 2GB minimum belegt. Da werde ich nen Dreck tun und mir eine 10GB Karte holen wenn ich mir ne neue kaufe.
 
Das ist der Moment, an dem die Speerspitze platz fürs Mittelfeld machen muss, weil unattraktiv. 12GB sind ein Witz für eine 3080 TI, das hat AMD im Mittelfeld und selbst im eigenen Lineup hat man in diesem Bereich mit 3060 und 3070 TI nachgebessert, was gut ist aber unverständlich. Unvertsändlich deshalb, weil die größeren Karten mit weniger Speicher auskommen müssen. Wieso man bei einem Top-Modell wie einer (3080) TI den Speicher nicht gescheit ausbaut, verstehe ich nicht. Das hat man davor ja auch gemacht (1000er-/2000er-Gen). Meiner Meinung nach ist die 3000er-Gen ein Reinfall bzgl. der Sinnhaftigkeiten an Spezifikationen.

  • Die 3060 hat mehr VRAM als eine 3060 TI bei weniger Leistung.
  • Die 3070 TI hat mehr VRAM bei weniger Leistung als eine 3080.
  • Die 3080 hat weniger VRAM als eine 3060 bei deutlich mehr Leistung.
  • Die 3080 TI hat sagenhafte 2GB mehr VRAM als eine 3080.

Während eine 3090 14GB mehr VRAM als eine 3080 und 12GB mehr VRAM als eine 3080 TI hat, bei gerade einmal 10% - 15% mehr Leistung als eine 3080. Und das I-Tüpfelchen sind die Leute die sagen: 12GB reicht ja eigentlich auch, während die 3060 und 3070, die für FHD / WQHD ausgelegt sind, den massiven Speicherausbau von 12 bzw 16 erhalten, den sie gar nicht aufbrauchen.

Das Ganze Portfolio ist ein Konterpart seines gleichen.
 
  • Gefällt mir
Reaktionen: Fighter1993
konkretor schrieb:
Ende 2021 steht schon die nächste Generation an
Wie kommen da immer alle drauf?! Vor Mitte Ende 2022 wirds von Nvidia und AMD keine neuen Grafikkarten geben.
 
  • Gefällt mir
Reaktionen: Gsonz
Zurück
Oben