News GeForce RTX 3080 und 3070: Nvidia kontert Navi 21 vorerst nicht mit mehr Speicher

Chismon schrieb:
Damit koennte nVidia aber boese Schiffsbruch erleiden, denn so hat man den RDNA2 Karten von AMD/RTG wenig entgegen zu setzen, was Speicher/Langlebigkeit angeht

AMD hatte schon mal eine 16GB Karte auf dem Markt gehabt, sind alle plötzlich losgerannt und haben sich eine Radeon VII gekauft? Was im Forum seitenweise durchdiskutiert wird, interessiert die meisten Käufer gar nicht, sie kaufen sich eine 3080 und gut ist.

Das ist eine Diskussion wie beim Auto, wenn du jemanden fragst welchen BMW er fährt, kriegst du 1er, 3er, 5er oder 7er zu hören, die unterschiedlichen Ausstattungsvarianten interessieren da außerhalb einiger Fachkreise schon niemanden mehr, dabei kann die Motorisierung und Ausstattung den Wagenwert locker verdoppeln und auch dessen "Langlebigkeit", zumindest was die verbaute Elektronik angeht.
 
Fighter1993 schrieb:
Ja da sollten sie aber gelernt haben oder? Aber nein sie machen es immer noch hallo von 8 auf 10gb hoch und amd knallt mal eben 16gb auf die Karte.

Ja, das ist schon lächerlich. War bei Turing aber auch nicht großartig anders
 
Hallo zusammen,

@ xexex
xexex schrieb:
AMD hatte schon mal eine 16GB Karte auf dem Markt gehabt, sind alle plötzlich losgerannt und haben sich eine Radeon VII gekauft?
Es ist nun wirklich mehr als hinlänglich bekannt, daß die VII eher eine Machbarkeitsstudie war als sonstwas. Und so schlecht war die nicht, wie sie immer von vielen gemacht wird.

So long....
 
  • Gefällt mir
Reaktionen: Kodak, Strubbel99 und Terminator-800
In meinen Augen ist das ganz einfach erklärt. Die allermeisten spieler werden einen Furz darauf geben ob jetzt 8gb, 10gb oder 16gb

Die werden sich anschauen wieviel mehr an FPS sie bekommen. Und wenn du die FPS schon fast verdoppelst im Vergleich zur 20er Reihe dann greifen sie da zu.

AMD kann da nur mit Preis oder Leistung bzw. Preis/Leistung kontern.
Die allermeisten denken doch Garnicht soweit ob der Speicher in 4 Jahren, mit einem 800+€ UHD Monitor irgendwann knapp wird.

Nvidia wird auch wissen, dass sie mit einer 16/20GB Karte nur einige enthusiasten mehr anlocken.

Die Wahl liegt also zwischen:

Mehr Speicher reinhauen und die enthusiasten mit an Board holen (und die große Mainstream Masse)

Oder

Weniger Speicher, Geld sparen, die Option für einen heftigeren refresh haben und dennoch die große Mainstream Masse mitnehmen.

Rein wirtschaftlich gesehen ist deshalb weniger Speicher der heute für 90+% aller Kunden ausreicht die viel bessere Wahl.

Allein AMD kann daran etwas verändern indem sie ordentlich abliefer in Sachen Preis, Leistung oder/und Preis-Leistung

Denn nur dann hat Nvidia zu befürchten dass ein relativ großer Teil des Mainstream zu AMD greift.

Wie gesagt, Nvidia interessiert sich im Grunde genommen einen Furz um die Enthusiasten die jeden Penny zweimal umdrehen. Für die sind nur die Enthusiasten interessant die auch Ordentlich in die Tasche greifen können/wollen

Minimaler Aufwand, maximaler Gewinn

Nachtrag:

Ich sehe mich selbst irgendwo zwischen Mainstream und den Enthusiasten. Aber ich war bisher immer zu geizig die bessere und wesentlich teurere Speicherbestückung bei Nvidia zu wählen.

Dazu muss ich aber sagen, dass ich bisher noch nie ein Problem damit hatte dass der Speicher zu knapp wurde.

Wer nunmal eine so eine Grafikkarte so lange behalten will, sodass der Speicher irgendwann wirklich zu wenig ist, der hat in der Regel auch nicht soviel Geld in andere Komponenten gesteckt (CPU) und insbesondere den Monitor.

Es wurde hier schon beim Kauf meiner 1080 geheult dass die Karte zu wenig Speicher für uhd hat. Ich hab aber bis heute keinen bezahlbaren Monitor der uhd mit über 60hz liefert ganz zu schweigen von der Leistung die die Karte für uhd nicht bringen kann.

Im Zweifel wird man einem Zocker immer empfehlen: Auflösung etwas niedriger, dafür Hz/FPS 120 oder höher. Ein weicheres/glatteres Spielerlebnis ist immer besser als ein hochauflösenderes spiel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex
cypeak schrieb:
große hardware surveys (z.b. bei steam - welche übrigens schon aufgrund der reisigen datenmenge eine nicht zu vernachlässigende genauigkeit hat
Die Aussage, dass eine große Datenmenge schon allein deswegen genau ist, ist statistisch gesehn Stumpfsinn. Wenn man viel Blödsinn misst, macht das die Daten nicht besser, ganz im Gegenteil.
cypeak schrieb:
menschen die sich einen gamingrechner grundsätzlich nicht leisten können, kommen nicht vor
Oh doch, selbst mein 12 Jahre altes Thinkpad mit Intel 4500MHD Grafik ist erfasst worden, als Steam drauf installiert war. Steam fragt nicht nach, ob dieser Rechner überhaupt zum Spielen verwendet wird, oder ob das dein Zweit- oder Drittrechner ist, auf dem du Steam vielleicht nur drauf hast um mit Freunden zu chatten oder unterwegs in den Foren zu schreiben. Zumal die Erfassung auch mehr als fragwürdig ist, meine Gamingrechner wurden seit über 5 Jahren nicht mehr erfasst, obwohl Steam immer läuft, jeden Tag. Bei Steam sind so viele Notebooks drinnen mit HD-Display, die Aussagekraft für Gaming-PCs ist gleich null und noch weniger für Gaming PCs in Erste-Welt-Ländern, wo neue GPUs der 500€+ Preisklasse selbstverständlich einen höheren Martkanteil haben als global betrachtet.
cypeak schrieb:
aber gemessen an der masse der gpu's ist dieser markt vergleichsweise klein
Mal abgesehen davon, dass uns eine globale Betrachtung nichts bringt, da Reisbauern in Bangladesch, die auf einem 250€-Notebook Counter Strike spielen weder die Zielgruppe dieser Seite, noch von Nvidias und AMDs High-End-GPUs sind, übersiehts du noch etwas: den Altbestand. Steam erfasst jede Menge Altbestand (wie zB mein Thinkpad), davon lässt sich aber nicht auf Neukäufer und deren Anforderungen schließen. Dass der Typ, der noch mit Core 2 und zehn Jahre alter GPU erfasst wird (sofern das überhaupt sein Gamingsystem ist) kein Display oberhalb von FullHD hat, verwundert nicht, aber bei den Leuten, die halbwegs aktuelle Hardware einsetzen oder gar neu kaufen, schaut das halt ganz anders aus. Und das ist der Markt, um den es hier geht, an den Nvidia, AMD und Intel ihre GPUs und CPUs verkaufen wollen und wo auch mit Spielen der meiste Umsatz gemacht wird.

Schau dir die CB-HW-Umfrage an, die ist wesentlich relevanter für die Diskussion hier im CB-Forum und die Lage in Westeuropa. Da ist unterhalb FHD nichts mehr los und WQHD inzwischen die größte Gruppe (die 1% Abstand dürften in der Zwischenzeit locker überwunden sein), selbst 4k schon bei 13% und steigend. Das sind die Leute, die neue Hardware und AAA-Spiele kaufen, nicht die Leute mit einem HD-Ready-Notebook von 2012, die tummeln sich alle auf Steam herum.

Mein Tipp: druck dir die Steam-HW-Survey aus, zerreiß sie in kleine etwa handtellergroße Stücke und leg sie dir ins Badezimmer, die Klopapier-Panikkäufe dürften schon bald wieder los gehen, wenn man sich so die aktuellen Fallzahlen ansieht, und dann hast du wenigstens eine gute Verwendung dafür.
 
  • Gefällt mir
Reaktionen: sifusanders und bad_sign
xexex schrieb:
.... Was im Forum seitenweise durchdiskutiert wird, interessiert die meisten Käufer gar nicht...

Dein Wissen beruht auf alte Erfahrungen.
2020 berichtet aber auch die Gamestar.
Und Gamer sind 2020 mehr als damals in Foren unterwegs.
 
  • Gefällt mir
Reaktionen: Kodak und KlaraElfer
Gerade gelesen: NVIDIA Cancelt die 3080ger mit 20GB und die 3070ger mit 16 GB Speicher karten. Es wird keine 20Gb und 16GB karten geben ...na suuuper :freak: keine ausreichende markt abdeckung mit 3070 und 3080 und 3090...keine 20ger und 16ner versionen ? Kiregt NVIDIA irgendein scheiss dieses jahr noch gebacken ? :stock:
 
  • Gefällt mir
Reaktionen: Toprallog und DrFreaK666
Sun_set_1 schrieb:

Eigene Informationen,Gamers Nexus, Igors Lab, suchs dir aus.


Es gab nie wenige Karten, sondern eine extrem hohe Nachfrage, absolute Rekorde.
Das wird sich alles nach dem Radeon Launch einpendeln, denn Nvidia hat viele RTX 3070 produziert, deutlich mehr als vom großen Chip, das Lager ist voll, die Karten stehen bereit. RTX 3080 kommen kontinuierlich rein, allerdings dauert es noch ein wenig bis alle Bestellungen abgearbeitet sind. Mitte November dürften wieder welche bei Shops lagernd sein.

Die Leute, die mehr RAM wollen aber auf Raytracing und DLSS pfeifen, werden sich sowieso die Radeon kaufen.
Da sind auch einige Mengen auf dem Weg. Das werden so oder so, auch wenns nicht ganz reichen sollte, richtige Kassenschlager.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: foo_1337
DrFreaK666 schrieb:
Und Gamer sind 2020 mehr als damals in Foren unterwegs.

Das ist absoluter Unsinn. Zahlreiche Entwickler und Publisher betreiben gar keine Foren mehr und haben ihre Foren geschlossen (prominentestes Beispiel BioWare). Im Zeitalter von Social Media, Twitch, YouTube, Discord usw. etc. pp. sind Foren inzwischen nur noch etwas für die "letzten Mohikaner".
Ich bin selbst ein alter Sack, der mit Gaming-Foren aufgewachsen ist, aber ich bin mir auch vollkommen bewusst, dass der ganz überwiegende Teil der Spieler heutzutage mit Foren nicht viel am Hut hat. Da müsste man ja lesen (igitt wie langweilig ;) ).
Die Jugend konsumiert vorwiegend nur noch Clips, Streams, Tweets. Je kürzer, desto besser. In einem Forum rumgurken ist was für Ü40, also Scheintote.
 
  • Gefällt mir
Reaktionen: GHad
Lutscher schrieb:
Das hat irgendwie einen faden Beigeschmack, die 3080 soll eine 4k Karte sein und ohne DLSS besteht die Gefahr das ihr der Speicher zukünftig mal ausgehen könnte.
Das bestärkt mich dann doch mal wieder AMD zu kaufen.
Selbst wenn Big Navi nicht ganz so stark ist wie die 3080, nehme ich die 16GB Speicher gerne mit.
Wieso, Nvidia gehts doch gut, Du kaufst dann später die neue bessere Karte :D
 
  • Gefällt mir
Reaktionen: EyBananaJoe und Lutscher
.Sentinel. schrieb:
in wievielen % der Spiele die 10,2 Gigabyte nicht reichen, weswegen hier so viel Panik geschoben wird...

Das ist korrekt. Mir ging es eher um den Satz: "Mit DLSS rennt Nvidia allen davon".
 
  • Gefällt mir
Reaktionen: .Sentinel.
RogueSix schrieb:
Das ist absoluter Unsinn. Zahlreiche Entwickler und Publisher betreiben gar keine Foren mehr und haben ihre Foren geschlossen (prominentestes Beispiel BioWare). Im Zeitalter von Social Media, Twitch, YouTube, Discord usw. etc. pp. sind Foren inzwischen nur noch etwas für die "letzten Mohikaner".
Ich bin selbst ein alter Sack, der mit Gaming-Foren aufgewachsen ist, aber ich bin mir auch vollkommen bewusst, dass der ganz überwiegende Teil der Spieler heutzutage mit Foren nicht viel am Hut hat. Da müsste man ja lesen (igitt wie langweilig ;) ).
Die Jugend konsumiert vorwiegend nur noch Clips, Streams, Tweets. Je kürzer, desto besser. In einem Forum rumgurken ist was für Ü40, also Scheintote.

Na gut. Wenn man es so genau nimmt, dann hast du Recht.
Ich wollte sagen, dass Spieler sich öfter online informieren als früher.
Ich fühle mich noch nicht scheintot ;)
 
t3chn0 schrieb:
Ich komme mir langsam mit der 3090 echt einsam vor ^^. Jetzt warten alle ganz gespannt auf die AMD Karten (zu Recht).

Verkauf sie noch schnell, da kannste richtig Asche machen.
Nach dem AMD Launch ist sie nicht mehr so viel wert. :D

t3chn0 schrieb:
Ich frage mich nur folgendes. Hat hier niemand einen reinen Gsync Monitor ? oO

Hier, aber dank 240 Hertz wäre ne AMD Lösung nicht so schlimm, hab außerdem noch nen 4K Monitor.
t3chn0 schrieb:
Für mich ist AMD komplett raus, da ich einen Gsync Monitor habe. Scheinbar haben hier viele einen Freesync, oder Gsync compatible Monitor.

Wenn AMD für RT gar nichts taugen sollte, wird es bei mir wohl ne 3070 werden.
Inkl. DLSS sollte das laufen, Cyberpunk und COD möchte ich save auf max zocken.
Diese Cyberpunk exclusiv RT nur auf Nvidia Geschichte ist blöd, das durchkreuzt meine AMD Pläne.
 
KlaraElfer schrieb:
Diese Cyberpunk exclusiv RT nur auf Nvidia Geschichte ist blöd, das durchkreuzt meine AMD Pläne.
Das ist doch bloß ein Gerücht und noch dazu kein sonderlich glaubhaftes.
 
  • Gefällt mir
Reaktionen: bad_sign
Luxmanl525 schrieb:
... bin ja total deiner Meinung. Aber ich bin auch der Ansicht, daß Nvidia noch viel mehr Probleme bekommen würde, wenn sie jetzt wirklich die gleichen GPU`s der 3000er Reihe mit deutlich mehr Speicher nochmal Auflegen würden. Stell dir doch nur mal die Frage, wie du dich fühlen würdest "vor 3 Wochen eine nagelneue RTX 3080 erstanden" und dann 2 Monate später kommen die gleichen Dinger mit dem doppelten Speicher um die Ecke.

Ernsthaft, wie würdest du aus der Wäsche Schauen? Ich kann dir Sagen, wie ich mich fühlen würde, nämlich total verarscht. Was also ist das kleinere Übel? Vielleicht liegt das ja im Auge eines jeden Betrachters selbst. Jedenfalls, wie ich mir vorkommen würde in dem Fall, weißt du jetzt. Und ich denke, Nvidia hat das auch erkannt, daß das etwas zu krass wäre. Selbst für Nvidia.

Gut, aber die ganze Chose ist doch schon inoffiziell von den Boardpartnern (Lenovo und Gigabyte, wenn ich mich richtig erinnere und beide duerften als zuverlaessige Leak-Quellen gelten) vor Wochen kommuniziert worden, dass Doppelspeicher-RTX Ampere 3070 und 3080 Karten kommen werden und wer sich gut informiert hat, wird auch darueber hier oder auf anderen Seiten bzw. in anderen Foren gestolpert sein ;).

Der Schaden ist im Prinzip also schon angerichetet und es hat ja nVidia auch nicht die Spur bei RTX Turing gekratzt, wo man sich vergleichbares schon geleistet hat.

Wie nVidia deren RTX 2060 Kaeufer von der anfaenglichen, gross von CEO Huang als Preis-Leistungshit beworbenes Vanilla-Modell (mit nur, von vielen - mich eingeschlossen - bemaengelten 6GB Speicher) zu dem urploetzlich veroeffentlichten RTX 2060 "Super"-Refresh mit einem Speicherupgrade auf 8GB komplett durch den Kakao gezogen haben (bei den anderen "Super"-Turing-Modellen gab es eben kein Speicher-Upgrade) hat nVidia doch auch nicht gekratzt und geschadet auf Ihrem hohem Ross.

Die verkackeierte Kundschaft hat auch nicht aufgemuckt (wohl auch, weil es peinlich gewesen waere das zu zu geben, dass man von nVidia nach Strich und Faden (wieder einmal?) verarscht worden ist).

Daher habe ich auch kein Problem damit, wenn nVidia fuer Ihre Arroganz und diese widerliche Art von Produkt- und Kundenpolitik auch ungebremst auf die Schnauze fallen wuerden, aber das wird vermutlich nicht passieren, wie oben kurz angeschnitten, und ich bin da ganz bei @DJKno , viele bleiben lernresistent und kaufen trotzdem wieder nVidia GPUs aus welchen Gruenden auch immer.

Lassen wir uns ueberraschen, ich glaube dem Laden/der Unternehmensfuehrung dort aktuell kaum noch etwas nach dem was da in den letzten Wochen alles so abgelaufen ist (gut, ich wusste vorher schon, dass Huang bei seinen Praesentationen vorsaetzlich schwindelt, denn das ist ja ziemlich offensichtlich, aber das war m.E. auch (meist) nicht speziell darauf angelegt Kunden bewusst zu schaden/taeuschen bzw. durch den Kakao zu ziehen und wer weiss, was die graue Eminenz in Lederjacke da insgeheim aktuell verzapft ... das hat fast schon kriminelle Zuege, auch was damals mit den Minern abgelaufen ist und wofuer nVidia verklagt wurde).

Eine RTX 3070 mit 16GB haette ich mir noch vorstellen koennen zu kaufen, der Rest des unrunden RTX Ampere Portfolios interessiert mich nicht mehr die Bohne und auch der Vorwurf der kuenstlichen/bewussten Marktpreismanipulation, um mit Verknappung mehr Gewinne zu generieren, ist von nVidia noch nicht entkraeftet/widerlegt worden.

Es ist im Vergleich zu AMD(/RTG) und Intel schon fast erschreckend, wie viel Narrenfreiheit oder Blankoscheck/"Get out of Jail Free Card"-Mentalitaet nVidia immer noch geniesst von vielen Nutzern und den meisten Medienvertretern (die trotz all der Defizite immer noch munter die Produkte und Praktiken dieses Ladens gutheissen), egal was die Unternehmensfuehrung sich dort leistet, und damit durchkommt, wohingegen die erst genannten vergleichsweise in grossem Rahmen angeprangert werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kodak, EyBananaJoe und haha
xpac schrieb:
Macht komplett sinn. ...
Dann brauch aber kein CEO mehr über den erfolgreichsten Launch aller Zeiten zu sprechen, dann war das die größte Sch...
 
kaka11 schrieb:
Es würde natürlich die 3090 stark kannibalisieren, zudem würde die Langlebigkeit der 3080 extrem verbessert.
totales Mythos meines Erachtens. bestes Beispiel wäre Crysis. läuft bis heute nicht.
Spiele und Hardware gehen Hand in Hand. Es wird für jetzige Hardware geschrieben, plus fünf Jahre. mehr nicht.
 
Capthowdy schrieb:
Das ist doch bloß ein Gerücht und noch dazu kein sonderlich glaubhaftes.
Jep, als ob kein RT für die XSeX kommen würde, die 1:1 RDNA2 + Zen2 in DX12 Ultimate programmiert wird xD
 
  • Gefällt mir
Reaktionen: Obvision, Capthowdy und Mitesser
Zurück
Oben