News GeForce RTX 3080 und 3070: Nvidia kontert Navi 21 vorerst nicht mit mehr Speicher

KlaraElfer schrieb:
Was absoluter Unsinn ist, ist weiß nicht wie oft man es noch sagen soll, aber es gab nie wenige RTX 3080 Karten es gab sogar mehr Karten als zu Turing Launch

Quelle?
 
  • Gefällt mir
Reaktionen: Kodak, Laphonso, Obvision und 2 andere
KlaraElfer schrieb:
Was absoluter Unsinn ist, ist weiß nicht wie oft man es noch sagen soll, aber es gab nie wenige RTX 3080 Karten es gab sogar mehr Karten als zu Turing Launch und natürlich ließen sich da Karten mit den doppelten Speicherausbau bringen, gerade die 3070 mit 16GB wäre überhaupt kein Problem und selbst wenn die Stückzahl einer 3080 20GB ein wenig geringer wäre, zählt alleine dass es die Karte gibt, schon viel.

Wenn man pessimistisch ist, dann könnte man sagen, die Radeon Karten werden wohl schlechter als erwartet.
Ich habe eigentlich das Gegenteil gehört und deswegen auch meine Nvidiakarten vekauft.:(

Das widerspricht aber allen Zahlen die man so findet (siehe Caseking und Proshop Zahlen).
Man will doch den Hype mitnehmen und verkaufen, das geht aktuell nicht da nirgendwo verfügbar. Marketingtechnisch ist das ganze auch nicht das gelbe vom Ei...
 
  • Gefällt mir
Reaktionen: Laphonso
Tramizu schrieb:
Die 3070 hat eh nur den GDDR6 (ohne X)
Richtig. Aber wenn es keine 3080 mit 20 GB geben kann aufgrund der schlechten GDDR6X ausbeute, wäre eine 3070 mit 16 GB auch komisch. Und dem Käufer schwer vermittelbar. Die 3070/16GB würde teilweise die 3080/10GB kannibalisieren. Wäre nicht im Interesse von NV.
 
.Sentinel. schrieb:
Interessant. Über 10.000 Punkte im Firestrike Ultra für die 21 XT.
Das wäre Gleichstand zur 3080.
Und die XTX könnte knapp an der 3090 kratzen.

Das wäre ja mal was!

ne vega 56 hat in firestrike auch mehr Punkte als ne 1080 gebracht, war trotzdem idr langsamer
 
  • Gefällt mir
Reaktionen: Toprallog und .Sentinel.
KlaraElfer schrieb:
Ich denke, dass sich DLSS durchsetzen wird und in so ziemlich allen relevanten AAA Produktionen mit TAA einzug halten wird und dann hoffentlich von einem offenen Ansatz ergänzt oder abgelöst wird.

Glaube ich nicht und ja du brauchst Tensor-Cores und dass viel frisst Chipfläche und wie gesagt unter Linux geht es nicht auf den Konsolen auch nicht nicht mal auf der (Switch4K) und und.

Alles was kein Open Standard ist Müll siehe Lizenz Gebühren bei einer GPU machen fast 30% des Preises aus klasse.
 
  • Gefällt mir
Reaktionen: Inxession und DrFreaK666
Taxxor schrieb:
Eine 5700XT liegt mit den real anliegenden Taktraten bei ca 9,5 TFLOPs, eine RDNA2 Karte mit den gleichen TFLOPs wäre schon mal mindestens 10% schneller.
Wie kann eine Karte mit gleichen TFLOPs 10% schneller sein? :D
Wolltest bestimmt mit gleichem Takt schreiben?
 
Lisa Su pusht Nvidia ins Chaos. Wie Intel, die nun Wahnsinnig geworden sind.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich komme mir langsam mit der 3090 echt einsam vor ^^. Jetzt warten alle ganz gespannt auf die AMD Karten (zu Recht).

Jetzt verlagert sich der 3080 Bedarf (dank Nvidias Desaster-Politik) nahezu komplett auf die RX6er Karten. Ich vermute dass ähnliches passieren wird, wie auch bei den 3080ern. Die Nachfrage übersteigt das Angebot bei weitem.

Vermutlich wird es jedoch nicht so lächerlich desaströs wie bei Nvidia.

Ich frage mich nur folgendes. Hat hier niemand einen reinen Gsync Monitor ? oO

Für mich ist AMD komplett raus, da ich einen Gsync Monitor habe. Scheinbar haben hier viele einen Freesync, oder Gsync compatible Monitor.
 
Bierliebhaber schrieb:
Sehe ich eher umgekehrt. Die, denen der VRAM egal sein kann, sind eher die Nische. Für Leute, die eh jede Generation aufrüsten, für die es also ein Luxusproblem wäre, mögen 10GB genug sein, aber ich habe auch meine 290X jetzt über 6 Jahren drin und will auch mit meiner nächsten Karte wieder mehrere Jahre überbrücken, wie die Masse der Kunden, die ihre Karte auch wesentlich länger als nur eine Generation nutzen will. Da ich nicht über 24", also 1080p, nutze dürfte die GPU-Power dafür genau wie bei Hawaii reichen, und wenn ich in 5 Jahren dank 16GB VRAM noch die maximalen Texturen nutzen oder Mods installieren kann, ohne Performance zu verlieren, dann freue ich mich, dass ich nicht zur Konkurrenz mit 8GB gegriffen habe... ich habe es absolut nicht bereut, damals eine Karte mit der für Gamingkarten maximal möglichen Menge an VRAM zu kaufen.
Natürlich alles nicht um jeden Preis, aber wenn es ähnliche Performance bei ähnlicher Effizienz zu einem ähnlichen Preis gibt schlage ich klar bei der Karte zu, die mehr VRAM hat.

Schaut man sich nur mal die Steam HW-Surveys an, ist 4k Gaming eine Nische. Das wird sich auch mit der kommenden/aktuellen GPU Generation nicht großartig ändern, da 4k Monitore weiterhin noch recht teuer sind. WQHD wird seinen Zenit erreichen. Bei 1080p möchte ich auch bezweifeln, dass man bei JEDEM Spiel signifikante Unterschiede zwischen sehr hohen und ultra Grafiksettings ausmachen kann. Weiterhin reizen nicht alle Spiele 8GB VRAM aus. Das wird sich von heute auf morgen auch nicht ändern. Außerdem behaupte ich, dass den meisten Spielern mehr FPS wichtiger sind, als den gfx Regler bis zum Anschlag einzustellen, für nur marginale Unterschiede. Der Aufpreis dafür spricht ebenfalls gegen die Massentauglichkeit. Das sind nur einige wenige Gründe, weshalb es es ein Nischenproblem bleibt.
 
  • Gefällt mir
Reaktionen: EyBananaJoe und Porky Pig
GINAC schrieb:
Wie kann eine Karte mit gleichen TFLOPs 10% schneller sein? :D
Wolltest bestimmt mit gleichem Takt schreiben?
Die TFLOPs errechnen sich aus Takt und Anzahl der Shader.
RDNA2 bringt eine höhere IPC, also mehr Performance bei gleichem Takt, daher wird sie bei gleicher Shaderzahl und gleichem Takt ( = gleiche TFLOPs) schneller sein.

Und während man bei gleichem Takt mit der IPC die Performance steigern kann, kann an auch noch eine bessere Auslastung der Shader erreichenm, wodurch sich hier die Performance bei gleicher Shaderzahl auch noch mal erhöhen kann.

Beides zusammengenommen sieht man beim vergleich RX 5700XT vs Vega64. Die Vega hat 12,5TFLOPs und ist langsamer als die 5700XT mit 9,5.
 
  • Gefällt mir
Reaktionen: Obvision, cruse und GINAC
t3chn0 schrieb:
Ich frage mich nur folgendes. Hat hier niemand einen reinen Gsync Monitor ? oO

G-Sync Monitore hatten nie den reißenden Absatz den sich nVidia gewünscht hat. Die Teile waren einfach von anfang an zu teuer. Mittlerweile werben immer mehr Hersteller mit FreeSync und erwähnen beiläufig die G-Sync Kompatibilität.

Da fährt man günstiger und hat mehr Auswahl.
 
  • Gefällt mir
Reaktionen: Kodak, Inxession und Marc53844
Taxxor schrieb:
RDNA2 TFLOPs sind nicht gleich RDNA1 TFLOPs.

Nein, nein, und nochmals nein. TFLOPs sind sehr wohl vergleichbar. Wie der Name sagt geben sie nur an wie viele Floating Point Operations pro Sekunde verarbeitet werden koennen. Und ja, das ist absolut vergleichbar: RDNA1 vs RDNA2 vs Ampere vs Turing.

Was du, wahrscheinlich, meinst ist die Grafik-/Rasterleistung die sich daraus generiert. Die ist aber von noch einigem mehr abhaengig.
 
Mcr-King schrieb:
klar für 10-16% mehr Leistung ein Strommonster zum völlig überteuerten Preis kaufen, mähm nee dann lieber warten. ;)
Ergänzung ()

gab es nicht eine News zu AMD von wegen errechneten 355 Watt Verbrauch und so?

Die Preise sind schon bekannt zu den AMD Karten? Auch die der dicken Custom-Versionen? + der Verbrauch der OC Modelle?

sorry... bin bei AMD nicht auf dem aktuellen Stand.
 
t3chn0 schrieb:
Ich frage mich nur folgendes. Hat hier niemand einen reinen Gsync Monitor ? oO

Hier wink, gleich zwei. Schimpft mich Fanboy (kann sogar sein) aber ich werde bei Nvidia blieben. Die 3070 8G ist schon recht sparsam bestückt was den Speicher angeht aber für 1440p wird das schon langen. Es geht ja nicht nur um die Menge des Speichers sondern auch darum wie schnell dieser läuft und befüllt wird.
 
Kacha schrieb:
Was du, wahrscheinlich, meinst ist die Grafik-/Rasterleistung die sich daraus generiert. Die ist aber von noch einigem mehr abhaengig.
Genau das meine ich, und eben da sie von einigem mehr abhängig ist, kann man die Gaming Performance nicht rein aus den TFLOP Angaben ableiten.
Daher sind sie für mich hier eben nicht vergleichbar und mehr als die TFLOP Angaben bekommt der User ja idR nicht und daraus daraus leitet er sich dann die Performance ab.


Dazu aber auch mal ne grundsätzliche Frage von mir, vielleicht kann das ja jemand gut erklären^^

Wenn die TFLOPs die FP Berechnungen pro Sekunde darstellen, warum ist die IPC hier eigentlich nicht enthalten?
Wenn ich 1GHz bei 1000 Shadern habe, dann habe ich 2 TFLOPs, also zwei Billionen FP Berechnungen pro Sekunde.

Bleibe ich jetzt bei 1GHz und erhöhe die IPC um 20%, müsste das doch bedeuten, dass ich Pro Takt Zyklus nun 20% mehr Operationen durchführen kann, warum erhöhen sich dadurch denn nicht die FP Berechnungen pro Sekunde?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Blumentopf1989 schrieb:
Hier wink, gleich zwei. Schimpft mich Fanboy (kann sogar sein) aber ich werde bei Nvidia blieben. Die 3070 8G ist schon recht sparsam bestückt was den Speicher angeht aber für 1440p

Glaube ich nicht da Entwickler gerne mehr Verbrauchen da sie auch schlampig Programmieren was siehe MS FS2020 und Crysis Remasterd und Anno 1800 und und.
 
vielleicht wäre es auch dadurch erklärbar, dass man die bisherigen Modelle erstmal in ordentlichen Mengen produzieren will bzw. das Launch-Aufkommen abarbeiten (lassen) muss.
man kanibalisiert sich ja sonst selbst den Speicher weg, wo doch weltweit schon Kunden auf die bisherige Speicherbestückungen warten.
 
  • Gefällt mir
Reaktionen: Mcr-King
Für mich ist das ein Grund mehr auf die AMD Karten zu warten. Mal unabhängig der Verfügbarkeit ist mir die 3090 definitiv zu teuer. Und weniger Speicher als bei meiner aktuellen 1080 Ti will ich nicht haben - schon alleine weil ich in 4k spiele - und letztlich auch aus Prinzip.
Mal abwarten was am 28.10 gezeigt wird.
 
  • Gefällt mir
Reaktionen: EyBananaJoe, Knatschsack und Mcr-King
Das waere interessant bzw. ein ziemlicher Daempfer fuer nVidia, wenn diese Geruechte sich denn bewahrheiten sollten.

Noch bin ich da eher skeptisch, aber wenn man bei nVidia glaubt auch so produkttechnisch gut genug da zu stehen oder vielleicht glaubt man die anvisierten Doppelspeicher-GPU-Preise nicht erfolgreich platzieren zu koennen (es ginge entweder zu sehr auf die eigene Gewinnmarge oder die Einsteigspreise waeren evt. zu hoch angesetzt im Vergleich zu den AMD/RTG Pendants), wer weiss?

Das waere - wenn es denn so kaeme - wieder ein Fingerzeig, wie wenig durchdacht RTX Ampere bzw. dessen Marktstart bei nVidia geplant worden ist (die zweite Terminverschiebung nach dem verplanten urspruenglichen Marktstartdatum der RTX 3070 in kurzer Zeit), extrem untypisch fuer nVidia :o:watt:.

Wurde man bei nVidia von AMDs/RTGs Taktik gefoppt (soll heissen, dass AMD/RTG momentan das Katze (nVidia) und Maus (AMD/RTG) Spiele bei den Grafikkarten gewinnen koennte und man aufgrund von Insiderinfos ueber AMDs/RTGs Produkte jett vorlaeufig einen Rueckzieher macht)?

Spekulieren kann man ueber die tatsaechlichen Hintergruende solch einer moeglichen Aktion seitens nVidia schon, aber was im Endeffekt dahinter steckt, wird man vermutlich nicht erfahren koennen.

nVidia mit RTX Ampere unter Druck bzw. kalt erwischt (von AMD/RTG) (?) ... denkbar waere es ;).

Ich glaube das Spekulatius-Szenario einer schon einer 2021 schnell von nVidia nachgeschobenen, verbesserten RTX 4000 Ampere GPU-Generation (aehnlich wie zu Kepler Zeiten oder eher noch der "Super"-Refresh bei RTX Turing) ist gar nicht einmal so unwahrscheinlich mittlerweile, das koennte ein erster Indikator dafuer (dass RTX Ampere/3000 mehr als gedacht in die Hose gegangen ist bzw. die gesteckten Erwartungen nicht erfuellen kann im Vergleich zu AMDs/RTGs RDNA2 Grafikkarten) sein.

Es gibt jedenfalls schon erste YouTuber, die spekulieren, dass (neben dem von VCZ kolportierten Engpass von GDDR6X) nVidia wohl eine RTX 3070 mit 16GB zurueck ziehen koennte, weil sonst weniger Leute eine gewinnmargen-traechtigere durch knappe Kontingente massiv verteuerte RTX 3080 mit nur 10 GB kaufen wuerden (die es aber eh nur in homoeopathischen Dosen gibt):

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Knatschsack und Mcr-King
Zurück
Oben