News GeForce RTX 3090: Nvidia entschuldigt schon im Vorfeld die geringe Stückzahl

Die 10 - 15% Mehrleistungsangabe, soll den Leuten bestimmt nur vermitteln von wegen "Hey die Karte ist in 4k und lower nicht besonders schneller als die 3080, Leute seid nicht traurig, wenn ihr für den Preis keine bekommt"
So entnehme ich dieses Statement ^^
 
Laphonso schrieb:
Sie hat ja nicht mal mehr Speicher als die zwei Jahre alte RTX Titan. Und weniger nvlink Interfaces. Das ist doch kein Nachfolger lol.
Sie ist knapp doppelt so schnell, manchmal sogar 4 Fach. Außerdem sagt der vram nicht aus ob es ein Nachfolger ist oder nicht 🤦‍♂️
Es macht sie dann zur titan Nachfolger wenn auch cax Anwendungen beschleunigt werden. Weil es dann keine klicki bunte spiele Karte mehr ist.
 
Xes schrieb:
Bis vor kurzem hätte ich dir noch wiedersprochen aber scheinbar hast du recht:
https://www.golem.de/news/nvidia-ampere-geforce-rtx-3080-mit-20-gbyte-zeigt-sich-2009-151076.html
Hier ist die 3070 definitiv unter der 2080Ti eingetragen.
Vermutlich wird der "PG142 SKU 0" dann die RTX 3070 Ti/Super mit 16GB sein, welche Lenovo geleakt hatte.

Hoffentlich kommt die dann halbwegs zeitnah. Für ein Upgrade hätte ich gerne mindestens die doppelte Leistung meiner bisherigen Vega 64 und mehr Speicher wäre auch nicht schlecht.

Ich spreche aus eigener Erfahrung. Die 3080 ist bei mir im realen Einsatz oft nur 15% schneller als es meine Ti war.

Und so dicht wird eine 3070 nicht an einer 3080 liegen, als das sie schneller als eine Custom Ti sein könnte.
 
Herdware schrieb:
Aber diese Unterscheidung ist bei spätern Titan (X?) dann weggefallen, wenn ich mich nicht irre.

Genau, bei Maxwell und Pascal gab es auch im Vollasubau des 102er Chips nur eingeschränkte FP64 Leistung. Dadurch wurden die Unterschiede zwischen den xx80Ti-Modellen und den Titans immer geringer. Bei Maxwell gab es noch doppelten VRAM und ein paar ALUs mehr, bei Pascal nur noch 1GB mehr VRAM und dadurch geringfügig mehr Bandbreite.

Die Titan V war afaik die einzige Titan, die wirklich nochmal exklusive Hardwarefeatures bot. Da Volta niemals als Consumerchip veröffentlicht wurde, gab es aber auch keine vergleichbare Gamerkarte.
 
  • Gefällt mir
Reaktionen: Tawheed und Herdware
tstorm schrieb:
Ich spreche aus eigener Erfahrung. Die 3080 ist bei mir im realen Einsatz oft nur 15% schneller als es meine Ti war.

Und so dicht wird eine 3070 nicht an einer 3080 liegen, als das sie schneller als eine Custom Ti sein könnte.
OC ist ja bei der 3080 nicht drin und CB hatte ja eine 2080Ti OC schon im Launch Review.
 
wenn amd sauber an der CU skalierung, IPC und am takt gearbeitet hat, verarbeitet sienna chiclid die 3090 zu fischfutter.

amd war seit 2013 nicht mehr so knapp dran nvidias flaggschiff zu versenken. und mit einer besseren effizienz mit mehr performance ist das schon über ein jahrzehnt her.

enorm spannender herbst.
 
  • Gefällt mir
Reaktionen: Senku
Hektor26 schrieb:
Also laut cpuuserbench ist die 3080 tatsächlich nur 7% vor der 2080ti finde ich schon Mager muss ich sagen
UserBenchmark ist schon länger mehr Satire als eine seriöse Seite ^^

Auch schön, wie in der "Conclusion" zur 3080 direkt erst mal direkt die Performancesteigerung noch höher gelobt wird^^
Given the widespread issues AMD users are facing with 5000 series GPUs (blue/black screens etc.), it is unlikely that AMD would have posed any direct threat to Nvidia’s market share this year.

Sehr neutral das ganze, AMD wird eh nichts mehr bringen dieses Jahr, also dankt alle Nvidia, dass sie trotzdem so gute Karten gebracht haben^^
 
  • Gefällt mir
Reaktionen: yummycandy
[Spekulation]
Was ich mir ja denke ist, dass NV zu Samsung mit ihrem 8nm-Prozess gegangen ist, weil TSMC wohl mittlerweile einfach "marktgerechte" Preise für Produktions-Slots verlangt... und NV einfach zu "geizig" bzw. zu gewinnorientiert ist um dies zu bezahlen (nach dem Motto "mehr Gewinn-Marge für mich alleine... die Deppen kaufen es ja eh...")
[/Spekulation]
 
Taxxor schrieb:
Der Effizienzsprung für RDNA2 kommt nun zum Großteil aus der Architektur, während sich bei Ampere da so gut wie nichts getan hat und die mageren 10% an besserer Effizienz allein vom Prozess kommen.
Das ist ja ein nicht gültiger Schluss. Die 3800 ist nicht effizienter. Das muss ja nicht für die Architektur gelten. An die Kotzgrenze getaktet, ist sie beste Architektur nicht mehr effizient.
 
lul was ein Launch heuer ey, die Lederjacke gehört mal ordentlich abgerieben
Da hätten se die 3070 (3080) gleich auch mit nennen können in deren "Entschuldigung" als ob das da besser aussieht, triff ja generell auf alle Karten zu.
Ich wünsch den F5 Drückern schon mal viel Spaß, würde aber Raten sich das gleich gar nicht mehr anzutun ;)
 
bensen schrieb:
Das ist ja ein nicht gültiger Schluss. Die 3800 ist nicht effizienter. Das muss ja nicht für die Architektur gelten. An die Kotzgrenze getaktet, ist sie beste Architektur nicht mehr effizient.
Sie ist effizienter, um 10% selbst an der Kotzgrenze.
Auf 270W limitiert ist sie sogar 25% effizienter und da dürfte auch der Sweetspot liegen.

Aber jetzt nimm dir den Unterschied von 12nm auf 8nm und überlege, wie viel von diesen 25% noch von der Architektur kommen können.
 
Mhh,wieviele RTX 3090 die Tage wieder bei Ebay zu sehen sind..Und dann zu Preisen,wo man nur noch sich an den Kopf fassen kann.!!!🤔
Und AMD,mal abwarten,was da kommt!!Neue AMD Karte,soll ja was mit 375 Watt haben,,WENN es stimmt!!
 
Nvidia Shop ist jetzt schon lahmarschig beim refreshen :D Das wird ein Spaß
 
  • Gefällt mir
Reaktionen: Sly123 und Tornhoof
@duskstalker ja, viele hier hoffen, dass AMD ein richtig geiles Teil bringt! Trete n Aber bitte keinen falschen Hype-Train los ;)
@menzer45 entweder gibst du bitte eine glaubwürdige Quelle an oder lässt solche Behauptungen bleiben!
 
  • Gefällt mir
Reaktionen: kennbo82
Taron schrieb:
hm, irgendwie doch nicht verkehrt dass sich die Prioritäten gewandelt haben". Mein Motto mittlerweile: Je länger ich mit Aufrüstung warte, desto billiger kommt mich ein massiver Leistungssprung, sowohl in Sachen CPU als auch GPU.
Wie lustig ist das bitte?
Wenn noch etwas länger wartest dann kannst dir auch kostenlos beim Sperrmüll aufsammeln. Da kannst ja 100% sparen:D. Aber was bringt dir das? Ja du kannst kostenlose uralte games von epic spielen und hopla nochmal gespart :D
 
  • Gefällt mir
Reaktionen: Col.Maybourne
Herdware schrieb:
(Mein Gaming-PC hat tatsächlich 32GB, aber das ist ein anderes Thema. 😉 )

Mittlerweile auch verständlich, aber nicht zu der Zeit, wo es noch kein Sinn ergeben hat und 16Gb ausreichten.
Damit meine ich Ende DDR2 Ära und Anfang DDR3 Ära. Ich fahre mittlerweile auch mit 32GB RAM.

Herdware schrieb:
Stimmt, aber wie geschrieben wird bei Grafikkarten das VRAM in der Regel in 2x-Schritten vergrößert, weil sich das aus der Bandbreite des Speicherinterface und anderen Abhängigkeiten in der GPU ergibt.


Nunja, die Karten wurden schon immer grenzwertig und zu knapp gebaut, obwohl mehr machbar gewesen wäre.
Oft reichten sie grade so für 1-2 Jahre und man war froh das eine neue Generation folgte.
Ich kann mich noch an Zeiten erinnern, da hatte ich das Gefühl bereits nach einem 1/2 was neues zu benötigen.

Ich glaube das Problem liegt ganz woanders.

Damals war die XX80 Reihe das Flagschiff und erst später folgten Karten wie XX90 usw....
Die Zeiten haben sich geändert, mehr vRam macht durch wachsende Monitore jetzt durchaus mehr Sinn als damals.

Um eine Karte wie eine 3090 nun für über 1000€ verkaufen zu können, reicht mehr vRam (24GB) der nicht wirklich benötigt wird und nur knapp 10-15% mehr Leistung gegenüber einer 3080 FE, bei Kunden die was anderes von einer XX90 gewöhnt sind nunmal nicht mehr aus.

Verständlich!

Hier steckt NV mit seiner 3090 in einem Dilemma und man merkt wie unpässlich die 3090 jetzt in der aktuellen Nomenklatur wird.

Hier kann sich NV nur mit einer starken Preissenkung gegenüber der XX90 Reihe aus der Patsche helfen oder sie verfolgen weiter ihren Kurs die vRam stück für stück anzuheben, das wird aber mit wachsenden Datenpaketen nicht wirklich lange gut gehen.



Herdware schrieb:
(Sowas hat es z.B. bei der GTX970 auch schon gegeben, aber für ein High-End-Modell mit Titan-Ambitionen wäre so ein Kompromiss wohl nicht akzeptabel.)

Ja ist mir bekannt, ich war so ein Opfer mit 3,5GB statt 4GB.


Herdware schrieb:
Wobei die 24GB bei professioneller Nutzung in jedem Fall sehr nützlich sind.

Dafür nutzt man andere Karten.

Wobei man hier aber auch nur von mehr Zeit sprechen kann, die man für´s verarbeiten von Daten in Kauf nehmen muss.

In Spielen mit zu wenig vRam muss man hingegen mit Rucklern rechnen.


Ist dir was von einer 3090 Titan bekannt oder soll die 3090 die neue Titan ersetzen?
 
Herdware schrieb:
Ohne Glaskugel ist es schwer vorauszusagen, ob 12GB für Spiele auf einer 3090 für die nächsten Jahre in jedem Fall ausgereicht hätten. Wenn ich mir den Trend der letzten Jahre anschaue, kann man da Zweifel haben.

Naja also wenn wir uns anschauen das die "alten" Konsolen 8GB Vram haben und aktuell die meisten Spiele auch nur 8 GB Vram brauchen dann ist das sehr schlecht.
Denn die neuen Konsolen haben 16GB Vram.
Das bedeutet wenn es in Zukunft so weitergeht wie es bis jetzt gelaufen ist muss alles mit weniger als 16 GB Vram vor dem Ende der jetzt kommenden Konsolen nochmal geupgradet werden.
Wobei sich da die frage stellt ob die GPU Power einer 3080 noch ausreichend ist wenn die PS5 abgelöst wird.

Taxxor schrieb:
Nvidias späterer Super Refresh von Ampere soll ja wohl auch bei TSMC gefertigt werden, der Grund warum die aktuellen Gaming Amperes in 8nm kommen ist schlicht, dass TSMC keine Kapatizäten für Nvidia frei hatte.
War der Grund wieso TSMC nix frei hatte nicht der das Nvidia die Idee hatte TSMC gegen Samsung auszuspielen um die preise zu drücken und TSMC da einfach gesagt hat gut dann geben wir die Kapazität einfach an AMD.
Oder habe ich das jetzt falsch im Kopf?
 
Syrato schrieb:
Trete n Aber bitte keinen falschen Hype-Train los
Sag das mal Jensen! :p

Wieviel Sekunden wettet ihr?
 
Senku schrieb:
War der Grund wieso TSMC nix frei hatte nicht der das Nvidia die Idee hatte TSMC gegen Samsung auszuspielen um die preise zu drücken und TSMC da einfach gesagt hat gut dann geben wir die Kapazität einfach an AMD.
Oder habe ich das jetzt falsch im Kopf?
Das werden nur Nvidia und TSMC wissen, aber es bleibt dabei, dass sie nichts mehr frei hatten^^
 
Zurück
Oben