Test Nvidia GeForce RTX 3090 im Test: Die größte GeForce für eine kleine Zielgruppe

@Jan
"...und offensichtlich näher an einem Sweet Sport takten."
@Topic
Ich hoffe ihr könnt bald Deep Learning Benchmarks nachreichen und nehmt sie in die GPU Tests mit auf.
 
Für 9 - 15% mehr Leistung sind 800€ mehr ein heftiger Aufpreis.
Echtes 8k-Gaming ist auch nur teilweise möglich, anders als Huang es versprochen hatte.

Unterm Strich ist das eine GPU für Kunden die keine Geldsorgen haben.
Da selbst 50% der deutschen Bevölkerung kein oder nur wenig Vermögen besitzt, und sich noch nicht einmal eine Ausgabe von 300€ leisten können, ist hier die mögliche Zielgruppe sehr klein.

Hier ist die 3080 die deutlich bessere Wahl.
Aber auch hier sind 50% der deutschen Bevölkerung erst einmal raus, weil sie sich so eine Ausgabe nicht leisten können. Da wird dann eher die 3060 interessant, oder eine der neuen Konsolen.
 
  • Gefällt mir
Reaktionen: MurphysLaw und monitorhero
menzer45 schrieb:
Jawohl Wette gewonnen... Die ersten RTX 3090 Karten,sind in Ebay zu finden!!

Billigste 1690,00 Euro Startpreis!!!
... wahrscheinlich bei einer Quote von 1:1,0001!
 
v_ossi schrieb:
Aber... Aber... Nvidia verdient doch Geld an deiner 3080...

Ernsthaft, wie die Leute hier teilweise Nvidia das Geld geradezu an den Kopf werfen, finde ich fast schon etwas bedenklich.

Aber hey, leben und leben lassen.

Psst,die werden sich ärgern wenn AMD paar tolle Karten raushauen,wo vielleicht ncoh 3 Gratisspiele dabei sind!!
 
  • Gefällt mir
Reaktionen: miro98 und Alpha.Male
Danke für den Test
Zeichnete sich ja schon ab ....das der Sprung nicht viel bringt aber viel kostet.

Für mich ist es ganz klar...warten auf die 3080 20 GB und alles past , da ich von einer GTX1080 auf eine RTX3080 gehe ist das immer noch ein huiiiiiiiiiii Effekt :D
Und um die 1000 euro waren für die Gpu sowiso geplant.
 
  • Gefällt mir
Reaktionen: JohnnyTexas
Hätte eine AMD Karte so ein Ergebnis abgeliefert, wäre die Überschrift ganz anders ausgefallen:
"AMD's Flagschiff ist ein zu teurer Hitzkopf und bringt kaum mehr Performance"
 
  • Gefällt mir
Reaktionen: GUN2504, miro98, konkretor und 8 andere
Warum macht ihr denn keine FullHD Tests mit der Karte?
Selbst die 3090 schafft es in einigen Titeln im Testparkour ja nichtmal 60 FPS @ 4K.
Verstehe ich irgendwie nicht.
 
  • Gefällt mir
Reaktionen: aivazi
Bright0001 schrieb:
Vorschlag für die Foren-Software: Der Kommentarbereich solcher Tests sollte immer erstmal für 15 Minuten geschlossen bleiben, damit die Leute das Ding auch tatsächlich lesen. 7 Kommentare in der ersten Minute nach Freischaltung: Hauptsache irgendeine Grütze reinschreiben, damit man ja auf der ersten ersten Seite landet.

leider finde ich die quelle nicht mehr, aber es gab mal ein projekt, dass zum ziel hatte, dass man vor dem posten ein paar fragen zum artikel beantworten musste. damit wollte man sicherstellen, dass die leute den artikel auch richtig gelesen (und verstanden) haben, bevor im forum gespamt wird. fand ich nicht die schlechteste idee... :)
 
  • Gefällt mir
Reaktionen: ragan62, Bright0001 und Capet
Wird ohne Anti Aliasing auch so viel Vram bei 3840x2160 mit 3080 verbraucht ???
Ich habe grade 2000 Euro für Auto Reparatur ausgegeben und habe nur mit 200 Euro für Keilriemen gerechnet :D
 
Zuletzt bearbeitet:
Man sagt ja die letzten 10% sind immer am teuersten erkauft - egal wo . So auch hier , ob man diese 10 % brauch darf jeder für sich selbst entscheiden.

Und das Schlimme ist man kann die Karte kaum untervolten- ach was war die Vega 56 Pulse doch gut 150 Mhz mehr HBM Takt und 200-300 Mhz mehr GPU takt und auf 970mV P7 (160Watt )untervolten .
Und fast jeder verteufelt die Vega -für mich eine der besten Karten wenn man Hand anlegt .

Aber nun arbeitet Nvidia mit der AMD Vega Spannungskelle :)
 
  • Gefällt mir
Reaktionen: Fighter1993
naja keine Überraschung die Karte... dass das Topmodell sich im Preis absetzt war schon immer so...

allerdings nach wie vor unverständlich warum nvidia die 3080 so hoch gezüchtet hat auf Kosten der Effizienz... normal lässt man sich da gerne ein wenig Spielraum falls man kontern muss... hoffen wir mal das AMD da der Grund war :)...
 
Oneplusfan schrieb:
Es gibt weder eine schnellere Karte, die günstiger oder gleich teuer ist, noch gibt es derzeit eine effizientere Karte. Das sind nunmal die Fakten, die dich hier scheinbar aber nicht interessieren.
Bei der R7 gab es aber eine schnellere, effizientere und gleichteure Karte, daher war die Überschrift dort gerechtfertigt.
Effizient? Schau mal wie schlecht die Karte skaliert bei Overclocking :D
 
guillome schrieb:
@Matthias80
Nein überhaupt nicht logisch. Aktuell hast du ja hier, jetzt und heute schon zwei Beispiele im Test stehen. Lass mich raten: in Zuzkunft wird der Speicherverbrauch eher mehr - das ist ziemlich logisch?!
Nein falsch verstanden...
Bis zum 3090 Test, war es quasi nicht belegbar.
Da war die 3080 mit ihrer Leistung nicht zu toppen.
Bitte realistisch bleiben. Es sind und bleiben AUSNAHMEN!
Niemand hatte doch Ghost Recon auf dem Schirm!
Jetzt zack sieht man da 22%.
Was bringt das da soviel "Energie" zu investieren? logisch das mehr besser ist.
Aber ne 3090 kaufen sich wie viele? wenn überhaupt mal großartig verfügbar...

MfG
 
11% schneller als eine 3080. So ziemlich meine niedrigen Erwartungen bestätigt.
Dennoch: Was eine Enttäuschung.

Danke @Wolfgang für den Test. Dennoch kommt mir die Karte im Wortlaut ein bisschen zu positiv rüber. Da darf man gerne auch mal kritischer gegenüber Nvidia sein. Jede Art von Kritik wirkt bedacht. Bei AMD hätte man die Wahrheit einfach ausgesprochen:

Zu Laut (Gigabyte), Zu langsam(gegenüber 3080), Zu teuer.

Ich glaube auch die meisten Custom-Modelle werden von der Lautstärke eher so wie Gigabyte sein und weniger wie MSI.
 
  • Gefällt mir
Reaktionen: GUN2504, miro98, Revan1710 und 5 andere
Inxession schrieb:
"Zu stromhungrig, zu teuer - aber mit 24 GB VRAM"

Wäre die Überschrift bei AMD gewesen. Das verbietet wohl das nV NDA.
Auch für dich noch mal :
Deine zitierte Überschrift gehört ja zum Radeon VII Artikel.

Auch wenn du es nicht wahrhaben willst, die Redaktion hatte Recht.
Die Radeon VII war OOTB "zu laut, zu langsam und zu teuer".

Du blendest absichtlich völlig die Verhältnismässigkeit aus.

Die Ampere Karte liefern auch extrem viel Leistung,die VII hat sich zwischen 1080ti und 2080 geschoben die zu dem Zeitpunkt schon lange auf dem Markt waren.
Für diese Leistung hat die Karte viel zu viel Energie verbraten, und war dadurch laut.
Alles Fakt !

Dazu war sie auch wegen den 16 GB zu teuer, gerade auch im Vergleich zu Pascal und den damals neuen Turing.
Speicher ersetzt eben Leistung nicht.

Die Effizienz war bescheiden, Amperes Effizienz ist faktisch, und stand Heute die beste am Markt ( FPS/Watt ).

Da kannst du dir jetzt einen vormachen wie du willst, aber die CB Redaktion hatte und hat Recht, Einstein.
 
  • Gefällt mir
Reaktionen: JohnnyTexas, ZeusTheGod, Munkman und 5 andere
v_ossi schrieb:
Aber... Aber... Nvidia verdient doch Geld an deiner 3080...

Ernsthaft, wie die Leute hier teilweise Nvidia das Geld geradezu an den Kopf werfen, finde ich fast schon etwas bedenklich.

Aber hey, leben und leben lassen.

Wenn es so weiter geht, kann es sogar passieren, das ich aus purem Trotz, noch auf BigNavi warte.:D
Und ja, warum nicht! Wir schleudern im Alltag, ganz andere Summen raus...Strom, Miete (in Ballungsräumen), überteuerte deutsche Autos, Steuern usw...da sind die 1500 Öcken (über 24- 48 Monaten aufgeteilt) gar nichts.
Also, selber mal runterkommen, gell ;)
Zur 3080: Die kann ja nur noch billiger werden...
 
"Immer schnell genug für UHD mit vollen Details"

Das wohl doch eher nicht. In manchen Spielen geht's in 4K in die 40er FPS runter; in den RTX Spielen bis auf 20.

Wird wohl noch eine Generation dauern, bis 4K ohne RTX uneingeschränkt spielbar ist; mit RTX dann wohl noch mehrere Generationen.
 
CrustiCroc + Nvidia = 💕
Die Radeon hat zuviel Speicher und bei der Nvidia jammern alle über zu wenig :D
FPS/Watt Verhältnis soll nochmal jemand ausrechnen. Für ein kleineres Fertigungsverfahren und der deutlich erhöhten Leistungsaufnahme ist das sicher nicht effizient.

kaxi-85 schrieb:
Findest du? Mich nervt der Typ einfach nur. Ahnung hat er - haben andere aber auch.

Jemand der sich nicht von Marketing den Kopf vernebeln lässt sehe ich auf YT neben Igor nirgends. Aber folge auch nicht jedem Tech Youtuber.
 
Naja da die 3000er ziemlich am Limit Takten und kaum schneller sind als ne 2080ti lohnt sich ein umstieg nich. wegen 20-30%. Der Stromverbrauch steigt ja auch fast im gleichen maße an :D


monitorhero schrieb:
CrustiCroc + Nvidia = 💕
Die Radeon hat zuviel Speicher und bei der Nvidia jammern alle über zu wenig :D
FPS/Watt Verhältnis soll nochmal jemand ausrechnen. Für ein kleineres Fertigungsverfahren und der deutlich erhöhten Leistungsaufnahme ist das sicher nicht effizient.


Naja bei gleichem Stromverbrauch sind sie effizienter wie die alte Architektur, aber das meiste der Mehrleistung wird scheinbar auch über mehr verbrauch erreicht. Die 3800/3900er reihe läuft weit auserhalb ihres sweetsspots. Da dürfte die RTX3070 besser werden mit 220W TDP.

Was sich aber deutlich verbessert hat ist das Preis/Leistungsverhältnis.
 
  • Gefällt mir
Reaktionen: monitorhero
Zurück
Oben