News Nvidia GeForce: RTX 3090, 3080 & 3070 mit viel mehr Leistung ab 499 €

nospherato schrieb:
Wenn man von deiner/der 3dcenter Grafik ausgeht (tnt2 ultra) auf 20/21 Jahre und nur eine Inflation von 2% drauf haut, kommt man auch nur auf 460$~ raus. Und beim ehemaligen "peak" von 699$ (2007) bei knapp über 900$. Ist beides weit entfernt von aktuellen Mondpreisen :)
(Ich bin mir durchaus der Ironie bewusst, dass ich selbst auch eine 2080ti habe. Muss es dennoch natürlich nicht gut finden :) )

Das kann man aber nicht immer so einfach runter rechnen. Du musst auch die gebotene Leistung mit einbeziehen. Da gab es erst vor 2 Monaten einen Artikel in der Gamestar die genau dieses Thema behandelt hat und im Vergleich zu der gebotenen Leistung waren Grafikkarten noch nie billiger als jetzt und da hat man diese Preis für die neuen Karten noch gar nicht gekannt. Fairerweise muss man sagen, dass nicht das Topmodell dafür hergenommen wurde sondern die Kategorie darunter, aber das ist ja usus. Der Toplevelbereich ist sowieso für Enthusiasten.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Warlock-Gaming
Herdware schrieb:
Huang erzählte (sinngemäß) erst über die vorherigen Titan, die ein großer Erfolg waren, aber immer nur in begrenzter Stückzahl produziert wurden und das mündete dann in die Vorstellung der 3090.
Er ist ein sehr guter Verkäufer.
Er hat es geschafft mit seinem Bla Bla dir zu vermitteln, dass die neue Karte die alte Titan in der Performance schlägt, aber viel weniger kostet.
Du/ihr folgt daraus, dass die Karten viel günstiger sind als die Vorgänger.
Eigentlich war die Titan aber verdammt teuer bis unverkäuflich (Ladenhütter).
Jetzt bekommst du eine Karte ohne Vollausbau (!) für 1500€.
Ich finde die Preise haben sich nicht wirklich verrringert zu der Vorgänger-Serie.

Zu angeblichen Benches von irgendjemanden:
Ihr glaubt wohl nicht, dass es vor dem Fall des NDA irgendwelche Benches gibt, die uns die Wahrheit zeigen werden?
Alles vor dem Fall des NDA wird von Nvidia's Anwälten unterbunden (offline genommen).
Es sei denn Nvidia will, dass es öffentlich sein soll.

Bitte denkt nach, bevor ihr so schnell Urteilt.
Euer Geld wird euch schon aus der Tasche gezogen, wenn nicht von Nvidia dann von den Verkäufern (höhere Marge :-))
 
  • Gefällt mir
Reaktionen: DarkerThanBlack, Revan1710, Sennox und eine weitere Person
Ich bin den ganzen Tag nicht dazu gekommen, hier bei CB nachzusehen und bin gerade etwas baff.

Eine 3080 bei der Leistung für 'nur' 699 Euro.
Danke.
Da kann ich mir für mein Weihnachtsgeld sogar noch etwas anderes leisten am Ende des Jahres :)

Mit 900 hatte ich gerechnet.
 
chakko schrieb:
Das kann man aber nicht immer so einfach runter rechnen. Du musst auch die gebotene Leistung mit einbeziehen. Da gab es erst vor 2 Monaten einen Artikel in der Gamestar die genau dieses Thema behandelt hat und im Vergleich zu der gebotenen Leistung waren Grafikkarten noch nie billiger als jetzt und da hat man diese Preis für die neuen Karten noch gar nicht gekannt. Fairerweise muss man sagen, dass nicht das Topmodell dafür hergenommen wurde sondern die Kategorie darunter, aber das ist ja usus. Der Toplevelbereich ist sowieso für Enthusiasten.
Das es im Performancebereich passt, das glaube ich dir sogar. Allerdings geht eben der Enthusiasten Bereich schon lange nicht mehr "linear" hoch sondern springt, wie es Nvidia so gefällt.
 
  • Gefällt mir
Reaktionen: Apocalypse
Ich finde im Gegensatz zu einem Mercedes AMG kommt man mit der 3090 als Hardware-Proll noch relativ günstig davon🙄
 
  • Gefällt mir
Reaktionen: russianinvasion, MeisterOek, Coenzym und 2 andere
Mich interessieren eher die Video Encoder Eigenschaften der neuen Karten.
Solange es da keine Infos gibt, ist mir der Rest erstmal egal.
 
NikoNet schrieb:
Ihr glaubt wohl nicht, dass es vor dem Fall des NDA irgendwelche Benches gibt, die uns die Wahrheit zeigen werden?
Ich glaube umgekehrt aber auch nicht das Digital Foundry die Benchmarks fake sind. Nur sind die Spiele ausgewählt wo nvidia am besten aussieht. Das sind die Best Cases von da geht es nur noch bergab. Das heißt aber nicht das diese Best-Case Benchmarks nicht schon verdammt gut aussehen. Die 3070 und 3080er sind schnapper im vergleich zur Vorgänger Generation. Die 3090? Nicht wirklich, jetzt gibt es halt wieder eine Karte zum Melken, nachdem die Titan ja nun Treiber hat die sie für Entwickler wirklich nützlich macht.
Ergänzung ()

nospherato schrieb:
Das es im Performancebereich passt, das glaube ich dir sogar. Allerdings geht eben der Enthusiasten Bereich schon lange nicht mehr "linear" hoch sondern springt, wie es Nvidia so gefällt.
Ist halt Nvidias Antwort darauf das SLI tot ist. Chips die einfach viel mehr Fläche haben um das so zu kompensieren.
 
Falls im Outlet mal die 2080Ti auf 520€ fällt, wäre Das auch net schlecht.
Zumindestens in 4k-nonRT interessanter als ne 3070.
Und evtl. deutlich eher vorstellbar/verfügbar als die 3070Ti, die u.U. erst 2021 kommt.

Die 220W sind mit UVen auch problemlos zu schaffen.
(soviel zum 50% mehr Fps/W-Märchen)
 
chakko schrieb:
Das kann man aber nicht immer so einfach runter rechnen. Du musst auch die gebotene Leistung mit einbeziehen. Da gab es erst vor 2 Monaten einen Artikel in der Gamestar die genau dieses Thema behandelt hat und im Vergleich zu der gebotenen Leistung waren Grafikkarten noch nie billiger als jetzt und da hat man diese Preis für die neuen Karten noch gar nicht gekannt. Fairerweise muss man sagen, dass nicht das Topmodell dafür hergenommen wurde sondern die Kategorie darunter, aber das ist ja usus. Der Toplevelbereich ist sowieso für Enthusiasten.
Muss ich das? More's Law wird ewig totgesagt, lebt aber noch immer. Auch das muss man mit einbeziehen. Sind zwei Jahre her seit der 2080. Darf man auch 2x soviele Transistoren erwarten.
 
cyberpirate schrieb:
Moin,

alles schön und gut. Trotzdem warte Ich weiterhin und werde meine 980Ti nutzen. Die nächste GraKa muss 16GB RAM haben. Alles darunter werde ich nicht kaufen. Vor allem da immer noch alles super läuft. Ich kann nicht nachvollziehen wie nVidia mit dem RAM umgeht. Es gab bei der 1080Ti schon 11GB. Dann wieder nur 8GB und jetzt 10? Egal dann halt keine 3080 sondern nach vielen Jahren evtl mal wieder AMD?
Bin gespannt wie es sich entwickelt.

MfG
Es wäre schön, wenn Nvidia oder eben Computerbase etc. was dazu sagen könnten. In 2 Wochen dann...Die Ti Karten hatten einfach zuviel Vram, so einfach ist das. Kein Spiel hatte mit 8gb Nachladeruckler. Jetzt von 11 auf 10 zu gehen hört sich natürlich nicht gut an. Die 24gb der 3090 nutzt man wahrscheinlich in den nä. 5 Jahren nicht....
Der Speicher der 3000er Karten ist super schnell und es gibt PCIE 4.0. Ich würde also mal davon ausgehen, dass hier 10gb locker ausreichen werden, 2 Jahre mindestens. Aber genau da bräuchte man mal Gedankengänge von NV und Testern, ob das so eingeplant wurde, oder ob man hier verarscht wird und nä. Jahr 10gb Probleme machen werden.
 
  • Gefällt mir
Reaktionen: Warlock-Gaming
NikoNet schrieb:
Er hat es geschafft mit seinem Bla Bla dir zu vermitteln, dass die neue Karte die alte Titan in der Performance schlägt, aber viel weniger kostet.

Ich war nie ein Fan der Titan und habe ihre Existenz nur in soweit anerkannt, dass ich über ihren hohen Preis gemeckert habe. Die 3090 disqualifiziert sich aus meiner Sicht unabhängig vom Namen ebenso durch ihren Preis wie jede Titan, was sie doch zu einem würdigen Nachfolger macht. 😁

Wie gesagt, Namen sind Schall und Rauch. Nur weil die RTX 3080 so heißt und nicht 3080Ti, bedeutet nicht, dass sie nicht (bis auf weiteres) die Stelle der 2080Ti im neuen Produktlineup einnimmt.
Und die Zeiten, in denen man aus Benennenung und Kürzeln noch ablesen konnte, ob es sich um einen Big Chip mit Vollausbau handelt oder nicht, sind auch schon lange vorbei.
Nach dem alten Benennungsschema wäre die 3090 eine Dual-GPU-Karte...

Ich versuche inzwischen gar nicht mehr aus den Namen irgendwelche Zusammenhänge zum Preis oder der darin steckenden Technik abzuleiten.

Was letztlich wirklich zählt ist: Was kostet die Karte und wie viel leistet sie?
Was das angeht, sind die 3080 und 3070 halt eine deutliche Verbesserung gegenüber dem, was man in der 2000er-Generation bekam. Da sehe ich keinen Grund zum Meckern.
Die 3090 schwebt mit ihrem Preis und ihrer Leistung irgendwo außerhalb der normalen Regionen, sieht dort aber wesentlich besser aus, als die meisten alten Titanen.
 
  • Gefällt mir
Reaktionen: bad_sign und .Sentinel.
trane87 schrieb:
@NIGHTFIL
Das Argument ist einfach sinnlos, denn wer eine Highend Karte wirklich benötigt hat schon mindestens 700€ für einen Monitor ausgegeben. Full HD auf maximalen Details lassen sich immer noch super mit Karten für unter 500€ abdecken. Wer 4K und mehr als 60 Hz möchte muss halt tiefer in die Tasche greifen. Das ist dann schonweit über Highend hinaus.

Für einen vernünftigen 60Hz 4K Monitor bezahlst du bei weitem keine 700€ mehr. 300€ (Neu) reichen aus. Gebraucht sind 150€ auch keine Ausnahme und nein die müssen nicht voller Pixelfehler sein, man kann sich die meistens ansehen.
Und je nach indiviudellem Auge und Zollgröße + Abstand vom Monitor hast du mit 4K fast schon Smartphone ähnliche Umstände.

Es ist doch insgesamt eine mehr als positive Entwicklung, sodass dies alles mehr in den Mainstream kommt. Davon profitieren wir alle. Sich künstlich zu echauffieren ist doch lächerlich.
 
  • Gefällt mir
Reaktionen: Toni_himbeere
NikoNet schrieb:
Bitte denkt nach, bevor ihr so schnell Urteilt.

Kurz nachgedacht. LTT hat das auch mal passend erklärt. Wenn ich heute für 10.000€ nen Review zu Gunsten des Hersteller fälsche, und dann zwei Wochen später nach Fall des NDA die Wahrheit rauskommt, passiert genau eines.

Es gibt einen riesigen Shitstorm, die Leute unsubscriben den Channel, Reputation geht verloren. Follower gehen flöten, ebenso die Werbeeinnahmen. Den kurzfristigen Gewinn den man mit einem solchen Review erzielen würde, stehen maximale Verluste kurze Zeit später gegenüber. Weshalb das auch keiner der YT'ler mit hohem Follower-Aufkommen macht.

Die würden sich selbst die Pistole an den Kopf setzen - und abdrücken. Da man, wenn man eine gewisse Größe hat, den Laden direkt dicht machen kann wenn die Follower Zahl innerhalb eines oder zwei Monaten halbiert wird. Die Fixkosten für Gehälter, Server, Infrastruktur etc. sind ja weiter vorhanden.

Linus hats zusammengefasst mit:
"Es gibt kein Szenario, in dem sich das irgendwie, irgendwann, für irgendjemanden rechnen würde"

Es rechnet sich einfach nicht, sich für ein Review kaufen zu lassen. Daher spielt sich Einflussname eher im kleineren Bereich ab. Siehe DF, man darf halt nur die Cherry-Picking Games veröffentlichen. Dadurch wird zumindest ein leicht positiveres Bild erzielt.

Dem gegenüber steht aber, dass mit noch nicht optimierten Treibern getestet wird. Somit heben sich Minus und Plus ggf. auf und erzeugen eben doch ein realistisches Bild.
 
  • Gefällt mir
Reaktionen: cvzone, poly123, .Sentinel. und 2 andere
jonderson schrieb:
HD5870?

Danach ging es Steil "bergauf"...
Radeon HD 5870 is connected to the rest of the system using a PCI-Express 2.0 x16 interface. The card's dimensions are 280 mm x 111 mm x 37 mm, and it features a dual-slot cooling solution. Its price at launch was 399 US Dollars.

Und SLI war damals auch noch nicht ganz tot, es gab ja auch noch eine 5970 für 699 US-Dollar.
 
Verzeihung, wenn ich mir nun nicht 71 Seiten durchlesen kann, aber folgende Fragen hätte ich - obwohl ich mir bewusst bin, dass es mglw. keine Antworten darauf gibt bislang:

1. Mein Mainboard hat definitiv PCIe 3.0 - geht mir dadurch viel Leistung flöten? Oder geht die Karte uU gar nicht, da sie nicht genügend Strom bekommt dadurch?
2. Apropos Strom: Wird theoretisch für ne 3070@stock ein 500W Platinum-Netzteil ausreichen bei nem i7 4790k?
3. Wie schlagen sich die Karten im Video-Encoding?
4. Sind die Karten nicht absolut overpowered, da der Maßstab für die nächsten Jahre einmal mehr die kommende Konsolengeneration sein wird und als Konsequenz so viel TFlops gar nichts bringt?

vielleicht weiß ja wer schon eine Antwort drauf: )
 
Ich versteh' nicht was an den Preisen "gut" sein soll....
Das Verhältnis zu Turing ist ein beknackter Vergleich, wenn man überlegt wie die Preise damals in die Höhe geschossen sind!

Ich hab schlimmeres erwartet aber "gut" finde ich das hier noch lange nicht....
Ich hoffe RDNA 2 macht da weiter wo RDNA 1 (zu früh) aufgehört hat aber selbst dann werden die Meisten weiter Nvidia kaufen....
 
  • Gefällt mir
Reaktionen: IronUser
Project-X schrieb:
Mehr Leistung bei weniger kosten! 700€ Klingt echt nicht zu hoch, in Anbetracht auf die Leistung im Vergleich zur RTX 2080ti.

Ganz ehrlich. Für 700 Euro bekommst du gerade mal die Billige Modelle. Das Teil zieht bis zu 320 Watt ! Das will erstmal abgeführt werden. Der Kühler von der Founders Edition muss sich erstmal beweisen und ein vernünftiges Custom Design kostet sicher 100 Euro mehr.:)

Ich weiß nicht ob deine Aktion sich gelohnt hat. Wenn man verkauft, dann vor den Release einer neuen Generation. Aber ob sich der Stress auch gelohnt hat, müssen erstmal Tests zeigen.
 
Warum geht man immer davon aus, das die RTX 3080 der Nachfolger der 2080ti ist?
Eine RTX 3080ti mit mehr als 10GB ( tippe auf 16-20GB) wird noch folgen.
Woher ich das weis?
Gesunder Menschenverstand.
Alleine die riesige Preislücke zwischen 3080 und 3090 spricht schon dafür.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MeisterOek, danyundsahne, SonnyRasca und 4 andere
Absolut interessant was da präsentiert wurde, aber ich bin trotzdem gespannt was AMD liefert und ob Nvidia nicht doch nochmal nachlegt. Vor 2 Jahre habe ich bewusst eine gebrauchte 1080 für ~180€ genommen, statt der 20er Generation. Die 1080 tut noch gute Dienste und ist nur in manchen VR-Anwendungen mit der Reverb wirklich am Limit. (ACC z.B.)

Ich denke die 10GB Speicher sind der neue Standard. Die letzte Generation hat ja gerade mal die 8GB als Standard etabliert. Und die 10GB wird wohl der nächste Step sein, an denen sich wohl auch die Softwarehersteller orientieren werden. Zumal der Speicher ja schneller und besser angebunden ist.
Es wurde ja auch klar gesagt "new flagship 3080", also wird das die Gaming-Highendkarte und die 3090 mit Ihren 24GB hebt sich ja klar ab und reißt die Brücke zu den professionellen Anwendungen auf, wie es sonst die Titan getan hat. Ich persönlich sehe die 24GB fürs Gaming als obsolet an und bis überhaupt mal was Jenseits von 12GB oder 16GB standardmäßig in Spielen benötigt wird, haben wir sicher noch mindestens zwei-drei GPU-Generationen Luft und bis dahin ist wahrscheinlich die Rohleistung der 3090 schon wieder hinfällig im Vergleich.

Also es bleibt spannend.
 
Zurück
Oben