News Nvidia GeForce: RTX 3090, 3080 & 3070 mit viel mehr Leistung ab 499 €

Toni_himbeere schrieb:
Ein 2080ti Modell mit 5 Jahren Garantie(im besten fall noch 4Jahre+ über) würde ich auch nicht unter 450Euro abgeben, bzw. ... auch ist die verbreitung von 2080ti und 2080 jetzt nicht so unendlich riesig als das der Markt da die nächsten Jahre mit gebrauchten geflutet würde.

450€ wären (je nach Alter) ja auch fair. 550€ für eine schöne Custom mit ordentlich Garantie sind auch O.K. Hat halt den größeren VRam. Bei EBay/Kleinanzeigen sind aber massenhaft Träumer, die noch 900+ für eine 2 Jahre alte Karte haben wollen. Der Zug dürfte abgefahren sein.
 
McFritte schrieb:
Der Zug dürfte abgefahren sein.

Jeden Tag steht ein dummer auf, der von der Ampere Vorstellung noch nichts mitbekommen hat, sonst müssten auch bei den Händlern die Karten längst rabattiert angeboten werden.
 
Laphonso schrieb:
Why only 10 GB of memory for RTX 3080? How was that determined to be a sufficient number, when it is stagnant from the previous generation?
Ok interessant, nur sagt der 4-6gb brauchen diese Spiele, stimmt das? Über 6 würd ich sagen gehen die schon gerne. Wobei wir immer bei dem Thema sind, ab wann ruckelts denn wirklich und was genehmigen sich die Karten nur gerne?
 
Wie gut, daß ich im Spielerechner bis heute ein 1200 W Netzteil von meinem damaligen GTX 580 T-SLI noch drinhabe, ich brauch mir über Spannungsspitzen der 3090 keine Gedanken zu machen. :p:cool_alt:
 
PHuV schrieb:
Wie gut, daß ich im Spielerechner bis heute ein 1200 W Netzteil von meinem damaligen GTX 580 T-SLI noch drinhabe, ich brauch mir über Spannungsspitzen der 3090 keine Gedanken zu machen. :p:cool_alt:

Und ob du das musst.
Die Bauteile werden nicht besser mit den Jahren. :D
 
  • Gefällt mir
Reaktionen: nikky und iron-man
PHuV schrieb:
Wovon träumst Du nachts noch? :p Und die 3090 ist wie gesagt, höchste Leistungstufe für Ethusiasten und den Pro Bereich KI mit DL/ML. Die meisten werden mit einer 3080 hoch zufrieden sein, und erst recht mit der 3080TI mit 20 GB.
War das Weglassen eines Sarkasmustags also leider doch irreführend, sorry :D
War meine Reaktion auf den Vorposter, er sprach von AMD und einer Karte auf 3090 Niveau für 599. lol
 
  • Gefällt mir
Reaktionen: .Sentinel. und PHuV
McFritte schrieb:
450€ wären (je nach Alter) ja auch fair. 550€ für eine schöne Custom mit ordentlich Garantie sind auch O.K. Hat halt den größeren VRam. Bei EBay/Kleinanzeigen sind aber massenhaft Träumer, die noch 900+ für eine 2 Jahre alte Karte haben wollen. Der Zug dürfte abgefahren sein.


Das hast du ja immer, ich hab das auch schon lange abgelegt mir über sowas gedanken zu machen. Die Leute bei Kleinanzeigen kommen auf die dollsten Ideen^^
 
Supermax2004 schrieb:
Ok interessant, nur sagt der 4-6gb brauchen diese Spiele, stimmt das? Über 6 würd ich sagen gehen die schon gerne. Wobei wir immer bei dem Thema sind, ab wann ruckelts denn wirklich und was genehmigen sich die Karten nur gerne?
Wie daher müssen die neue Architektur erstmal "live" performanen sehen in Games.
Daher, BENCHMARKS und Reviews abwarten :)
 
PHuV schrieb:
Wie gut, daß ich im Spielerechner bis heute ein 1200 W Netzteil von meinem damaligen GTX 580 T-SLI noch drinhabe, ich brauch mir über Spannungsspitzen der 3090 keine Gedanken zu machen. :p:cool_alt:

Wahrscheinlich hättest du dir bei dieser miesen Effizienz im Vergleich zu einem passenderen NT inzwischen schon lange wieder ein neues NT durch die ersparten Stromkosten kaufen können.
 
  • Gefällt mir
Reaktionen: maloz
Ghostshield schrieb:
Jungs jetzt dreht nicht so durch, die 3070 wird nicht gegen der 2080TI ankommen.
Das ist Marketing bla bla, diesen effekt wird man nur in ausgewählten spielen mit DLSS+Raytracing ab 4K erreichen.
Ich denke ebenfalls das die Custom 2080Ti Karten vorallem weil die eben leicht getuned sind gegen die 3070FE knapp gewinnen werden.
Nicht alle lassen sich leicht von Werbung beeinflussen.
 
Jesterfox schrieb:
Aber kauft euch ruhig den Krempel, ich lach euch dann aus wenn so weit ist ;-)

Den Meisten ist eigentlich schon mehrfach das Lachen im Hals stecken geblieben.

Sei es bei der Fury wo 4GB HBM Wunderspeicher besser sein sollten als 8GB normaler Speicher. Super Zukunftssicher und alles. 1 Jahr später wars Altmetall für die "Vitrine der Hardwarekuriositäten". Dann wurde die nächste Weltidee vor den eigenen Karren gespannt. Vega oder so ähnlich.
Oder auch die Radeon VII die mit ihren 16GB Speicher schon bei Release gegen andere Karten mit der Hälfte Speicher abgestunken ist.
Eine 1060 6GB Karte war natürlich auch übelster Kernschrott lt. einiger Leute, hat es aber zur beliebtesten Karte auf Steam geschafft.
Für minimalste Texturverbesserungen bei großem VRAM, die man meist nur im Standbild wahrnimmt, gibt niemand der noch bei klarem Verstand ist zusätzliches Geld aus. Keine 50 Euro und auch keine 100 Euro. Dafür sind die Qualitätsverluste zwischen höchster und zweithöchster Texturstufe viel zu vernachlässigbar, gerade und insbesondere in kleinen Monitorauflösungen. Steht auch in so gut wie in jedem Spieletest.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel., -MajorP-, Toni_himbeere und eine weitere Person
Jesterfox schrieb:
Und du scheinst zu übersehen das ich genau das Problem mit ner schnellen Karte mit zu wenig VRAM in der Vergangenheit schon mal selber hatte
Das Vram Problem hatte ich damals mit der 970 mit 3,5gb(4gb) Vram. Da waren wir aber auch noch nicht im 4k UHD Texturen Bereich. Da wiederum sind wir jetzt schon und da reichen bisher 8gb in der Regel dicke. Deshalb bin ICH etwas beruhigter bei 10gb Vram. 10gb highspeed Vram sollten reichen, müssen reichen. Die Graka wirds schon regeln :)
Wenns aktuell wirklich ruckelt wegen zu wenig Ram....dann ist es hoffentlich ein Schrottspiel ^^
 
Kenjiii schrieb:
Wahrscheinlich hättest du dir bei dieser miesen Effizienz im Vergleich zu einem passenderen NT inzwischen schon lange wieder ein neues NT durch die ersparten Stromkosten kaufen können.
Das ist Quatsch. Ich hatte mehrfach den Strommesser direkt dran, und das Netzteil ist genauso effizient wie ein 600 oder 800er, der verbraucht kaum mehr. Die Stromkosten sind höchstens ein kleiner 2stelliger Betrag über die Jahre, mehr ist das nicht. Das Netzteil zieht nur das, was es braucht, da ist es egal ob 500W, 600W, 800W oder 1200W.
 
Zuletzt bearbeitet:
DocWindows schrieb:
Für minimalste Texturverbesserungen bei großem VRAM, die man meist nur im Standbild wahrnimmt, gibt niemand der noch bei klarem Verstand ist zusätzliches Geld aus.
Grafikkarten werden nicht nur fürs Zocken benutzt, es gibt unzählige Hobbyentwickler die ne Grafikkarte fürs Rendering haben wollen und dabei preisbewusst agieren... da zahlt man dann eben doch die 50€-100€ mehr für doppelten RAM.
 
  • Gefällt mir
Reaktionen: Apocalypse und PHuV
xexex schrieb:
Hole dir die 3080 sie wird dafür reichen wenn du nicht immer zwingend Ultra Settings brauchst
Also ich sag mal so, das ist schon irgendwie pervers. Es muss auch in Ultra gehen....Was jetzt spielbar ist, da hat jeder eine andere Meinung (40fps oder 60 oder 80...). Aber es muss gehen.
 
@mylight Ich spreche aber explizit von Spielern, da diese Gruppe die größte von den Gruppen ist die Grafikkarten kaufen. Hobbyentwickler, die ne Grafikkarte fürs Rendering brauchen und kein großes Geld ausgeben wollen, füttern keine Firma durch. Hättest besser Miner als Beispiel angeführt. Die waren mal so kaufkräftig dass extra Karten dafür hergestellt wurden.

@PHuV Wieviel Grafikspeicher braucht man denn heute so für Videoschnitt? Bin da nicht mehr auf dem Laufenden. Ich weiß nur dass die Hardwareencoder auf Grafikkarten gerade gerne genutzt werden.
 
xexex schrieb:
Das Problem dabei ist, was als High Res Texturen "verkauft" wird sind oftmals nur auf eine höhere Auflösung mit einem Schärfefilter hochgerechnete Texturen mit niedrigeren Auflösung. Hauptsache man hat die Leute "bedient" die sich eine superteure Grafikkarte gekauft haben und eine Rechtfertigung für diese Ausgabe suchen.

Schönes Beispiel bei FFV
Anhang anzeigen 962122
Anhang anzeigen 962123

Finde die Unterschiede! Das hätte man auch selbst einem Schärfefilter machen können, vermutlich sogar besser.
Prinzipiel kannst du da sogar recht haben, aber mit einem Screenshot von Youtube kannst du dein Argument nur schwer belegen. Matsch bleibt Matsch egal wie Scharf die Texturen mal waren.
 
Hier sieht man, wie gut eine 2080 TI für Blender arbeitet:

Wenn jetzt wirklich der Markt mit günstigen 2080TIer überschwemmt wird, kommen doch vielleicht einige in Versuchung, sich 2-4 davon als Cluster fürs Rendern hinzustellen.
 
Zurück
Oben