Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

jk1895 schrieb:
Was ich ums Verrecken nicht verstehe ist, warum versucht AMD nicht Leute vom Kauf abzuhalten? Die sehen doch selber was für einen Hype Lederjäckchen fabriziert hat. Da kann ich doch nicht bis (Ende?) Oktober warten mit läppischen Informationen?!
Das ist doch der Witz. Vor Ende Oktober wird es keine grünen Karten in relevanten Zahlen geben, bis dahin sind selbst die extremen Fanboys noch nicht mal versorgt, die man eh nicht vom Kauf einer Ampere Karte abbringen kann. Zumal bis dahin auch nur die 3080 als "günstige" Karte vorhanden sein wird. Also selbst unter den extremen Fanboys werden nur jene versorgt werden können, die entsprechend viel Geld investieren möchten / können (wobei die Straßenpreise der Custom Karten aufgrund der Nachfrage sonst wo hin steigen können, und die FE eher als "Kleinstserien Modell" zu sehen ist, so dass die "Ausgabe Lotterie" bis auf weiteres Bestand haben wird)).

Sollte AMD zu früh mit konkreten technischen Daten oder gar Benchmarks hausieren gehen, bieten sie Nvidia damit nur das Potential schnell und gezielt darauf zu reagieren (Super / TI).
AMD muss erst mal nur eines machen, ungeachtet der Performance: Produzieren (lassen) bis die Hütte brennt und Board Partner früh genug ausreichend versorgen, um dann beim Launch ausreichend Karten zu haben, um der Nachfrage nachzukommen.

Wenn die neuen Radeon Karten dann noch bei der Performance im Bereich einer 3060, 3070 und 3080 sind, von Haus aus nicht mehr als 270 bis 290 Watt (aufgrund des theoretischen Fertigungsvorteil bei TSMC nicht unmöglich) brauchen und beim VRAM bei 12 bis 16GB liegen (wobei das Gegenstück zur 3060 auch mit 8GB daher kommen darf und der Energieverbrauch für die Gegenstücke zur 3060 und 3070 natürlich noch mal geringer ausfallen sollte), einfach ein entsprechendes Preisschild dran kleben (darf je nach Kombination Leistung / Verbrauch / VRAM auch teurer als das grüne Gegenstück sein), dafür sorgen dass die Treiber halten, ggf. klar kommunizieren, dass man ein ordentliches Netzteil braucht (siehe die Ansage zu 750 Watt Netzteilen für eine 3080) ...
und AMD hat schon alles richtig gemacht
 
  • Gefällt mir
Reaktionen: Prauscht, s0UL1, Captain Mumpitz und 2 andere

Vielleicht wurde das Video schon mal gepostet, aber ich finde es bedenklich. Damit ist das Referenzdesign a.k.a. Founders ein Nogo! Speichertemperaturen von 104°C, hammerhart! Nächstes Jahr im Sommer rauchen dann die Karten ab? Evl. auch vorher? Kein Wunder, dass ich auf meiner Asus 2080S hohe Lüfterdrehzahlen mit Kusshand nehme, könnte sie ja auch ein Delta-T von 20K zwischen PCB-Rückseite und Speicherinnenleben haben.

Edit:

Jo, gerade gesehen, wurde heute Mittag schon gepostet. Egal.
 
  • Gefällt mir
Reaktionen: monitorhero
Hier mal was interessantes auch der RAM ist am Rande bis zur kotz Grenze deswegen bringt RAM OC nix mehr.

Hier der link

Ergänzung ()

PS viel Spaß an die Handler mit RMA. ;)
 
  • Gefällt mir
Reaktionen: WommU und Banger
Banger schrieb:
Vielleicht wurde das Video schon mal gepostet, aber ich finde es bedenklich. Damit ist das Referenzdesign a.k.a. Founders ein Nogo!
Wenn Igor auch noch diverse Custom Karten (zumindest 2 oder 3 Modelle aus den verschiedenen Güteklassen exemplarisch) dahingehend "durchleuchten" würde, gerne auch im OC / UV, wäre das richtig stark.
 
  • Gefällt mir
Reaktionen: Rockstar85, Mcr-King und Banger
  • Gefällt mir
Reaktionen: Mcr-King
Mcr-King schrieb:
Hier mal was interessantes auch der RAM ist am Rande bis zur kotz Grenze deswegen bringt RAM OC nix mehr.

Jaaaa! 3 mal posten hält noch besser! :daumen:

Ich sehe es schon kommen, dass hier die ganzen Threads kommen, wo die 3080 rumspackt.

Ich hoffe, Igor bekommt noch die Asus TUF und checkt die mal ab.

Edit:

catch 22 schrieb:

Isso!
 
  • Gefällt mir
Reaktionen: Mcr-King
SKu schrieb:
Die Zahlen sagen so leider nicht viel aus. Wie der Tests der 3080 bereits gezeigt hat, gibt es selbst in 4K CPU-Limits.

Naja komm, das Testsystem ist schon nicht schlecht, und die einzelnen Titel kann man abschätzen das sie in 4K nicht CPU-limitert sind. Alleine SotTR sagt eigentlich schon alles.
 
iceshield schrieb:
Wenn das stimmt (5% bis 10%), dann frage ich mich, wieviel stärker die anderen Karten werden? Stichwort: 3080S (Ti) zum Beispiel. Alles sehr komisch.
Bzw. Der Aufpreis für die 3090 ist dann doch eher: naja, ich sage es lieber nicht;)
lg

Die Zahlen ignorieren ein potenzielles CPU-Limit. Gerade bei so einer Gurke wie Far Cry New Dawn mit uralt Dunia Engine aus Anno 1800, die Ubisoft als Budgetlösung verwendet, würde es mich nicht wundern, wenn die Karten da auch unter 4K nicht an die Grenzen kommen.
Ergänzung ()

thuNDa schrieb:
Naja komm, das Testsystem ist schon nicht schlecht, und die einzelnen Titel kann man abschätzen das sie in 4K nicht CPU-limitert sind. Alleine SotTR sagt eigentlich schon alles.

Ja, aber mal ehrlich: Was haben die Leute bitte erwartet? Dass die 3090 noch einmal stark zulegen wird? Wo soll die Leistung denn herkommen bei 20% mehr Shadern? Die 3090 lohnt sich nur für Leute, die mit den 24GB RAM auch etwas anfangen können.
 
  • Gefällt mir
Reaktionen: Mcr-King
Es hieß ja, dass Jensen verwandt wäre mit der CEO von AMD. Keine Ahnung, ob das noch stimmt. Aber vielleicht sind das ja keine Totfeinde, sondern gönnen sich gegenseitig Profit. Sollen halt alle gehypet sein und eine GeForce kaufen. Am Ende bringt AMD was tolles und dann wird von vielen diese gekauft. Die gebrauchten GeForce lösen noch ältere Modelle bei den Kunden ab und beide Unternehmen machen Gewinn. Nvidia kontert paar Monate später. Wieder wird Kram verkauft. Wenn sie zusammenarbeiten machen die mehr Kohle als als echte Konkurrenten.
 
  • Gefällt mir
Reaktionen: Mcr-King
SKu
Stimmt, den Aufpreis zur 3090 (nur wenn es um das Spielen geht), das lohnt sich wirklich nicht.
Die 3090 kann man wirklich gut gebrauchen für das "Rendern"/Videobearbeitung etc. (vor allem wenn man sich die App Benchmarks zu der 3080 hier bei CB anschaut)
Aber allein auf das Spielen runterzubrechen, ist es das Geld wirklich nicht wert (im Verhältnis zur 3080).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: monitorhero, Vitec und Mcr-King
Wie in dem Artikel steht braucht die 3080/3090 einiges an Software Optimierung um alle Rechenwerke auszulasten, es kommen bestimmt noch Patches und die Treiber werden mit der Zeit auch noch mehr raushauen war bei der 2080/Ti auch so zwar nicht massiv mal sehen was sie machen ich für meinen Teil bin doch etwas gedämpft und halte mich mit meinem Kauf noch zurück aber ich weis ich werde der 3090 auch nicht wiedersehen können.
 
Also bisher, was ich so von den custom Grafikkarten usw gesehen habe, finde ich, dass die FE von Nvidia am edelsten aussieht ^^
 
  • Gefällt mir
Reaktionen: Toni_himbeere
Zock schrieb:
und die Treiber werden mit der Zeit auch noch mehr raushauen war bei der 2080/Ti auch so

Ich mag mich irren, aber das einzige was da groß verbesserte wurde, waren die Anpassungen von BF5 z. B. an RT, die das dann performanter gestaltet haben, als zu Beginn.

Ich kann mich aber nicht erinnern, dass die 2080 Ti Raster-Leistung irgendwie groß gestiegen ist gegenüber dem Release ?
 
jk1895 schrieb:
Beispiel, ich selbst: Ich "bräuchte" "dringend" eine neue Grafikkarte.
Dringend braucht man ne Grafikkarte oder andere Komponenten, wenn die alte vereckt ist. Ansonsten kommt es auf 6-8 Wochen wohl nicht an, wenn man wie jetzt die Chance hat, dann die Bewerber genau zu beurteilen und zu vergleichen..
Tu dir die Ruhe an.

Mehr Sorgen machen mir die Messungen von Igor von den RAM Temps. Mal abwarten wie sich das bei den Customs verhält mir besserer Kühlung.
So wie ich ihn verstanden haben, will er die Messungen ja jetzt durchziehen. Die entsprechen SW hat er ja zur Verfügung.
 
  • Gefällt mir
Reaktionen: Mcr-King, jk1895 und Banger
iceshield schrieb:
Wenn das stimmt (5% bis 10%), dann frage ich mich, wieviel stärker die anderen Karten werden? Stichwort: 3080S (Ti) zum Beispiel. Alles sehr komisch.
Bzw. Der Aufpreis für die 3090 ist dann doch eher: naja, ich sage es lieber nicht;)
lg
Wenn es stimmt was NVIDIA sagt und es momentan keine Games gibt die mehr als 10GB in Anspruch nehmen,
wird es für eine allfällig kommende 3080 (S/Ti) mit wohl um die 20GB +/- nicht einfach sich von einer 3080 abzusetzen, gerade in Anbetracht (laut Igors Lab das Speicher OC eher kontraproduktiv ist da sich der Speicher bei 110°C aus Sicherheitsgründen runtertaktet) aktuell Temp 3080 FE 104°C! Da ist nicht mehr viel Spielraum dafür vorhanden.

Auch OC die Custom Vers. 3080 / 3090 geht bis 420W 3080 bzw. 440W 3090 und kann dabei nur marginal im niedrigen einstelligen Prozentbereich in der Geschwindigkeit zulegen.

Was soll da noch für eine 3080 (S/Ti) zu holen sein?
Verbrauch 460 oder gar 500W?
Mehr als Vollausbau geht auch nicht, ergo einziges Alleinstellungsmerkmal mehr Speicher?
So wie es aussieht hat NVIDIA erstmal die Hosen heruntergelassen und für einen allfälligen Konter falls Big Navi
stärker wird als vermutet, haben sie keine Mittel mehr bzw. alle Trümpfe bereits ausgespielt,

420 / 440W muss man sich doch erst mal auf der Zunge zergehen lassen und das selbst 750 / 850W Netzteile laut PCGH mit der 3080 teilweise überfordert (OC und nicht OC) sind spricht ebenso Bände.

So jetzt nach dieser müden Vorstellung, ist erst mal Big Navi am Zug, ich bin auf jeden Fall sehr gespannt
wenn es stimmt das Big Navi nur um die 270W verbrauchen wird, dann ist ja auf jeden Fall noch etwas Spielraum bis 500W vorhanden.:p
 
  • Gefällt mir
Reaktionen: monitorhero und Mcr-King
Auf jedenfall, das stimme ich Dir vollkommen zu ArrakisSand, erstmal Big-Navi abwarten. Bin schon ganz gespannt;)
 
  • Gefällt mir
Reaktionen: ragan62 und Mcr-King
ArrakisSand schrieb:
Auch OC die Custom Vers. 3080 / 3090 geht bis 420W 3080 bzw. 440W 3090 und kann dabei nur marginal im niedrigen einstelligen Prozentbereich in der Geschwindigkeit zulegen.

Also Laut meinen Infos sind Costums der RTX3090 nahe an der 550Watt Marke wie gesagt 1000Watt NTs sind wieder gefragt was mein Kumpel von Mf bestätigt. ;)
Ergänzung ()

iceshield schrieb:
Auf jedenfall, das stimme ich Dir vollkommen zu ArrakisSand, erstmal Big-Navi abwarten. Bin schon ganz gespannt;)

Ja die sollen sehr Effizient seinen mehr darf ich nicht spoilern aber die Nächste Woche wird spannend Großes kommt auf jeden Fall. ;)
Ergänzung ()

Banger schrieb:
Jaaaa! 3 mal posten hält noch besser! :daumen:

Ich sehe es schon kommen, dass hier die ganzen Threads kommen, wo die 3080 rumspackt.

Naja wurde mich nicht wundern trotzdem selbst schuld wer früh kauft meist die Katze im Sack. Wie bei den Konsolen in meinem Müller sind alle rest los auss Verkauft die Vorbestellung.

Was ist los mit der Gesellschaft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iceshield
Rockstar85 schrieb:
Ich möchte dir stellvertretend für alle und die CB Redaktion hier nahelegen...

Ich denke kaum, dass du stellvertretend für alle anderen sprechen kannst.^^
Hier ging es nur um reale Werte, also hard facts, die lassen sich mit der Intel CPU besser darstellen.
So bin ich weniger limitiert und die Qualität des Tests ist höher, die Werte aussagekräftiger.

Rockstar85 schrieb:
Alternativ hat der Maurer dahinten das Loch gelassen.

Ich hab doch im Beitrag vorher schon gesagt. Die Markendiskussion interessiert nicht, mich zumindest nicht.
Wadenbeißer fragte nach der Relevanz eines Tests mit einer OC CPU. Die Relevanz liegt daran, GPU Werte für alle Käufer bereit zu stellen und nicht nur für diese, die eine langsamere CPU besitzen.

GPUs testet man mit der schnellsten CPU, CPUs mit der schnellsten GPU, daran gibt es nichts zu rütteln.
PCIE 4.0 spielt im Gegensatz zur CPU eine kaum messbare Rolle, das ist Messungenauigkeit.
 
Mcr-King schrieb:
Also Laut meinen Infos sind Costums der RTX3090 nahe an der 550Watt Marke wie gesagt 1000Watt NTs sind wieder gefragt was mein Kumpel von Mf bestätigt. ;)

Die Lastspitzen der nicht übertakteten 3080 FE sind laut Igors Lab bereits bei knapp 500W
wenn übertaktet sicher nochmals ein gutes Stück mehr und bei den von mir vorher erwähnten 420W für das custom Modell sind es dann schon deutlich mehr.
Zusammen mit einer potenten CPU hat es schon seine Gründe wieso z.B. ASUS ein 850 - 1000W Netzteil für die 3080/3090 empfiehlt.
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben