Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

cruse schrieb:
@xexex Nice!
Hier ist der Blog-Post von Corsair dazu.
Hier ist der Direktlink zum Anmelden. Man bekommt dann eine E-Mail, wenn es verfügbar ist.
Zitat aus dem Forum:

Es wird also erstmal keine kostenlosen Kabel geben, später eventuell.
Adapter tausch gegen Adapter tausch...
Wo ist da der Sinn?

MfG
 
Danke dass ihr auch die Leistung in Videobearbeitungsprommen getestet habt. Viele holen sich eine neue GraKa um die Bearbeitung der Videos zu beschleunigen. Gerne könnt ihr Davinci Resolve noch detaillerter testen.
Vielen Dank nochmals!
 

Anhänge

  • 8nm vs 7nm.png
    8nm vs 7nm.png
    41,6 KB · Aufrufe: 132
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Philanthrop und ShiftyBro
cruse schrieb:
12GB wäre drin gewesen. Vorderseite oben 2 freie Stellen.
:-/

Ab 30-32°C verlasse ich fluchtartig die Wohnung ^^
Hab inzwischen aber eine Klima, die einfach gegendrückt :>

erstmal ja, bei anspruchsvolleren Sachen werde ich aber lieber erstmal das Powertarget auf ~80-82% herunternehmen, wie CB auch.
ne ne ne
da hat einer immer noch nicht verstanden das es am Speicherinterface liegt, wie viel und welchen VRAM man verbauen kann.
nicht Aufgepasst!

MfG
 
cruse schrieb:
Hab inzwischen aber eine Klima, die einfach gegendrückt :>
Das geht natürlich auch, das schlägt aber nochmals ordentlich auf den Preis. :D

Je mehr ich darüber nachdenke desto mehr hoffe ich, dass es die von Lenovo geleakte RTX 3070(Ti) mit 16GB auch auf den Endkundenmarkt schafft (und das möglichst zeitnah).
Leistung knapp über der 2080Ti, deutlich mehr Speicher als die normale 3080, eine Ecke weniger Verbrauch und noch etwas günstiger wäre vermutlich ideal für meine Ansprüche.
 
Krautmaster schrieb:
okay, aber ich denke zu 7nm TSMC auch ohne + fehlen immernoch ein ganzes Stück. Nicht unsonst fertigt man die Produkte um GA100 bei TSMC.
Ich würde mich da ehrlich gesagt nicht aus dem Fenster lehnen wollen. Denn wir befinden uns ja inzwischen in Bereichen, wo selbst die Chipdesigner in vielen Bereichen garnicht mehr das volle Shrinking mitgehen, um z.B. die Stromdichte in den Griff zu bekommen.

Das beste Praxisbeispiel, dass die Nodeshrinks stark an elektrischen Möglichkeiten verlieren, ist ja Turing zu Navi...
Es wird da halt langsam im wahrsten Sinne des Wortes eng. Und die TSMC Angaben sind eben auch nur immer bis zu bzw. ein entweder/oder, wenn es um die maximal herausholbaren Praxiswerte geht.

Da spielt das Chipdesign aber eben auch noch einmal eine große Rolle.
 
@.Sentinel. Okay, hatte nicht auf dem Schirm, dass sich das System bei der XBOX doch so viel Speicher vorbehält. Gibt Damit relativiert sich das Problem noch ein bisschen.

.Sentinel. schrieb:
[...]Das beste Praxisbeispiel, dass die Nodeshrinks stark an elektrischen Möglichkeiten verlieren, ist ja Turing zu Navi...
Es wird da halt langsam im wahrsten Sinne des Wortes eng. [...]

Da sollte man vlt. auf Big Navi warten, bis man einen Vergleich zieht. Der Fertigungsprozess ist sicher besser geworden und AMDs Umgang damit ebenso.

KlaraElfer schrieb:
[...]Iwo. Bei der Radeon VII und Vega war das doch das halbe Forum, bei Nvidia gilts natürlich nicht.^^

Jede Grafikkarte ist effizienter, wenn man sie niedriger taktet und/oder die Spannung manuell runter dreht. Manche sind mehr, manche weniger 'auf Kante genäht', trotzdem kann und sollte man die Karten alle im Auslieferungszustand bewerten. Da haben auch Vega und Radeon VII zurecht ihr Fett wegbekommen.
 
  • Gefällt mir
Reaktionen: milliardo und .Sentinel.
Schöner ausführlicher Test. Die Steigerung der Leistung unter RTX war vorauszusehen. Richtig gut ist sie aber gerade unter dem ,,bescheißer" DLSS^^. Nun gut.
Da lohnt es sich doch ü 700€- 800€ hinzulegen, für das nächste RTX Spiel das im Winter kommt. Immerhin ist es das 7(?). Wow.^^

Ansonsten die Steigerung ohne RTX um die 20- 30% ist auch nicht der Brüller. Lautstärke/ Stromverbrauch und auch der Preis außerhalb meiner Range.

Schön auch der PCIe 4.0- 3.0 Vergleich. Wie erwartet ist da nix besonderes.
Es scheint, das diese Grakas viel mehr CPU Power brauchen, um mehr fps zu generieren. Bin eher auf die 3060 und darunter gespannt.
 
Summerbreeze schrieb:
Das ist die große Frage:
Warum haben sie sich das angetan?

Frage ich mich auch ein bisschen.
Aber es wird natürlch durch die Tatasache, dass man AMD jetzt eine Karte vor die Nase setz, die ziemlich genau doppelt so schnell ist, wie deren aktuelles Flagschiff, erst richtig rund.

Aber warten wir halt mal, was AMD jetzt bringt.
An eine Verdoppelung der Leistung glaube ich nicht so wirklich.
Das wäre dann schon ein sehr gewaltiger Schritt.
 
Mal eine Frage hier an CB:
Es kommen so oft und viele Fragen bezüglich der RTX 3080 Ampere, ob das verbaute Netzteil die Grafikkarte und den Rest des Systems stemmen kann. Kann man hier nicht mal mit den üblichen CPUs [ es muss ja nicht immer nur der 10900K Prozzi sein!] z.B einen i5 8600K / 9600K /einen i7 9700K oder auch die Ryzen CPUs mit einem Netzteil ab 500 Watt 80+ [Platinium / Gold / Silber] testen, ob es da zu Problemen kommt?

Eigentlich sollten doch die Qualitäts Netzteile ab 500W mit entsprechender Qualifizierung 80+ [Platinium / Gold / Silber] auch eine RTX 3080 Problemlos versorgen können!
 
  • Gefällt mir
Reaktionen: ChuChuRocket und Philanthrop
Ich bin mir nicht sicher ob ich mir die 3080 holen soll oder nicht.
Hab aktuell ne 2080ti drin, da ich aber auf 3440x1440 zocke, würde mir die Karte ein Leistungsplus bringen.
Nicht den riesen Sprung, aber immerhin etwas...

Dann kann ich meine Ti + Radeon VII verkaufen und habe je nach dem das Geld wieder drin.
Hmm...
 
v_ossi schrieb:
Jede Grafikkarte ist effizienter, wenn man sie niedriger taktet und/oder die Spannung manuell runter dreht. Manche sind mehr, manche weniger 'auf Kante genäht', trotzdem kann und sollte man die Karten alle im Auslieferungszustand bewerten. Da haben auch Vega und Radeon VII zurecht ihr Fett wegbekommen.

Ja klar, es steht völlig außer Frage, wie man die Karten bewerten muss (im Stockzustand).
Interessant wäre es trotzdem, war es ja bei Radeon VII und Vega auch.
Wobei ich nicht viel UV Potenzial erwarte, da die Karte auf Kante genäht ist. Vielleicht sind 250 Watt mit der Leistung der Stock Karte möglich, oder 270.
 
KlaraElfer schrieb:
Ja klar, es steht völlig außer Frage, wie man die Karten bewerten muss (im Stockzustand).
Interessant wäre es trotzdem, war es ja bei Radeon VII und Vega auch.
Wobei ich nicht viel UV Potenzial erwarte, da die Karte auf Kante genäht ist. Vielleicht sind 250 Watt mit der Leistung der Stock Karte möglich, oder 270.

Solange du ohne Aufpreis upgraden kannst würde ich es machen.
Mit aufpreis lohnt sich der Sprung nicht wirklich, da würde ich noch 1-2 Generationen warten.
 
Matthias80 schrieb:
ne ne ne
da hat einer immer noch nicht verstanden das es am Speicherinterface liegt, wie viel und welchen VRAM man verbauen kann.
nicht Aufgepasst!
MfG

Nur wer hat denn mit der Pistole hinter NVIDIA gestanden und sie gezwungen das Speicherinterface der 3080 auf 320 Bit zu beschränken? Die 3080 und die 3090 nutzen den gleichen Chip ( GA102), jetzt erzähl mir nicht die könnten nicht auch eine 3080 mit 384 Bit Speicherinterface und somit 12 GByte Speicher produzieren. Würde mich nicht wundern, wenn das Speicherinterface beider Karten völlig identisch ist und bei der 3080 per "Jumper" oder Bios künstlich beschränkt wird
 
  • Gefällt mir
Reaktionen: v_ossi
Xes schrieb:
Je mehr ich darüber nachdenke desto mehr hoffe ich, dass es die von Lenovo geleakte RTX 3070(Ti) mit 16GB auch auf den Endkundenmarkt schafft (und das möglichst zeitnah).
Leistung knapp über der 2080Ti
Das glaubst du doch im Traum nicht. Ich sehe die 3070 nur mit RT/DLSS und in kleinen Auflösungen auf Augenhöhe mit der 2080TI. Für alles andere ist der Speicher zu mickrig angebunden, sind glaub ich knapp 70% mehr Bandbreite bei der 3080.
 
Zuletzt bearbeitet:
Zurück
Oben