Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Kenjiii schrieb:
Bevor man solche unqualifizierten Aussagen trifft, sollte man evtl. erstmal richtig hinhören bei der Präsentation und dann anschließend auch dazu im Stande sein, die Benchmarktests richtig zu interpretieren.

Naja Huang sprach aber auch von x1.9 fach erhöhter Effizienz. Wo soll die denn nun sein? 10% effizienter als Turing ist x1.1 und weit entfernt von x1.9
 
  • Gefällt mir
Reaktionen: McTheRipper, Dai6oro und Piledriver
5ive7even schrieb:
NVIDIA empfiehlt ein 750w Netzteil. Blöderweise habe ich jetzt vor kurzem einen Rechner zusammengestellt bzw gekauft:

Bequiet Dark pro 11 650 Watt
Ryzen 7 3700x (Stock)
4x 8GB G.Skill Trident Z RGB DDR4-3200 DIMM CL14
2x SATA SSDs
MSI MEG X570 Unify

Meint ihr, dass die 3080 noch passen würde?

Teste es doch einfach aus. Ich denke aber schon das es passt.
 
Lustig, dass die Leaks auf 65% Performance-Uplift ggue. der Geforce 2080 hingedeutet haben, und das ist auch genau das Ergebnis von Computerbase.

Die offizielle Vorkuendigung von Nvidia hingegen deutete eher auf 80% hin... und im Nachhinein ist es doch eher unverstaendlich, warum sie das getan haben? Denn so erscheinen die 65% in Relation "schlechter" als die ankuendigten 80%, statt besser als die Uplifts der letzten Generationen...
 
m.Kobold schrieb:
Im schnitt nur 20% schneller als meine 2080Ti, ich wußte es doch... und die Hypeblase ist geplatzt.
Nein, die 3090 ist ja eher der Nachfolger der 2080ti, und die wird ja noch einmal schneller sein, so dass am Ende auch 40% Mehrperformance herauskommen können. Das wird der Test hierzu bald zeigen.

Die 3080 muss man eigentlich mit der alten 2080 vergleichen.
Und da gibt es schon einen ordentlichen Leistungssprung, der wie die Redaktion richtig schreibt mit Pascal vergleichbar ist.

Damit ist der Test sehr dicht an Nvidias Einschätzung dran.

Einzig den Verbrauch könnte man kritisieren, wo sich Nvidia für 50 Watt mehr nur 4% zusätzlich an Leistung erkauft, und 10 GB VRAM die vielleicht zukünftig knapp werden könnten.
 
Hallo zusammen,

@ Rockstar85
Rockstar85 schrieb:
Wenn Nvidia für 4% wirklich 50W TDP Opfert, dann dürfte Big Navi die 3080 erreichen.
Ich bin mir auch relativ sicher, daß AMD zumindest in den Hemisphären der 3080 was auf der Pfanne hat. Meine Hoffnung ist ja, daß sie ähnlich schnell, aber deutlich stromsparender und somit weniger Abwärme entwickeln. Das Ganze mit mehr VRam und das wäre mehr als eine Alternative. Der Schluß liegt auch wegen der Preisgestaltung von Nvidia nahe. Ohne Grund haben die nicht um 100 Dollar günstiger die FE in den Markt platziert. Zu verschenken hatte gerade Nvidia noch nie was.

Persönlich geht mir das mit den Strombedarfseckdaten bei Nvidia in die völlig falsche Richtung. Und gerade daß sie das so in Kauf nehmen, läßt für mich umso mehr Hoffen, daß AMD einen großen Schritt nach vorne auch bei den GPU`s gemacht hat bzw. machen wird.

So long...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
Danke für den Test!
wie schon geahnt das Teil ist mit 150fps perfekt für Full HD. Für 240Hz Monitore noch weit weg^^
 
mylight schrieb:
Mich wundert es ein wenig das des Spulenfiepen bei einer 700€ Karte hier so wenig Beachtung findet und dann gibts immer noch Leute die die FE kaufen wollen, wie kann das sein?
Imho Spulenfiepen in dieser Preisregion inakzeptabel.

Für gewöhnlich hab ich beim Zocken nen Headset auf, das Teil könnte auch Musik machen es wäre mir egal höre ich sowieso nicht
 
5ive7even schrieb:
NVIDIA empfiehlt ein 750w Netzteil. Blöderweise habe ich jetzt vor kurzem einen Rechner zusammengestellt bzw gekauft:

Bequiet Dark pro 11 650 Watt
MSI MEG X570 Unify
Ryzen 7 3700x (Stock)
4x 8GB G.Skill Trident Z RGB DDR4-3200 DIMM CL14
2x SATA SSDs

Meint ihr, dass die 3080 noch passen würde?
Schaue Dir mal das Video an:
 
  • Gefällt mir
Reaktionen: 5ive7even und Luxmanl525
Trotz IPC-Steigerungen von bis zu 10%, trotz dem Mehr an Bandbreite? AMD selbst gibt in 4K 5700xt x 2.23 an.
 
matty2580 schrieb:
Nein, die 3090 ist ja eher der Nachfolger der 2080ti, und die wird ja noch einmal schneller sein, so dass am Ende auch 40% Mehrperformance herauskommen können.

Die 3090 ist aber auch nochmal eine Ecke teurer als es die 2080 TI war. Was wären das dann? Etwa 15% Aufpreis zur UVP für 40 % Mehrleistung (wenn sie es denn erreicht)?
 
SPECIALIZED- schrieb:
Nicht in Full HD und WQHD...
Wer in WQHD auf keine CPU Limits trifft, nutzt nicht alle Slider auf Anschlag und kein Reshade etc.

Würde gerne sehen wie die 3080 in Metro Exodus auf Ultra Settings und RTX unter 1440p ingame dreistellige avg fps als völliges Utopia abschreiben muss.

Auch das "Ampere Flaggschiff" muss dort fps bluten.
 
Hat es gefehlt oder habe ich es übersehen?
1. wurde die 3900 XT CPU als möglicher Bottleneck besprochen? Wird ein Vergleichstest mit einem 10900K gemacht?
2. gab es eine Empfehlung wie stark das Netzteil sein sollte? Reichen 650 Watt als Neuanschaffung?
 
  • Gefällt mir
Reaktionen: Laphonso
duskstalker schrieb:
die tabelle ist gut, aber auch ein bisschen irreführend, denn der chip steht nicht dabei.

die 980 war der 04er chip, die 980 ti der 02er chip, die 1080 der 04er chip, die 1080ti der 02er chip, die 2080 der 04er chip, die 2080 ti der 02er chip ABER die 3080 ist der 02er chip und die 3090 ebenfalls der 02er chip.

wenn man jetzt die 3080 mit der 2080 vergleicht, kommt ein enormes leistungsplus raus. das einzige, was an der 3080 eine richtige "80"er ist, ist erfreulicherweise der preis. der chip ist aber der große 02er, der in den vergangen generationen nur in den 80ti und titan karten zum einsatz kam.

daher muss man für einen richtigen generationenvergleich die 3080 eigentlich mit der 2080ti vergleichen - beides mal die leicht beschnittene "non titan" version des 02er chips.

dann sieht die performance mit grob 30% nicht mehr so viel besser aus als mit turing - aber der preis ist trotzdem gut.

Wieso soll man die Chips vergleichen und nicht die Leistungsklassen?
 
SPECIALIZED- schrieb:
Für gewöhnlich hab ich beim Zocken nen Headset auf, das Teil könnte auch Musik machen es wäre mir egal höre ich sowieso nicht
Je nach Gehör würd ich sagen hört man Lüfter und Fiepen schon auch deutlich durch nen Kopfhörer, kommt drauf an. Aber das Teil fiept ja nur bei hohen 3-stelligen FPS-Werten, mir wärs egal. Wichtiger wäre es zu wissen, ob das Teil annehmbar kühl bleibt bei 1500-1700rpm oder so, was zu einer erträglichen Lautstärke führt.
 
Spulenfiepen bei 200 FPS juckt auch keinen. Bei den FPS zockt nur die Ausnahme. Würde sogar eher nen Limiter reinnehmen.
 
  • Gefällt mir
Reaktionen: Puscha, aklaa und xexex
jk1895 schrieb:
Hat es gefehlt oder habe ich es übersehen?
1. wurde die 3900 XT CPU als möglicher Bottleneck besprochen? Wird ein Vergleichstest mit einem 10900K gemacht?

Würde mich auch interessieren wo das stehen soll...
 
Brink_01 schrieb:
Also wenn man z.B. zwei 80 Plus Platinum Netzteile hat, unterscheiden die sich dennoch in der Effizienz wenn die eine unterschiedliche Watt Anzahl haben?

Die Effizienzkurve wird sich nicht relevant unterscheiden, aber der problematische Bereich unter 20% Last reicht bei einem 1000W Netzteil logischerweise bis 200W. Wenn der Rechner die meiste Zeit mit wenig Last läuft, verschwendet man Energie.

Umgekehrt ist es aber wenn du den Rechner nur zum Spielen benutzt. Dann wird möglicherweise das stärkere Netzteil im effizienteren Bereich genutzt.

Je höher die Qualität des Netzteils, desto weniger relevant ist diese Kalkulation. Netzteile nach 80 Plus Titanium sind selbst noch bei 10% Last effizient.
 
  • Gefällt mir
Reaktionen: Brink_01
aldaric schrieb:
Naja Huang sprach aber auch von x1.9 fach erhöhter Effizienz. Wo soll die denn nun sein? 10% effizienter als Turing ist x1.1 und weit entfernt von x1.9
Naja, vielleicht in diesen Fällen bei mehr als doppelter Leistung und nur etwas mehr Verbrauch? :p
3080.jpg
 
Und die Enttäuschung wird noch größer, wenn man die neue RTX3080 mit einer CPU unter einem Ryzen 3700x paart und in Full-HD spielt. Die RTX3080 ist eher eine 4K Karte und braucht eigentlich eine CPU die stärker als ein 10900K ist (5GHz+ OC). Es ist keine Full-HD Grafikkarte!

Der Karte hätten 270W besser gestanden wie man im Test sehen kann. DIe RTX3080 ist nicht optimal, aber wirklich schlecht reden muss man sie auch nicht.

Nvidia will wohl mit den 700€, so viele Karten wie möglich an den Mann bringen, bevor AMD Oktober/November liefert. Wer eine RTX3080 schon bezahlt hat, wird nicht mal eben auf eine AMD RX6000er wechseln, auch wenn diese schneller sein sollte.

Es wird spannend was AMD mit dem Zen3 und der RX6000 nächsten Monat bringt.
 
  • Gefällt mir
Reaktionen: Daniel D.
Zurück
Oben