Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Pizza! schrieb:
Es ist die Speicheranbindung, deswegen 10GB. Für 12 GB müsste es die Anbindung einer 3090 sein.
Was wiederum durch das Design der GPU kommt. Wenn man es unpassend anbindet, passiert das was mit der GTX 970 war, ein Teil wäre extrem langsam dran.

Dann hätte man wegen der Abgrenzung die 3090 gleich mit einem 448er-SI entwickeln müssen.

3060 (TI/S) -> 8GB -> 256 Bit
3070 (TI/S) -> 10GB -> 320 Bit
3080 (S) -> 12GB -> 384 Bit
3090 -> 14/28GB -> 448 Bit

Aber da die Chips jetzt nicht so sind, müssen die mal sich ranhalten und Doppelspeicher draufklatschen, mit 2GB-Chips und beim Referenzdesign vom Werk aus WL-Pads auf der Platinenrückseite installieren.
:stock:
 
Pizza! schrieb:
Von dir hätte ich erwartet es zu wissen ;)
Es ist die Speicheranbindung, deswegen 10GB. Für 12 GB müsste es die Anbindung einer 3090 sein.
Was wiederum durch das Design der GPU kommt. Wenn man es unpassend anbindet, passiert das was mit der GTX 970 war, ein Teil wäre extrem langsam dran.
Ich bin alt und habe zudem andere, wichtigere Interessen ;)
Ergänzung ()

Pizza! schrieb:
Die 60 Watt beziehen sich auf die 24 GB der 3090.
Somit 25 Watt für die 3080 und theoretische 50 Watt für die theoretische 3080 20GB.
Chips mit doppelter Datendichte brauchen nicht automatisch doppelt soviel Leistung ;)
Ergänzung ()

Pizza! schrieb:
Weiter abwarten, die 3090 wird nicht so geil wie ich das mal gehofft habe. Da wäre mir eine zügig erscheinende 3080 mit 20 GB recht. Vielleicht überrascht auch AMD mir was sehr gutem.
Wenn die Meldungen stimmen, sogar ziemlich ungeil. Dann noch +800€ Aufpreis... :(
Zudem bin ich auf die RAM-Temperaturen gespannt, da beidseitig bestückt
104°C bei der 3080 liegt zwar noch innerhalb der Spec. Aber ich finde das schon viel zu hoch. Zumal die Spec nichts über die Haltbarkeit bei so hohen Temperaturen aussagt
 
Zuletzt bearbeitet:
Esenel schrieb:
Der 3900X ist einfach zu lahm für die Karte in 1440p und 1080p :-D

Aber wollte ja bis gestern keiner glauben :-P

Weil der 10900k ja schnell genug für die 3080 in 1080p ist. :freak:

Aber ja, die Zielgruppe 1080p gaming mit 3080/3090 ist jetzt natürlich angeschmiert. Das ist natürlich ein Prob.
 
  • Gefällt mir
Reaktionen: Windell
Es wird Spiele geben da limitiert der 10900k nicht in 1080p und in anderen schon.
Er wird aber immer weitaus mehr FPS liefern.

Hab ich ja in 1440p bei PCGH schon aufgezeigt.
Wenn eine 2080Ti die FPS der 3090 schafft weil der 3900X limitiert...
 
  • Gefällt mir
Reaktionen: t3chn0, .Sentinel. und Taxxor
Uh, plötzlich so differenziert! Geht das nicht einfach von Anfang an so?

Du bist doch so pro 720p CPU Tests. Warum dann so pro 1080p im High end GPU test?

Gilt da nicht das gleiche?
 
@Ned Flanders
Ich weiß wirklich nicht was dir über die Leber gelaufen ist, aber seit Monaten ists wirklich schlimm mit dir.
Ich beantworte dir die Frage natürlich noch, weil wir zuvor eigentlich ein gutes miteinander auskommen hatten, aber auf Dauer vergeht mir da auch die Lust.

CPU Tests: 720p
GPU Tests: 1080p, 1440p & 4k als wichtigste Auflösungen.
 
  • Gefällt mir
Reaktionen: Schmickey
Esenel schrieb:
Ich weiß wirklich nicht was dir über die Leber gelaufen ist, aber seit Monaten ists wirklich schlimm mit dir.

Mir ist nicht ganz klar was daran schlimm ist wenn man einfach mal den Spiegel in den Raum stellt, aber eventuell hats ja was mit meinem Fanboiism zu tun ;-) Mir fehlt einfach das Enzym zur Objektivität ;-)

Das Ding ist: Du kannst die 3090 nicht zuverlässig in 1080p messen. Es gibt keine CPUs die dazu schnell genug sind. Klar findest du ein bestimmtes Game bzw eine spezielle Szene in einem bestimmten Game, das findest du mit dem 3900XT auch. Du findest so vieleicht die schnellste CPU raus, aber das bleibt ein CPU Benchmark, denn genau so testet man seit Jahren CPUs. 1080p + High End GPU ist der defacto Standard für CPU Tests. Und Du argumentierst hier das ein 3900x zu langsam für einen 1080p + HE GPU Test ist. Natürlich ist er das. Genauso wie eben der 10900k auch und sicherlich genauso Zen3 und Rocket Lake etc. pp.

Der Ton im Forum war zumindest aus meiner Warte erheblich angenehmer bevor ihr auf eure 'Make Benchmarks Great Again' Mission gegangen seid und jeden Thread damit aggroisiert. Das überschneidet sich zeitlich eventuell damit, dass es mit mir schlimm geworden ist. maybe.

Was am Ende hängen bleibt ist, dass ich mir auf 3D Center die Metaanalyse mit X Reviews anschauen kann und kaum Streuung finde. Deswegen nervt der Aufriss darum einfach.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sennox, Sophisto und Heschel
Ned Flanders schrieb:
Du bist doch so pro 720p CPU Tests. Warum dann so pro 1080p im High end GPU test?

Gilt da nicht das gleiche?
Also man sollte meinen, dass du mittlerweile lange genug mit liest und mit kommentierst, um die Antwort auch selbst zu wissen.

Der CPU ist die Auflösung egal, darum so weit es geht runter damit.

Der GPU ist die Auflösung nicht egal, darum die meist genutzten Auflösungen testen.


Und die Frage ob der 10900K maxed out schnell genug für 1080p und 1440p wäre, ist auch irrelevant, da er, solange er schneller als der 3900X ist, trotzdem die bessere Wahl ist.

Wenn man im 1440p GPU Test keine zu 100% ausgelastete RTX 3080 haben kann, dann hat man doch lieber eine zu 95% ausgelastete 3080 mit dem Intel als eine zu 85% ausgelastete 3080 mit dem AMD.


Davon ab liegt der Unterschied zur 2080Ti in 4K bei 31% und in 1080p bei 21%.
Die Leistungsdifferenz zwischen 3900X und 10900K ist in 1080p - selbst @ Stock - schon höher als dieser Unterschied, da kann man davon ausgehen, dass ein OC 10900K mit einer 3080 auch in 1080p klar kommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Das ist doch voll das Gelaber überall, die 3090 sei der Nachfolger der Titan etc. Ist sie ja ganz offensichtlich nicht, sonst würde sie nicht nicht Titan heißen.

Nmn sollte die 3080 die eigentliche 3090 werden, dann hat man bei NV aber Muffensaussen bekommen und lieber die save Route gewählt, falls AMD was in Petto haben sollte.

Folglich wurde die 3080 schnell etwas billiger eingepreist und Speicher weggenommen und der völlig aus dem Stromverbrauchsruder laufenden 3090 extra viel Speicher gegeben, um genau das zu kaschieren.

Jetzt so zu tun, als seien die 11% Mehrleistung ja voll ok wegen der ach so hohen Produktivitätsleistung, die die 3080 auch hätte bei doppeltem Speicher, ist doch lächerlich. NV hat's smöcht geschafft, die 3090 von der Leistung her attraktiv zu machen, sie haben sich nur gezwungen gefühlt, die 3080 sehr niedrigpreisig bei hoher Leistung einzuordnen.
 
Esenel schrieb:
Da ich noch keine besitze kann ich noch nicht sagen um wie viel schneller der 10900K hier sein wird.

Die 3090 ist für mind. 1440p und aufwärts gedacht. Die 3090 kauft man nicht, um auf 1080p oder 720p zu zocken - schon lange nicht bei min. Einstellungen. Ist genau so ein Schwachsinn, wenn man mit einer 2080ti in 4k einen CPU-Test als Messlatte nimmt.

https://www.techspot.com/article/2103-amd-vs-intel-rtx-3080/

3950 10900k.jpg

3950X und 10900k Stock mit 3200 CL14 RAM - RTX3080

3950 10900k.jpg

3950X und 10900k mit 3200MHz CL14 RAM - RTX3080

Überarbeitet.jpg

Um was streitet ihr euch jetzt? Es ist ein Grafikkarten-Test und kein CPU-Test. Mit max. Grafikeinstellung hat man mit einer 3080 einen Unterschied von 8,61 % (laut Techspot) zwischen 3950X und 10900k (im besagtem Parkour - andere Parkours können größere, aber auch kleinere Unterschiede vorweisen!).

Sicherlich wird der 10900k im CPU-Test später wieder bei CB und Co. etwas zulegen - nur vergisst Du, dass die Ryzen auch manchmal im GPU-Limit stecken. Sicherlich wird der 10900k in 1080p etwas zulegen - aber auch nicht signifikant (und ja, beide können noch per OC ihre Leistung steigern!).

Im obrerem Test zeigt sich, dass beide CPUs ihre Leistung beim Wechsel von einer 2080ti auf eine 3080 steigern konnten. Der 10900k um 16,41 % in 1080p und der 3950X um 14,84 % in 1080p (du vergisst, dass nicht nur der 10900k im GPU-Bottleneck hängen kann!) - dabei war der 10900k nur 8,61 % ggü. dem 3950X im Vorteil (max. Settings in 1080p).

Wären die Ryzen so im Nachteil (CPU-Limit), würde man spätestens in 1440p eine geringere AVG-fps Steigerung erfahren - aber nein der 10900k hat eine Steigerung von 23,13 % in 1440p bei 3080 ggü. der 2080ti und der 3950X eine Steigerung von 21,99 % in 1440p bei 3080 ggü. der 2080ti!

Je nach Parkour wird sich der Wert bei 1080p etwas ändern (man kann ja nur AMD-Game-Lieblinge nehmen oder Intel-Lieblinge, welche die andere CPU zumindest nicht besser stellen). Nur wird es in allen Parkours kaum Unterschiede aufzeigen. Egal ob Intel oder AMD.

Hier geht es um einen GPU-Test. Wenn in enigen Monaten Zen3 released wird, wird es einen neuen CPU-Test mit der 3090 geben und dann wird man sehen, wo der 10900k und 3900X bei 1080p stehen werden.

PS:

Ich habt doch ständig von 720p geredet - da habt ihr euren Test doch, wie schnell der 10900k ggü. einem 3900x ist.

https://www.techpowerup.com/review/intel-core-i9-10900k/14.html

Wozu wird hier wieder dieses Thema aufgemacht? Ja, ich hätte mir auch gewünscht, dass man es auch mit einem 10900k testen würde, dann hätte ich mir die Arbeit ersparen können (wobei es auch irgendwie Spass macht).
 
  • Gefällt mir
Reaktionen: Sennox, Pizza! und Windell
Esenel schrieb:
Es wird Spiele geben da limitiert der 10900k nicht in 1080p und in anderen schon.
Er wird aber immer weitaus mehr FPS liefern.

Keine Ahnung wieso du dich jetzt so sehr an deiner Prognose aufgeilst, aber die Intel CPUs in Spielen fast immer schneller sind als die AMD Prozessoren, war klar. Daran hat sich nix geändert, die Stärken der Ryzen CPUs liegen woanders.
Dennoch bieten die AMD CPUs mehr als genug FPS zum Zocken.

@Heschel hat es schon aufgeführt.
 
  • Gefällt mir
Reaktionen: Sennox
Snoopy69 schrieb:
ist ein kleiner Design-Fail...
Snoopy69 schrieb:
So, wie es jetzt ist, sieht es jedenfalls nicht perfekt aus...

Zwischen "kleiner Fail" (Note 5+) und "nicht perfekt" (Note 2+) sind mMn Welten !
Ich find sie sieht gut aus. Weit weg von nem Fail
 
Zuletzt bearbeitet:
Windell schrieb:
Keine Ahnung wieso du dich jetzt so sehr an deiner Prognose aufgeilst, aber die Intel CPUs in Spielen fast immer schneller sind als die AMD Prozessoren, war klar. Daran hat sich nix geändert, die Stärken der Ryzen CPUs liegen woanders.
Dennoch bieten die AMD CPUs mehr als genug FPS zum Zocken.

@Heschel hat es schon aufgeführt.
Und diese alte Weisheit wird sich vermutlich in Kürze -zumindest für eine Generation - ändern. Wenn die Prognosen nur halbwegs erreicht werden, sollte AMD auch die Gaming-Krone ergattern können.
 
Zurück
Oben