Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Pizza! schrieb:
Oder einfach die Platine der 3090 verbauen.

"Einfach" ist da gar nichts, sonst hätte die 3090 mit nur 30W mehr Stromaufnahme, keinen speziellen Kühler mit 3 Slots bekommen. Die zusätzlichen Speicherchips auf der Rückseite einer 3090 wollen letztlich ebenfalls gekühlt werden.
 
Heschel schrieb:
Vielleicht liegt es nur am eigenem Empfinden? Ich habe die Präsentation nicht richtig angeschaut - nur den Test von CB.
Da hatte man aberwitziger weise die Effizienz bei festgelegter Framerate verglichen wodurch die 3080 zwangsläufig bei Teillast läuft, ich bin mir aber nicht ganz sicher ob das Vergleichsmodell eine (längst abgesetzte) 2080 oder eine 2080Ti war.
Vergleicht man die Performance pro Watt @ Standard (Seite 5) bleiben eben nur noch 10% übrig.
 
v_ossi schrieb:
Wird man sehen, wenn die Konsolen da sind und die Spiele mit deren 16GB VRAM im Hinterkopf produziert werden.
Werden sie nicht... 10GB VRAM wird auch dort das maximum sein, was die Entwickler ansprechen werden:

10 GByte davon als Grafikspeicher, 3,5 GByte als System-RAM. Das Betriebssystem der Xbox Series X reserviert sich 2,5 GByte.
Somit sind die Sorgen diesbezüglich unbegründet und das VRAM Budget ist gut gewählt (auf Preis-/Leistung ausgelegt).
Niemandem nutzt brach liegender oder sinnlos vollgestopfter Speicher.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Heschel, Benj, McFritte und 3 andere
mike2105 schrieb:
Da wird viel Geld umsonst den Bach runter gehen. In ein paar Monaten, wenn Nvidia wieder von AMD Druck bekommt, wird es spannend.

Lasst den Mist doch endlich. Was AMD liefern wird, wird sich erst zeigen, wenn man Tests dazu hat. Selbst die 5700XT - Modelle haben nur max. mit der 2070S konkurriert. Nvidia wird immer noch die Nr. 1 bei den High End Karten haben. 3080 und 3090 werden bezüglich Grafikleistung keine Konkurrenz haben.

Es wird die 3070 sein, die man hier angreifen wird - mehr nicht.
Ergänzung ()

Wadenbeisser schrieb:
Da hatte man aberwitziger weise die Effizienz bei festgelegter Framerate verglichen wodurch die 3080 zwangsläufig bei Teillast läuft

Und das ist auch nicht falsch.

Wieviel Watt nimmt sich die Karte bei gegebenem Output.
Wieviel Output (fps) bekommt man, wenn man einen gegeben Input (Watt) hat.
 
paetson schrieb:
Laut dem Testartikel ist der Marktstart ja heut. Hat jemand schon ein Angebot gefunden? Sehe bisher nichts.

15.00 uhr ist verkaufsstart, dann sollte es losgehen.

Heschel schrieb:
Es wird die 3070 sein, die man hier angreifen wird - mehr nicht.
...
Heschel schrieb:
Lasst den Mist doch endlich. Was AMD liefern wird, wird sich erst zeigen, wenn man Tests dazu hat.

:D
 
  • Gefällt mir
Reaktionen: eXe777, simosh, Satan666 und 2 andere
gr3if schrieb:
Why not? Besserer 7nm Prozess, ewig zeit und die 5700xt war ganz nah dran an der 2000er Nvidia Serie was Energieffizienz angeht.
Bei 12nm gegen 7nm war da gar nix nah dran, sondern Lichtjahre entfernt.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Pizza! schrieb:
Nur CB ist realitätsnaher, es zeigt das was 99 % der User an Leistung erwarten können.

Eben, es ist eben viel realitätsnäher durch PCIe 4.0 0,5% an Leistung in 4K hinzuzugewinnen, als ~10% in Full HD, 7% in WQHD und 1 bis 2% in 4K durch eine schnellere CPU (wie etwa Techpowerup).^^

Pizza! schrieb:
All die User die keinen wassergekühlten 5,2 GHz Brecher im System haben.

Hätteste den 10900K oder schon Zen 3 verbaut (geht mit Fluxkompensator) hätteste halt Werte die für alle brauchbar sind.

Pizza! schrieb:
Wenn jetzt mit der mega CPU getestet wird und es kommt raus Beispiel 40% mehr Leistung. Dann kommt User Karl Heinz mit seinem 3600X. Kauft sich die Karte und wundert sich, hey ich hab nur 30% mehr Leistung. Wäre ihm beim CB Test nicht passiert.

Eben, total toll. Als nächstes kommt Franz Ferdinand und baut die 3080 in sein Bulldozer System.

Pizza! schrieb:
So zu testen ist nicht falsch, nur anders.

Falsch nicht, aber so zu tun es sei besser, ist doch hanebüchen.;)

EcOnOmiC schrieb:
mir wird die 2080ti immer Sympathischer, Bucht Preise sind für ca. 500.- angenehm.

Bei 41% mehr Leistung mit RT+ DLSS im CB Rating, wäre ich mir da nicht so sicher, ob die 500 Euro so ein guter Deal sind. Kommt Asynchronous DLSS + RT noch hinzu, steht man wohl bei +50%.
 
Mein Ihr da Seasonic Prime Titanium mit 600W bekommt die 3080 gestemmt? Aufgrund der hohen Qualität hoffe ich das natürlich. Restsystem wäre, 3700x, msi X570, 32gb ram, 2ssd.
 
xexex schrieb:
Eine 3080 mit mehr Speicher
12GB wäre drin gewesen. Vorderseite oben 2 freie Stellen.
:-/
Xes schrieb:
Bei den Temperaturen macht daddeln echt keinen Spaß mehr.
Ab 30-32°C verlasse ich fluchtartig die Wohnung ^^
Hab inzwischen aber eine Klima, die einfach gegendrückt :>
Dore87 schrieb:
Mein Ihr da Seasonic Prime Titanium mit 600W bekommt die 3080 gestemmt?
erstmal ja, bei anspruchsvolleren Sachen werde ich aber lieber erstmal das Powertarget auf ~80-82% herunternehmen, wie CB auch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 0-8-15 User
CrustiCroc schrieb:
Bei 12nm gegen 7nm war da gar nix nah dran, sondern Lichtjahre entfernt.

Wen interessiert der Node? Der kann noch so toll sein, wenn Nvidia ihn nicht nutzt.
Am Ende zählt Produkt A gegen B und da stand AMD eben ganz gut da, was die Effizienz der 5000er Serie gegen Turing angeht.

Mit RDNA2 müssen Sie jetzt zeigen, dass sie auch die Architektur verbessern können auf dem selben (bzw. ähnlichen) Node.
 
  • Gefällt mir
Reaktionen: milliardo
Krautmaster schrieb:
wieso sollte es auch? Die 5700 hat nen guten TSMC 7nm Prozess, die 3080 vergleichsweise alte 10nm Samsung.
Der 8nm Samsung- Prozess, von dem wir hier sprechen, hat eine 18% höhere Packdichte als der 10nm Prozess und der Custom Prozess von nvidia hat zum 8nm Shrink von Samsung noch einmal ein performance- Plus von 10%.

Zumindest sind das die Informationen, die sich im Netz finden. Das wäre also in Summe schon ein merklicher Unterschied zwischen 10nm und 8nm nvidia custom.
 
  • Gefällt mir
Reaktionen: eXe777, KlaraElfer und Krautmaster
Wadenbeisser schrieb:
Wen juckts, der spielte hier angesichts der glatten Zahlen offensichtlich auch keine Rolle und es ändert nichts am Grundproblem.

Es spielt bei einem Effizienzvergleich nie die TDP eine Rolle, sondern immer das was am Messgerät angezeigt wird.
Dein Grundproblem war in dem Falle, dass du die 2080Ti auf 250 Watt heruntermogeln wolltest, damit die 3080 keine bessere Effizienz attestiert bekommt. Ansonsten habe ich noch nie gelesen, dass jemand mittels TDP Angabe die Effizienz ausklamüsern will. :D

Oder Kontext vergessen?
Heschel schrieb:
Bitte? 25 % Effizienssteigerung ggü. dem Vorgänger (2080ti mit 270W vs 3080 mit 270W) ist keine Verbesserung?

Wadenbeisser schrieb:
Damit wäre sie effizienter weil die alte Generation über und die neue untertaktet wird....welch Erkenntnis.

Die alte wird übertaktet? Okay, das ist mir neu.^^ Scheint ja doch nicht so zu sein, wie du sagst.
Aber ja, ging ja um was völlig anderes und spielt keine Rolle. 😆
 
GrooveXT schrieb:
Ansonsten kann ich mir nicht erklären wie Intel mit 14nm immer noch AMD mit 7nm Parolie bieten kann (zumindest in einigen Bereichen).

wo können sie das? Lediglich beim Takt oben raus. Was die Effizienz angeht kannst du ja mal den Skylake X mit den 7nm Ryzen 2 vergleichen ;) DAS macht der Node aus.

@.Sentinel.

okay, aber ich denke zu 7nm TSMC auch ohne + fehlen immernoch ein ganzes Stück. Nicht unsonst fertigt man die Produkte um GA100 bei TSMC.
 
  • Gefällt mir
Reaktionen: .Sentinel.
xexex schrieb:
Nein! Die 3090 benutzt eine andere (teurere) Platine und damit einhergehend auch einen anderen Kühler.

Auf dem PCB der 3080 ist kein Platz dafür.
Anhang anzeigen 967553

Anhang anzeigen 967552

Eine 3080 mit mehr Speicher kann es also erst irgendwann im kommendem Jahr geben oder man baut eine 3080 Ti auf dem PCB der 3090, was extrem unwahrscheinlich ist.
Die 3090 hat beidseitig speicherchips.
Und hat das gleiche PCB.
Ist aber auch schon seit längerem bekannt.
 
GrooveXT schrieb:
Dann erwartet dich aber eine traurige Zukunft. Du wirst es nicht glauben, aber die Karten werden immer mehr Energie verbrauchen, weil irgendwoher muss die Leistung kommen....
Oder auch nicht. Ich denke in absehbarer Zeit werden auf Europäischer Ebene die klimaschädlichen Aspekte der Computer zu Beschränkungs-/Verbotsphantasien führen. Ich sollte mich mal an die hiesigen Abgeordneten wenden (egal welcher Partei). Nächsten Jahr ist Wahljahr und wir müssen die Welt retten.
Das ist nicht spaßig gedacht. Angesichts unseres politischen Klimas sind Beschränkungen nicht unwahrscheinlich.
Man siehe die Empfehlungen von Asus z.B. bezüglich der Netzteile für Ampere.
 
.Sentinel. schrieb:
Werden sie nicht... 10GB VRAM wird auch dort das maximum sein, was die Entwickler ansprechen werden:

Während die PS5 und Xbox GPU aus der SSD optimiert sich alles ziehn wird, wird der PC mit zeimlicher sicherheit software-müll-ports wie schon seit immer bekommen.
Sprich alles in System und VRam auslagern, wozu exotische hardwarefeatures nutzen.
Hier und da wirst natürlich titel geben die von NV "subventioniert" wurden und features mitbringen, in der breiten masse wird aber 4 oder 6GB mehr VRAM nutzlicher wie direktzugriff der GPU auf RAM und SSD bei games wohlgemerkt.
Schon HBCC ist bei diversen programmen nutzlich.
 
Inversible schrieb:
und jetzt mach ich mir doch wieder Gedanken wegen den 10 Gig Vram
dann warte die AMD Karte und die 20GB Version der 3080 ab. Ich denke in 3 Monaten weiß man mehr.
 
Zurück
Oben