Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Wird ja vermutet, AMD hat da radikal was optimiert, so dass eine Bandbreite von 256-bit ausreicht um mit NV mithalten zu können...
Da bin ich mal gespannt. NV war ja bisher der Innovator bei Lösungen für die Reduzierung der Datenmenge, damit der Bus ausreicht (ausgeklügelte Komprimierungs-Algorithmen etc.).
 
t3chn0 schrieb:
Die 3090 FE ist ja deutlich größer und massiver als die 3080. Kennt jemand die genau Dimension des Kühlers, auch im Vergleich zur 3080 FE?
Wie wärs mit einfach auf die Webseite von Nvidia zu schauen? 🤨
Screenshot 2020-09-21 173440.png
 
oemmes schrieb:
Doch, weil er nur von RTX3000 schreibt. Kann ja auch die 3070 gemeint sein.
...und damit wären sie bei High-End raus. ;)
Als ob es bei der Frage, ob man an eine 3070 rankommt, irgendeiner Nachricht von AMD benötigen würde^^

5hred schrieb:
Wird ja vermutet, AMD hat da radikal was optimiert, so dass eine Bandbreite von 256-bit ausreicht um mit NV mithalten zu können...
Da bin ich mal gespannt. NV war ja bisher der Innovator bei Lösungen für die Reduzierung der Datenmenge, damit der Bus ausreicht (ausgeklügelte Komprimierungs-Algorithmen etc.).

Was da gemacht wurde, soll ein 128MB Cache sein, der den Speichercontroller entlastet und wohl vergleichbar mit einem 384bit Interface ohne Cache sein soll.

Und dieser Cache würde auch wunderbar zu den MCM Gerüchten um RDNA3 passen.
Zusätzlich würde er die 505mm² erklären, die der Chip haben soll. Im N7+ müsste er eigentlich kleiner sein, da man eine höhere Dichte erreicht, also eher so um die 430mm², der Rest könnte dann der Cache sein.
Und weiter zusätzlich würde er erklären, wie AMD nun intern offenbar von 60% Perf/Watt statt 50% ausgeht, da man viel beim Speichercontroller sparen kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: oemmes
JohnnyTexas schrieb:
alle NEUEN Netzteile haben NULL Probleme!
Ich war mal so frei das wichtige dran zu BETONEN. ;-)
Ist das 600W Netzeil dann erstmal 6 Jahre alt, dann wäre ich nimmer so sicher ob ich da 533 Watt drauf geben wollen würde.
 
Ich hoffte ja das die 3080FE & die 3090FE den gleichen dicken Kühler bekommen!

Der 2 Slot Kühler von der 3080FE ist halt zu klein!
 
@Pizza!

Ich schreibe doch extra, dass mich die Maße nicht interessieren. Ich möchte wissen welche Lüfter verbaut sind. Daraus kann man ableiten ob die Karte auch so laut wird, wie die 3080 FE, oder leiser, durch größere Lüfter. Dass der Kühlkörper und alle Dimensionen deutlich größer sind, konnte man bereits auf den Bildern sehen.
 
@t3chn0
Ups sorry, der 2. Satz ging direkt durchs Hirn durch ohne anzuhalten. Also die Lüfter sind größer, mind. 100mm. Da die Karte 138mm breit ist, kann man es optisch etwas abschätzen.
Ich warte da auf die Tests von Igor, wegen den 104°C auf dem Speicher. Mal gucken ob die 3090 auch unter der extremen Temperatur leidet.
 
  • Gefällt mir
Reaktionen: t3chn0
t3chn0 schrieb:
Ich möchte wissen welche Lüfter verbaut sind
Dann lies doch, was ich schreibe --> min 100er Propeller. ;) Man weiß es aber offensichtlich noch nicht genau. Bis zu 120 mm passen theoretisch auch.
Mußt halt abwarten bis Tests zu dem Möbel erscheinen.
 
  • Gefällt mir
Reaktionen: t3chn0
rigolyo schrieb:
Ich durchforste gerade reddit und bin auf diesen Thread gestossen:
https://www.reddit.com/r/ZOTAC/comments/iv4j17/3080_trinity_13_behind_fe/

Da empoeren sich die User dass die Zotac 1-3% langsamer ist als die FE und haben auch eine Antwort von einem ZOTAC Community Manager bekommen, wodurch die "Emotionen" noch mehr explodiert sind.
Der Community Manager sagte initial das hier:
"It's by design - it's also a way to seperate our higher end models from the basic Trinity models."

Dies wurde dann aber durch spaetere Edits wieder relativiert von ihm... sagend er wuerde sich beim HQ nach dem Grund erkundigen warum die Karte "langsamer" laeuft :D

Was denkt ihr darueber?
Das wurde ja auch schon früh festgestellt mit dem geringeren Powerlimit der Karte. Und genau das habe ich auch in einem anderen Post vermutet. Irgendwie muss man den Mehrpreis ja rechtfertigen für die Highend Modelle.

Taxxor schrieb:

Nach den ganzen Tests der 3080 sieht das eher so aus als hätte AMD schon ne Ahnung gehabt, dass die Nvidia Karte overhyped ist. Denn die Zahlen waren eben nicht korrekt.
 
Zuletzt bearbeitet:
Ich habe heute Morgen eine E-Mail von Caseking bekommen in der Stand, dass sie nicht wissen wann die Karten wieder auf Lager sind, war wohl eine Stunde zu spät beim bestellen :(
 
5hred schrieb:
Wird ja vermutet, AMD hat da radikal was optimiert, so dass eine Bandbreite von 256-bit ausreicht um mit NV mithalten zu können...

Taxxor schrieb:
Was da gemacht wurde, soll ein 128MB Cache sein, der den Speichercontroller entlastet und wohl vergleichbar mit einem 384bit Interface ohne Cache sein soll.

Und dann hätte die Ati* 16GB GDDR6X, aber ob die da mehr Takt raufknüppeln? Oder am Ende dann nur ~500GB/s Bandbreite und mehr Cache lässt sich das wie ~700 bis ~1000GB/s anfühlen? Und Nvidia verbaut wirklich kein Cache?

Außerdem müsste Ati als weiteres Argument auch das ganze Raytracing-Zeug haben und auch den direkten Zugriff auf die PCI-E-M.2-SSD für "schnellere Wege". Am besten noch G-Sync-Support für Bildschirme, die keine für AMD freigegebene Firmware haben. :daumen:

*Eine Hommage an den alten Namen. ich weiß, dass es AMD ist.
 
  • Gefällt mir
Reaktionen: ViRuZ87
Nach den Real-World-Tests der 3080 ergäben sich mE ja schon etliche Marketing-Angriffspunkte für AMD. Dass da so gar nichts kommt verwundert mich mittlerweile schon ein wenig.

Wird da intern noch diskutiert in welche Richtung man agieren will? So langsam sollten schon mal ein paar handfeste Leaks kommen, die Appetit machen.

Für mich bleibt aber DER Hauptgrund, warum ich nen brauchbaren "Konter" von AMD erwarte, dass NVidia die 3080 dermassen ans Limit getrieben hat. Ich kann mir nicht vorstellen, dass Sie das freiwillig getan haben ...
 
  • Gefällt mir
Reaktionen: Apocalypse, jk1895 und monitorhero
Taxxor schrieb:
Da die 3080 den GA102 Chip nutzt, gehört sie auch mit der 2080ti verglichen(TU102) und nicht mit der 2080(TU104).
Dass Nvidia sie trotzdem mit dem Namen in die gleiche Klasse drücken will, ist reines Marketing um eine größere Performancesteigerung zu verkaufen.

Das ist vergleichbar, als hätte Nvidia bei Turing Release die 2080Ti als 2080 gegen die 1080 gestellt und von 80% Mehrleistung gesprochen.

Is doch wurscht welcher Chip da drin ist.
Die Leistungssteigerung von der 2080 auf die 3080 sind nur 60%! Wie bei jeder neien Grafikkartengeneration also um die 50%. Auch vom Preis her genau gleich und damit vergleichbar!
Ergänzung ()

Kenjiii schrieb:
Ähm nö, ich rede von der damals besten Grafikkarte und den Kosten per Fps, vergleiche sie mit den neuen und den Kosten per Fps, da diese Grafikkarten alle relevant für 4k sind.
Ganz einfach Logik eigtl., das hat nichts mit "mach dir deine Welt wie sie dir gefällt zu tun", wenn man einfach Fakten mathematisch gegenüber setzt.
Argumentiere du lieber in deiner Welt, wie sie dir gefällt.

Du Werbeopfer!
Man bekommt um den selben Preis nun wieder ca. 50% mehr Leistung, wie bei jeder Generation. Außer, dass die Grafikkartenpreise die letzten 10 Jahre massiv gestiegen sind. Die 5870, eine absolute Topkarte, gabs um knapp über 300 Euro!
Seit dem gibts das Leistungsmonopol für Nvidia und damit diese Preise. Ihr freut euch über Abzocke und macht damit nur einige wenige reich.
Und das "neue" Namenschema dient ja wieder nur der verbesserten Abzocke...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: monitorhero

Da kann sich mal wieder nur an den Kopf fassen was bei den Herstellern so in der Birne vor sich geht (oder eben auch nicht).
 
  • Gefällt mir
Reaktionen: Banger und oemmes
bisschen Kostenoptimierung wird doch erlaubt sein ;)
 
Erste 3090 User-Benches:

https://www.overclock.net/threads/official-nvidia-rtx-3090-owners-club.1753930/page-32

Gigabyte 3090 Eagle OC (?) mit Shunt Mod. Karte zieht 550W und bringt nochmals 10% mehr Leistung bei +160W.
Ampere ist so ziemlich am Limit bei der Effizienzkurve, 160W mehr für 10% Leistung ist schon jenseits von gut und böse.

Bechnmark Batttlfield 5:

Benchmark Metro Exodus:

Benchmark Blender BMW:
 
  • Gefällt mir
Reaktionen: monitorhero
So ganz nachvollziehen kann ich die Benches nicht. Wie kann eine Karte mit 20% mehr Cores und Shadern nur 10% schneller sein über das PL. Da könnte man theoretisch die 3080 auf 550Watt bringen und hätte das gleiche Ergebnis und die zusätzlichen Kerne werden ignoriert?

Edit: Oder ich deute die Benches grad falschvund es gibt durch das OC 10% gegenüber Standart-3090 und nicht 3080?
 
KLEMSI schrieb:
Is doch wurscht welcher Chip da drin ist.
Die Leistungssteigerung von der 2080 auf die 3080 sind nur 60%! Wie bei jeder neien Grafikkartengeneration also um die 50%. Auch vom Preis her genau gleich und damit vergleichbar!
KLEMSI schrieb:
Man bekommt um den selben Preis nun wieder ca. 50% mehr Leistung, wie bei jeder Generation.

Da hat CB doch extra ne Tabelle gemacht^^
Es sind 65% zur normalen 2080 und diese 65% sind schon sehr hoch, wenn man sich die anderen Sprünge bei den 80ern so anschaut.
Und da gab es niemals 50% Mehrleistung zum gleichen Preis, hier sind es jetzt 65% für weniger(zumindest auf unsere deutschen Preise bezogen)

Aber trotzdem ist es wichtig, welcher Chip da drin ist, denn da bei den letzten 80ern immer der 104er chip genutzt wurde, sehen die 65% jetzt eben auch nach mehr aus als sie eigentlich sind. Und daher wird die 3080 auch als einzige Karte dieser Gen so einen großen Sprung hinlegen können, da die 3090 hier nur noch ~10% drauflegen kann, weil es der gleiche Chip ist.

Die 1080 hat z.B. 64% auf die 980 hingelegt, obwohl sie auch nur auf dem 104er Chip war, das war noch wirklicher Fortschritt. Dafür war sie aber eben auch bei der UVP 46% teurer als die 980^^
 
Zurück
Oben