Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Cohen schrieb:
Na dann können sich CB, PCGH, usw. ja viel Arbeit ersparen, wenn alle Vergleiche mit 8GB-GPUs (und darunter) hinken. Zukünftig also nur noch mit 10GB aufwärts vergleichen?

Danke für deine Experise. ;-)

Vgl. mit alten 8GB-Grakas machen nur in WQHD Sinn.

btw.
Bzgl. der 3070 lass ich mich mal überraschen. Vllt. hat ja NV die Kompression oder das Speichermanagement verbessert.(RTX IO, sprich direct loading kommt ja erst in nem Jahr für den PC, dann reichts für die neuen Games)
Was natürlich großes Kino ist = Vram-OCen funzt mit der 3080.
 
Ich bin nach den ganzen Tests die ich jetzt über verschiedene Seiten gelesen habe doch froh das ich der Lederjacke nicht alles geglaubt habe und mir schon meine Gedanken zum 8 nm gemacht habe.
MMn hat Samsung Nvidia einen sehr guten Deal angeboten oder TSMC war von den Waferzahlen einfach zu niedrig, vermutlich wird man es nie erfahren, aber ich wage zu behaupten das der neue Prozess nur minimal besser ist als der alte 12 nm. Deshalb auch die volle Brechstange, ansonsten hätten sie ja zugeben müssen das es doch nicht so pralle ist. Natürlich nette gimmicks, aber ich were mal sowas von auf AMD warten.

Am Ende mag es trotzdem eine 3080 (oder gar 90) werden, da meine 1070 schlicht am Ende ist, aber wenn AMD nur halbwegs was anbietet (was mMn nicht soooo schwer sein dürfte, alleine der bessere Fertigungsprozess dürfte ein riesen Vorteil sein) bin ich endlich wieder bei den Roten nach meiner geliebten 7950.

Mfg
PaWel
 
  • Gefällt mir
Reaktionen: simosh
GerryB schrieb:
vs. 5700 in WQHD siehts net so pralle mit der Perf/W aus
wieso sollte es auch? Die 5700 hat nen guten TSMC 7nm Prozess, die 3080 vergleichsweise alte 10nm Samsung.
AMDs neues Topmodell dürfte bei der Effizienz wesentlich besser da stehen - je nachdem wie weit man den Takt treiben musste.
 
  • Gefällt mir
Reaktionen: McTheRipper und cruse
Beteigeuze. schrieb:
ich werde mir niemals mehr eine gpu mit über 250watt verbauch zu legen
im winter gehts noch halbwegs aber im sommer einfach unerträglich
Dann erwartet dich aber eine traurige Zukunft. Du wirst es nicht glauben, aber die Karten werden immer mehr Energie verbrauchen, weil irgendwoher muss die Leistung kommen. Man kann geteilter Meinung darüber sein, ob NV bei der 3080 die letzten 50Watt hätte drauf legen müssen, aber am Ende heisst es trotzdem das der Verbrauch gestiegen ist. So groß werden die Fertigungssprünge auch nicht mehr, dass wir in den nächsten Jahren doppelte Leistung bei gleichem Verbrauch haben werden. Also entweder stellt man die Entwicklung neuer, hochauflösender Monitore und pompöserer Spiele ein oder man wird mit mehr Leistungsaufnahme leben müssen.

Es gab auch mal Zeiten dann hat so ne Highendkarte keine 15 Watt gezogen, die sind aber auch schon ein paar Dekaden her.
 
Tonks schrieb:
AMD muss die 3080 nicht schlagen, nur nah genug drankommen.

Hauptsache die 3080 Ti kommt, damit Nvidia wieder unbestritten vorne liegt.

Davon können wir nur profitieren. Konkurrenz gibt uns gute Karten und/oder gute Preise.

Welche Firma da gewinnt ist mir sowas von egal.
AMD muss nicht mal das. Es reicht vollkommen wenn sie 3060 Performance für 350 Euro bieten, damit haben sie die größte Käuferschicht erreicht.
 
  • Gefällt mir
Reaktionen: McTheRipper, Vitec, Heschel und 2 andere
@Wadenbeisser vor allem der Adapterstecker bei der FE ist ein schlechter Scherz. Ein paar cm länger und ich hätte es nicht ganz so schlimm gefunden.
Werde jetzt doch wenigstens die Customs abwarten und mir dann vielleicht einen 2. Stecker besorgen und den aufschneiden oder es irgendwie unterhalb der Karte verlegen mit irgendwas, was ich mir noch ausdenken muss.
 
Beteigeuze. schrieb:
ich werde mir niemals mehr eine gpu mit über 250watt verbauch zu legen
im winter gehts noch halbwegs aber im sommer einfach unerträglich
In den Sommermonaten Konsolen spielen (bevorzugt Exklusivtitel), das restliche Jahr PC.
An den richtig heißen Tagen mit der Switch im kühlsten Raum oder draußen.

Problem gelöst. ;-)
 
Palomino schrieb:
Da laut es laut Test in keinem Szenario Probleme mit 10GB VRAM gab, wo wäre da der Mehrwert?

es gibt leute die kaufen nicht für 1-2 jahre, sondern für 4-5 jahre und dann werden die 10 gig recht sicher den unterschied machen.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
LoL Gamer die sich wegen Stromverbrauch Gedanken machen :D Das ist wie einen 6L V8 fahren und sich über einen Spritverbrauch von 15L aufregen.

So traurig :D
 
  • Gefällt mir
Reaktionen: Leon_FR und EmanuelB
Inxession schrieb:
Hätte man >900 €uro veranschlagt, wäre die Karte nicht mal ansatzweise zu empfehlen.

Immer abhängig von der Marktlage. Alleine mit den neune Konsolen muss es einen besseres Preisleistungsverhältnis geben.

Inxession schrieb:
Problem ist, overall ist es Thermi 2.0...

Das ist Unsinn. Thermi zog im Vergleich zur Konkurrenz erheblich mehr Strom, war sehr heiß und laut.
Die 3080 ist in allen Punkten moderat und bisher die effizienteste Karte.
Bis auf die Effizienz die AMD etwas besser sein könnte, wird man wohl nicht viel zu fürchten haben, aber man vergleicht hier ausschließlich ohne RT, mit RT ist die Effizienz noch ein Stück besser.

Inxession schrieb:
, laut, saugt Strom ohne Ende ..

Laut? Sehe ich nicht. Und Strom ist immer relativ zur Leistung.

Inxession schrieb:
Aber man kann deutlich sehen. Der Hype um die Karte war unfassbar übertrieben durch die durchweg unter NDA stehenden, schöngefärbten Folien.

Auch falsch. Nimmst du das Digital Foundry Video, stand die 3080 ohne Pathtracing Titel rund 75% über der 2080.
Laut 3D Center Metaanalyse kommt man bei 72% heraus und 32% zur 2080Ti. Passte doch ziemlich.
 
  • Gefällt mir
Reaktionen: Oneplusfan und cruse
Wadenbeisser schrieb:
Egal, nvidia wird schon seinen Grund gehabt haben die Präsentation mit so vielen zweifelhaften Vergleichen zu spicken. ;)

Natürlich will Nvidia seine Karten vermarkten. Das tut AMD, wie auch Intel und Co..

Der Test zeigt aber, dass die 3080 FE effizienter ist - auch wenn sie die letzten Prozentpunkte an Leistung bei der Effizienz verlieren. So lange Nvidia UV nicht unterbindet - sehe ich hier persönlich kein Problem. Diesbezüglich schlage ich auf Nvidia auch nicht ein und unterstelle denen etwas.
 
Krautmaster schrieb:
Die 5700 hat nen guten TSMC 7nm Prozess, die 3080 vergleichsweise alte 10nm Samsung.
AMDs neues Topmodell dürfte bei der Effizienz wesentlich besser da stehen - je nachdem wie weit man den Takt treiben musste.
Wenn uns die letzten CPU Generationen von AMD und Intel eins gelehrt haben, dann das der Fertigungsprozess alleine einfach gar keinen Rückschluss auf irgendwas zulässt. Es muss immer der Verbund zwischen Fertigungsprozess und Architektur gesehen werden. Ansonsten kann ich mir nicht erklären wie Intel mit 14nm immer noch AMD mit 7nm Parolie bieten kann (zumindest in einigen Bereichen).
 
  • Gefällt mir
Reaktionen: Ziggystardust
Sagen wir's mal so... zumindest kommen demnächst so einige Netzteile in ihren besseren Effizienzbereich.
 
  • Gefällt mir
Reaktionen: cruse
cruse schrieb:
Werde jetzt doch wenigstens die Customs abwarten und mir dann vielleicht einen 2. Stecker besorgen und den aufschneiden oder es irgendwie unterhalb der Karte verlegen mit irgendwas, was ich mir noch ausdenken muss.

Von Bequeit, Seasonic und Corsair wurden bereits Kabel für die modularen Netzteile angekündigt und teils für den heutigen Marktstart zugesagt. Der beiliegende Adapter ist letztlich nur eine temporäre Lösung.

Welche Netzteile?
Kompatible Netzteil-Seriender Kabel:
Dark Power Pro 10 and newer / Straight Power 10 and newer / Pure Power 9 and newer / Power Zone / SFX L Power / System Power 9 und neuer
Aktuell gibt es aber noch keine "Freigabe" für einzelne Netzteile.
Aktuelle Empfehlung liegt bei ab 750W.
Nachbestellbar?
Kurzfristig wird es ein Formular auf der Website geben zur Bestellung.
Bei aktuell Bestellten dabei?
Nein da nur für die FE von Nvidia notwendig.
Ab wann?
Innerhalb der nächsten 2 Wochen.
https://www.computerbase.de/forum/threads/12pin-anschluss-fuer-nvidia-founders-edition.1966501/
https://www.corsair.com/de/de/blog/prepare-for-nvidia-30-series
https://www.computerbase.de/news/gr...seasonic-12-pin-adapter-8-pin-steckern.73257/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cruse
Krautmaster schrieb:
wieso sollte es auch? Die 5700 hat nen guten TSMC 7nm Prozess, die 3080 vergleichsweise alte 10nm Samsung.
AMDs neues Topmodell dürfte bei der Effizienz wesentlich besser da stehen - je nachdem wie weit man den Takt treiben musste.
NV hat nen brandneuen 8nm-Prozess der dürfte net schlechter als der alte 7nm sein.
aber
7nm+ wird nochmal ne andere Liga.
 
Zurück
Oben