Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Vendetta schrieb:
In den USA wurden nur sehr wenige Händler überhaupt beliefert, und da oft nur 1-2 karten gesamt von allen Herstellern.

Das war ein Paperlaunch wie er im Buche steht, sehr peinlich aber wahrscheinlich Absicht.
Quelle? oder lediglich eine Behauptung?
 
  • Gefällt mir
Reaktionen: Oneplusfan
600W - 650W Power Supplies im Test vs. RTX 3080 – Surprising Results:


ALLE Netzteile haben NULL Probleme!


Mit mit einem Intel i9 10900K - 10 Kerne@ 5,1 GHz - welcher massig Strom verballert!
Screenshot (2394).png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: McFritte, CrustiCroc, KenshiHH und 4 andere
JohnnyTexas schrieb:
600W - 650W Power Supplies im Test vs. RTX 3080 – Surprising Results:
Glaube auch nicht, dass mein 550W NT mit i7 8700K Probleme machen wird, für meine 1070Ti wurden auch damals 650W empfohlen, unter Volllast komm ich auf 330W(Karte stark übertaktet und 120% Powertarget), nur hab ich die nie, denn im Gaming schluckt die CPU nie soviel(280-290W schnitt an der Dose) und außerhalb des Gamings dreht die Grafikkarte Däumchen(130W). Die 3080 schluckt ~120W mehr, sollte man aber eh auf 85% Powertarget runtersetzen wegen der Effizienz.

Nvidia sichert sich halt gerne ab, so ein 750W Chinaböller kann dir schlimmsten Falls schlechtere Ergebnisse bescheren als ein gutes 600W NT.
 
Vendetta schrieb:
Ne, die haben 15k für die ganze Welt produziert

Da würde ich mich auch für die Quelle interessieren.

Vendetta schrieb:
Ich konnte meine 1070Ti zum launch bequem von 20 shops aussuchen da gab es auch direkt 5 verschiedene zur Wahl

Absurder Vergleich, die 1070ti kam wann raus? 1 Jahr nach Launch von Pascal? Natürlich gabs zu dem Zeitpunkt zum einen genug kastrierte Chips der 1080er, zum anderen war der Markt quasi gesättigt, weil halt jeder ne 1070 oder 1080 hatte. Die Custom Hersteller konnten zudem einfach ihre alten Designs übernehmen, weil es 1 zu 1 eine "alte" Karte war.

Damit will ich nicht sagen, dass an deinem Punkt nix dran ist, nur der Vergleich ist hier einfach fehlerhaft. Die 1080 bietet sich da doch an.

Ich muss sagen, dass ich den Kühler der 3080 sehr gerne auf einer Karte hätte, die günstiger ist und weniger Strom verbraucht. Für Mini ITX wäre z.B. eine 3070/3060 oder AMD Äquivalent perfekt. Keine Temp. Probleme mit der Karte + geringe Lautstärke (da weniger Verbrauch), weniger Aufheizen der anderen Komponenten, Teilabführung der Hitze nach draußen, kompakte Ausmaße.
Leider kriegt man bei der 3070 nur den regulären Kühler. Hitze im Case ist das letzte was man bei ITX brauchen kann.
 
  • Gefällt mir
Reaktionen: captaincapri
Ich durchforste gerade reddit und bin auf diesen Thread gestossen:
https://www.reddit.com/r/ZOTAC/comments/iv4j17/3080_trinity_13_behind_fe/

Da empoeren sich die User dass die Zotac 1-3% langsamer ist als die FE und haben auch eine Antwort von einem ZOTAC Community Manager bekommen, wodurch die "Emotionen" noch mehr explodiert sind.
Der Community Manager sagte initial das hier:
"It's by design - it's also a way to seperate our higher end models from the basic Trinity models."

Dies wurde dann aber durch spaetere Edits wieder relativiert von ihm... sagend er wuerde sich beim HQ nach dem Grund erkundigen warum die Karte "langsamer" laeuft :D

Was denkt ihr darueber?
 
  • Gefällt mir
Reaktionen: monitorhero und Ashnacl
Ich werde meine ZOTAC auch NOCH weiter untervolten, scheiß auf 1-3%, wenn man dann 70W-100W spart & die Karte noch leiser wird, wie sie eh schon ist!

Meine MSI GTX 1080 Gaming X, läuft untervoltet mit 1150rpm mit 4K Last!
Ich hoffe da bekomme ich die Zotac auch hin. Die ja normal mit 1520rpm läuft & 32DB läuft.

Laut dem Review:
https://www.techpowerup.com/review/zotac-geforce-rtx-3080-trinity/31.html
Screenshot (2395).png


Und das Beste ist ja, dass die Karte eine Effizienzexplosion hinlegt, je tiefer man geht!


Wegen 1-3%, ein Sturm im Wasserglass zu veranstalten, ist schon grenzwertig!
Hauptsache man kann sich echauffieren, egal über was!

Andere nennen das Messgenauigkeit!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: McFritte, M3930, Captain Mumpitz und 2 andere
Vendetta schrieb:
Glaube auch nicht, dass mein 550W NT mit i7 8700K Probleme machen wird,
Es geht ja auch nicht um die "Grundlast", sondern um die ständig auftretenden Spitzen im Bereich von deutlich über 400 Watt, die das NT dann aussteigen lassen.

Wenn du dann grade schön am daddeln bist und dir steigt jedesmal das NT aus, wird dir das vermutlich ziemlich schnell auf den Sack gehen.
 
JohnnyTexas schrieb:
Wegen 1-3%, ein Sturm im Wasserglass zu veranstalten, ist schon grenzwertig!
Hauptsache man kann sich echauffieren, egal über was!
Modell XY ist 4% schneller bei nur 200€ Aufpreis!

Wie sagt man so schön: wenn man keine Probleme hat, schafft man sich eben welche.
 
  • Gefällt mir
Reaktionen: McFritte und JohnnyTexas
Je mehr man über über die 3080 erfährt desto klarer wird das Bild. Es ist keine eierlegende Wollmilchsau. Also so langsam interessiert mich wirklich was Nvidia dazu veranlasst hat die Brechstange hervorzuholen. Es scheint als hätte man sich mit dem Partner Samsung und GDDRX6 verschätzt und wollte ursprüngliche gar nicht so hoch springen. Denn genau das ist es was Nvidia in der Vergangenheit so meisterlich umgesetzt hat. Ein gutes Pferd springt nur so hoch wie es muss.

Das hier ist jedenfalls alles andere als smart:

https://www.pcgameshardware.de/Gefo...ews/GDDR6X-100-Grad-heiss-Temperatur-1358476/
 
  • Gefällt mir
Reaktionen: monitorhero und catch 22
CrustiCroc schrieb:
Im Flight Simulator 2020 hatte ich ein mal nen Freeze.
Konnte aber zum Desktop tabben. Obs am Netzteil lag, keine Ahnung.
Hatte ich mit der Ventus 3x anfangs auch 2-3 mal bei Doom Eternal. Hab dann per DDU im abgesicherten Modus jegliche alte Treiberreste entfernt und die aktuellen Treiber neuinstalliert. Seitdem keine Mucken mehr, trotz ebenfalls 600W Netzteil.
 
Kann mich bitte kurz jemand abholen?

Die 3090 FE ist ja deutlich größer und massiver als die 3080. Kennt jemand die genau Dimension des Kühlers, auch im Vergleich zur 3080 FE? Mir geht es vor allem um die Frage welche Lüfter nun eingesetzt werden im Vergleich zur 3080.

Die Abmessungen selbst sind mir egal, da mein Case ein Gigant ist ^^.
 
oemmes schrieb:
Wenn sie was auf der Pfanne hätten, hätte einer von deren Typen, die ja auch in den sozialen Medien rumturnen, bei Reddit oder Twitter irgend was geposted wie "Na und?" und nen Smiley dazu.
Du meinst sowas?
1600700576864.png


oemmes schrieb:
Und erfahrungsgemäß braucht AMD min ein halbes Jahr um stabile Treiber zu liefern.
Erfahrungsgemäß? Der Fall war jetzt bei der 5700XT, die Jahre vorher gab es auch nie größere Probleme mit den Treibern, zumindest nicht mehr als bei Nvidia auch. Und die 5700XT war der Switch zu ner komplett neuen Architektur, RDNA2 dürfte es da leichter haben.
 
  • Gefällt mir
Reaktionen: oemmes und ZeroStrat
Und, hat hier schon wer die 3080 FE und kann ein paar Tonaufnahmen machen?

Auf YT taucht einfach nichts (neues) auf.
Nur dieses alte Video kann ich finden, wo sie ziemlich laut ist. Und das eine von PietSmiet wo sie wieder arg leise rüberkommt.

Wurde das mit der hohen Speichertemperatur auch schon von anderen bestätigt? Also das was dieser ominöse Igor in einem Video aufgezeigt hat.
 
BATOUsan schrieb:

Ich hätte in der Situation auch zurückgeschickt. Knappheit hin oder her, dann halt 2 Monate mit der alten Karte weiter rumgurken.

JohnnyTexas schrieb:
ALLE Netzteile haben NULL Probleme!

Vendetta schrieb:
Glaube auch nicht, dass mein 550W NT mit i7 8700K Probleme machen wird ...

Mir wäre es genehm, wenn mein Seasonic ( <3 ) G-550 die auch schafft. Sollte Könnte eigentlich sogar. Meine Krüppel lasten dank schlechtem Multicore-Support den 8700K eh nicht voll aus, der dann nicht ganz so viel säuft, auch wenn der mit 4,7GHz (HT an) oder 4,8GHz (HT aus) läuft. Meine eingestellte Spannung ist 1,312V, um den LLC-Drop zu berücksichtigen, andernfalls reichen 1,264V ohne LLC. Und die besagten Krüppel Transport Fever 2 und GTA5 hängen dann noch im CPU-Limit, sodass die Karte eh nicht auf Anschlag ist. Dann sollte selbst ein TDP-fressender Minecraft-Shader mit einer 3080 gehen. Minecraft ist ja dann ein Singlecore-Krüppel, wo dann die CPU fast nichts braucht. Und Spiele, die gleichzeitig TDP fressen und 100% CPU-Auslastung machen, habe ich nicht. Ich kaufe mir nicht für den Vollpreis ein Battlefield oder COD für 6 Stunden Storymodus. Bevor das "aber" kommt, die PvP-Modi sind nicht von Interesse für mich.

Mit meiner RTX2080S habe ich auch noch keine Abschaltung hinbekommen, sei es Minecraft mit TDP-Fresser-Shader oder Time Spy / Fire Strike, mit TDP auf ~313W gestellt.

Edit: Das Netzteil kann dann immer noch getauscht werden, spätestens wenn Board und CPU neu kommen, da mit mehr CPU-Leistung nach auch mehr die Grafikkarte ausgelastet wird. Nur dann welches Seasonic mit ~650W nehmen?
 
Zuletzt bearbeitet:
Doch, weil er nur von RTX3000 schreibt. Kann ja auch die 3070 gemeint sein.
...und damit wären sie bei High-End raus. ;)
 
Dai6oro schrieb:
Es scheint als hätte man sich mit dem Partner Samsung und GDDRX6 verschätzt und wollte ursprüngliche gar nicht so hoch springen. Denn genau das ist es was Nvidia in der Vergangenheit so meisterlich umgesetzt hat. Ein gutes Pferd springt nur so hoch wie es muss.
Ich glaube, besser kann man es kaum in Worte fassen
 
  • Gefällt mir
Reaktionen: monitorhero
Zurück
Oben