Quelle? oder lediglich eine Behauptung?Vendetta schrieb:In den USA wurden nur sehr wenige Händler überhaupt beliefert, und da oft nur 1-2 karten gesamt von allen Herstellern.
Das war ein Paperlaunch wie er im Buche steht, sehr peinlich aber wahrscheinlich Absicht.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
- Ersteller Wolfgang
- Erstellt am
- Zum Test: GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
JohnnyTexas
Lt. Junior Grade
- Registriert
- Sep. 2017
- Beiträge
- 497
600W - 650W Power Supplies im Test vs. RTX 3080 – Surprising Results:
ALLE Netzteile haben NULL Probleme!
Mit mit einem Intel i9 10900K - 10 Kerne@ 5,1 GHz - welcher massig Strom verballert!
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
ALLE Netzteile haben NULL Probleme!
Mit mit einem Intel i9 10900K - 10 Kerne@ 5,1 GHz - welcher massig Strom verballert!
Zuletzt bearbeitet:
Vendetta
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.133
Glaube auch nicht, dass mein 550W NT mit i7 8700K Probleme machen wird, für meine 1070Ti wurden auch damals 650W empfohlen, unter Volllast komm ich auf 330W(Karte stark übertaktet und 120% Powertarget), nur hab ich die nie, denn im Gaming schluckt die CPU nie soviel(280-290W schnitt an der Dose) und außerhalb des Gamings dreht die Grafikkarte Däumchen(130W). Die 3080 schluckt ~120W mehr, sollte man aber eh auf 85% Powertarget runtersetzen wegen der Effizienz.JohnnyTexas schrieb:600W - 650W Power Supplies im Test vs. RTX 3080 – Surprising Results:
Nvidia sichert sich halt gerne ab, so ein 750W Chinaböller kann dir schlimmsten Falls schlechtere Ergebnisse bescheren als ein gutes 600W NT.
O
Oneplusfan
Gast
Vendetta schrieb:Ne, die haben 15k für die ganze Welt produziert
Da würde ich mich auch für die Quelle interessieren.
Vendetta schrieb:Ich konnte meine 1070Ti zum launch bequem von 20 shops aussuchen da gab es auch direkt 5 verschiedene zur Wahl
Absurder Vergleich, die 1070ti kam wann raus? 1 Jahr nach Launch von Pascal? Natürlich gabs zu dem Zeitpunkt zum einen genug kastrierte Chips der 1080er, zum anderen war der Markt quasi gesättigt, weil halt jeder ne 1070 oder 1080 hatte. Die Custom Hersteller konnten zudem einfach ihre alten Designs übernehmen, weil es 1 zu 1 eine "alte" Karte war.
Damit will ich nicht sagen, dass an deinem Punkt nix dran ist, nur der Vergleich ist hier einfach fehlerhaft. Die 1080 bietet sich da doch an.
Ich muss sagen, dass ich den Kühler der 3080 sehr gerne auf einer Karte hätte, die günstiger ist und weniger Strom verbraucht. Für Mini ITX wäre z.B. eine 3070/3060 oder AMD Äquivalent perfekt. Keine Temp. Probleme mit der Karte + geringe Lautstärke (da weniger Verbrauch), weniger Aufheizen der anderen Komponenten, Teilabführung der Hitze nach draußen, kompakte Ausmaße.
Leider kriegt man bei der 3070 nur den regulären Kühler. Hitze im Case ist das letzte was man bei ITX brauchen kann.
Ich durchforste gerade reddit und bin auf diesen Thread gestossen:
https://www.reddit.com/r/ZOTAC/comments/iv4j17/3080_trinity_13_behind_fe/
Da empoeren sich die User dass die Zotac 1-3% langsamer ist als die FE und haben auch eine Antwort von einem ZOTAC Community Manager bekommen, wodurch die "Emotionen" noch mehr explodiert sind.
Der Community Manager sagte initial das hier:
"It's by design - it's also a way to seperate our higher end models from the basic Trinity models."
Dies wurde dann aber durch spaetere Edits wieder relativiert von ihm... sagend er wuerde sich beim HQ nach dem Grund erkundigen warum die Karte "langsamer" laeuft
Was denkt ihr darueber?
https://www.reddit.com/r/ZOTAC/comments/iv4j17/3080_trinity_13_behind_fe/
Da empoeren sich die User dass die Zotac 1-3% langsamer ist als die FE und haben auch eine Antwort von einem ZOTAC Community Manager bekommen, wodurch die "Emotionen" noch mehr explodiert sind.
Der Community Manager sagte initial das hier:
"It's by design - it's also a way to seperate our higher end models from the basic Trinity models."
Dies wurde dann aber durch spaetere Edits wieder relativiert von ihm... sagend er wuerde sich beim HQ nach dem Grund erkundigen warum die Karte "langsamer" laeuft
Was denkt ihr darueber?
rigolyo schrieb:Was denkt ihr darueber?
Klingt doch Plausible, nur gibt es ja nirgends die anderen Zotac Versionen zu kaufen. Wollte eigentlich eine andere Karte von denen haben. Aber noch solchen aussagen....
JohnnyTexas
Lt. Junior Grade
- Registriert
- Sep. 2017
- Beiträge
- 497
Ich werde meine ZOTAC auch NOCH weiter untervolten, scheiß auf 1-3%, wenn man dann 70W-100W spart & die Karte noch leiser wird, wie sie eh schon ist!
Meine MSI GTX 1080 Gaming X, läuft untervoltet mit 1150rpm mit 4K Last!
Ich hoffe da bekomme ich die Zotac auch hin. Die ja normal mit 1520rpm läuft & 32DB läuft.
Laut dem Review:
https://www.techpowerup.com/review/zotac-geforce-rtx-3080-trinity/31.html
Und das Beste ist ja, dass die Karte eine Effizienzexplosion hinlegt, je tiefer man geht!
Wegen 1-3%, ein Sturm im Wasserglass zu veranstalten, ist schon grenzwertig!
Hauptsache man kann sich echauffieren, egal über was!
Andere nennen das Messgenauigkeit!
Meine MSI GTX 1080 Gaming X, läuft untervoltet mit 1150rpm mit 4K Last!
Ich hoffe da bekomme ich die Zotac auch hin. Die ja normal mit 1520rpm läuft & 32DB läuft.
Laut dem Review:
https://www.techpowerup.com/review/zotac-geforce-rtx-3080-trinity/31.html
Und das Beste ist ja, dass die Karte eine Effizienzexplosion hinlegt, je tiefer man geht!
Wegen 1-3%, ein Sturm im Wasserglass zu veranstalten, ist schon grenzwertig!
Hauptsache man kann sich echauffieren, egal über was!
Andere nennen das Messgenauigkeit!
Zuletzt bearbeitet:
O
oemmes
Gast
Es geht ja auch nicht um die "Grundlast", sondern um die ständig auftretenden Spitzen im Bereich von deutlich über 400 Watt, die das NT dann aussteigen lassen.Vendetta schrieb:Glaube auch nicht, dass mein 550W NT mit i7 8700K Probleme machen wird,
Wenn du dann grade schön am daddeln bist und dir steigt jedesmal das NT aus, wird dir das vermutlich ziemlich schnell auf den Sack gehen.
- Registriert
- Dez. 2016
- Beiträge
- 19.092
Modell XY ist 4% schneller bei nur 200€ Aufpreis!JohnnyTexas schrieb:Wegen 1-3%, ein Sturm im Wasserglass zu veranstalten, ist schon grenzwertig!
Hauptsache man kann sich echauffieren, egal über was!
Wie sagt man so schön: wenn man keine Probleme hat, schafft man sich eben welche.
Je mehr man über über die 3080 erfährt desto klarer wird das Bild. Es ist keine eierlegende Wollmilchsau. Also so langsam interessiert mich wirklich was Nvidia dazu veranlasst hat die Brechstange hervorzuholen. Es scheint als hätte man sich mit dem Partner Samsung und GDDRX6 verschätzt und wollte ursprüngliche gar nicht so hoch springen. Denn genau das ist es was Nvidia in der Vergangenheit so meisterlich umgesetzt hat. Ein gutes Pferd springt nur so hoch wie es muss.
Das hier ist jedenfalls alles andere als smart:
https://www.pcgameshardware.de/Gefo...ews/GDDR6X-100-Grad-heiss-Temperatur-1358476/
Das hier ist jedenfalls alles andere als smart:
https://www.pcgameshardware.de/Gefo...ews/GDDR6X-100-Grad-heiss-Temperatur-1358476/
captaincapri
Lieutenant
- Registriert
- Dez. 2013
- Beiträge
- 678
Hatte ich mit der Ventus 3x anfangs auch 2-3 mal bei Doom Eternal. Hab dann per DDU im abgesicherten Modus jegliche alte Treiberreste entfernt und die aktuellen Treiber neuinstalliert. Seitdem keine Mucken mehr, trotz ebenfalls 600W Netzteil.CrustiCroc schrieb:Im Flight Simulator 2020 hatte ich ein mal nen Freeze.
Konnte aber zum Desktop tabben. Obs am Netzteil lag, keine Ahnung.
JohnnyTexas
Lt. Junior Grade
- Registriert
- Sep. 2017
- Beiträge
- 497
Herzlichen Gückwunsch @captaincapri zu der Karte!
Kann mich bitte kurz jemand abholen?
Die 3090 FE ist ja deutlich größer und massiver als die 3080. Kennt jemand die genau Dimension des Kühlers, auch im Vergleich zur 3080 FE? Mir geht es vor allem um die Frage welche Lüfter nun eingesetzt werden im Vergleich zur 3080.
Die Abmessungen selbst sind mir egal, da mein Case ein Gigant ist ^^.
Die 3090 FE ist ja deutlich größer und massiver als die 3080. Kennt jemand die genau Dimension des Kühlers, auch im Vergleich zur 3080 FE? Mir geht es vor allem um die Frage welche Lüfter nun eingesetzt werden im Vergleich zur 3080.
Die Abmessungen selbst sind mir egal, da mein Case ein Gigant ist ^^.
- Registriert
- Mai 2011
- Beiträge
- 21.127
Du meinst sowas?oemmes schrieb:Wenn sie was auf der Pfanne hätten, hätte einer von deren Typen, die ja auch in den sozialen Medien rumturnen, bei Reddit oder Twitter irgend was geposted wie "Na und?" und nen Smiley dazu.
Erfahrungsgemäß? Der Fall war jetzt bei der 5700XT, die Jahre vorher gab es auch nie größere Probleme mit den Treibern, zumindest nicht mehr als bei Nvidia auch. Und die 5700XT war der Switch zu ner komplett neuen Architektur, RDNA2 dürfte es da leichter haben.oemmes schrieb:Und erfahrungsgemäß braucht AMD min ein halbes Jahr um stabile Treiber zu liefern.
jk1895
Banned
- Registriert
- Juni 2013
- Beiträge
- 1.337
Und, hat hier schon wer die 3080 FE und kann ein paar Tonaufnahmen machen?
Auf YT taucht einfach nichts (neues) auf.
Nur dieses alte Video kann ich finden, wo sie ziemlich laut ist. Und das eine von PietSmiet wo sie wieder arg leise rüberkommt.
Wurde das mit der hohen Speichertemperatur auch schon von anderen bestätigt? Also das was dieser ominöse Igor in einem Video aufgezeigt hat.
Auf YT taucht einfach nichts (neues) auf.
Nur dieses alte Video kann ich finden, wo sie ziemlich laut ist. Und das eine von PietSmiet wo sie wieder arg leise rüberkommt.
Wurde das mit der hohen Speichertemperatur auch schon von anderen bestätigt? Also das was dieser ominöse Igor in einem Video aufgezeigt hat.
O
oemmes
Gast
Zu unspezifisch - da gehört härter gekontert.Taxxor schrieb:Du meinst sowas?
Incl Ryzen, aber bei den Vegas hat es auch gehumpelt - die hab ich am eigenen Leibe erlebt.Taxxor schrieb:Erfahrungsgemäß?
Die ganze Karte hat 313 x 138 mm, 3-Slot. Vermutet werden 100er Lüfter.t3chn0 schrieb:Kennt jemand die genau Dimension des Kühlers
Banger
Fleet Admiral
- Registriert
- Aug. 2010
- Beiträge
- 39.849
BATOUsan schrieb:
Ich hätte in der Situation auch zurückgeschickt. Knappheit hin oder her, dann halt 2 Monate mit der alten Karte weiter rumgurken.
JohnnyTexas schrieb:ALLE Netzteile haben NULL Probleme!
Vendetta schrieb:Glaube auch nicht, dass mein 550W NT mit i7 8700K Probleme machen wird ...
Mir wäre es genehm, wenn mein Seasonic ( <3 ) G-550 die auch schafft.
Mit meiner RTX2080S habe ich auch noch keine Abschaltung hinbekommen, sei es Minecraft mit TDP-Fresser-Shader oder Time Spy / Fire Strike, mit TDP auf ~313W gestellt.
Edit: Das Netzteil kann dann immer noch getauscht werden, spätestens wenn Board und CPU neu kommen, da mit mehr CPU-Leistung nach auch mehr die Grafikkarte ausgelastet wird. Nur dann welches Seasonic mit ~650W nehmen?
Zuletzt bearbeitet:
- Registriert
- Mai 2011
- Beiträge
- 21.127
Ist jetzt auch nicht unspezifischer als ein "Na und?" und nen Smiley dazu^^oemmes schrieb:Zu unspezifisch - da gehört härter gekontert.
O
oemmes
Gast
Doch, weil er nur von RTX3000 schreibt. Kann ja auch die 3070 gemeint sein.
...und damit wären sie bei High-End raus.
...und damit wären sie bei High-End raus.
catch 22
Rear Admiral
- Registriert
- Mai 2019
- Beiträge
- 5.629
Ich glaube, besser kann man es kaum in Worte fassenDai6oro schrieb:Es scheint als hätte man sich mit dem Partner Samsung und GDDRX6 verschätzt und wollte ursprüngliche gar nicht so hoch springen. Denn genau das ist es was Nvidia in der Vergangenheit so meisterlich umgesetzt hat. Ein gutes Pferd springt nur so hoch wie es muss.