Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
- Ersteller Wolfgang
- Erstellt am
- Zum Test: GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
oxyd
Lt. Junior Grade
- Registriert
- Okt. 2012
- Beiträge
- 309
Spielt es in Bezug auf die Leistung/FPS eigtl. auch eine Rolle, ob man bspw. unter 1440p auch 144hz bzw. G-Sync/Freesync aktiviert hat? Falls ja, wie stark in % ist erfahrungsgemäß bei so einer Funktion der Einfluss auf die Performance?
Der 8nm-Prozess ist nur ein optimierter 10nm.GerryB schrieb:NV hat nen brandneuen 8nm-Prozess der dürfte net schlechter als der alte 7nm sein.
aber
7nm+ wird nochmal ne andere Liga.
K
KlaraElfer
Gast
Ned Flanders schrieb:In der Diskussion "Zu langsame CPU vs PCIe4" auch witzig: CB hat doch im Vergleich zu den Vorgängerkarten die schnellste 3080 am Start. Keine 3080 in irgendwelchen anderen Reviews war so schnell wie die von CB.
Man sieht doch auf den ersten Blick, dass Leo fälschlicherweise die OC Werte der 3080 übernommen hat.
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
Aber, ja klar, Hauptsache wieder so tun, als ob Computerbase Nvidia besonders gut dastehen lässt und PCIE 4.0 etwas bringen würde, obwohl Computerbase selbst nachgemessen hat.
Ned Flanders schrieb:Gleichzeitig waren sie afaik die einzigen im Testfeld mit einer modernen Plattform (stichproben).
Die Mär davon, dass der Ryzen mit PCIe 4.0 den Vorsprung bringt, obwohl Leo die Werte falsch übernommen hat, wäre jetzt wieder ein Coup gewesen, aber man kann sicherlich wieder ein paar User überzeugen.
Und gleichzeitig den Sinn von einer schnelleren CPU leugnen, aber auf 0,5% mehr Performance wegen PCIE 4.0 rumreiten.
Ned Flanders schrieb:Sieht also imfo so aus als hätte @Wolfgang jetzt keine so ganz idiotische Wahl getroffen.
Nö. Die Wahl ist nicht idiotisch, aber vorhersehbar falsch.
Wadenbeisser schrieb:Dir ist aber schon klar das die 2080Ti von sich aus lediglich mit 250W und die 3080 mit 320W geführt wird, oder?
Die TDP ist aber nicht immer der exakte Verbrauch am Messgerät, das sollte man aber langsam schon mal wissen.
Ich wüsste nicht welche 2080Ti FE 250 Watt benötigt, die liegen in der Regel zwischen 270 und 280.
v_ossi schrieb:Das macht höchstens eine recht kleine technikaffine und gleichzeitig auf Effizenz bedachte Randgruppe.
Iwo. Bei der Radeon VII und Vega war das doch das halbe Forum, bei Nvidia gilts natürlich nicht.^^
Zuletzt bearbeitet von einem Moderator:
W
Wadenbeisser
Gast
Das ist jetzt aber auch nicht unbedingt schwierig aber zwischen den 90% aus der Präsentation, den 25% bei diesem Vergleich und den 10% @ Standard aus dem Test hier sind die Differenzen gravierend.Heschel schrieb:Der Test zeigt aber, dass die 3080 FE effizienter ist - auch wenn sie die letzten Prozentpunkte an Leistung bei der Effizienz verlieren.
Invers
Lieutenant
- Registriert
- Feb. 2014
- Beiträge
- 770
Jetzt hatte ich mich schon die ganze Zeit festgelegt, es wird eine 3080 und jetzt mach ich mir doch wieder Gedanken wegen den 10 Gig Vram. Ich bleibe auf jeden Fall bei WQHD die nächsten Jahre, aber was man so ließt hier im Forum, da kommt man doch wieder ins Grübeln.
cruse
Fleet Admiral
- Registriert
- Sep. 2013
- Beiträge
- 13.920
@xexex Nice!
Hier ist der Blog-Post von Corsair dazu.
Hier ist der Direktlink zum Anmelden. Man bekommt dann eine E-Mail, wenn es verfügbar ist.
Zitat aus dem Forum:
Hier ist der Blog-Post von Corsair dazu.
Hier ist der Direktlink zum Anmelden. Man bekommt dann eine E-Mail, wenn es verfügbar ist.
Zitat aus dem Forum:
Es wird also erstmal keine kostenlosen Kabel geben, später eventuell.At this time we do not expect to be providing free cables. We may change this in the future, but at this time when the cables are in-stock they will be available for a reasonable cost to most end-users.
EJake Grafton schrieb:Die 10 GB sind jetzt schon überholt und wohl nur benutzt worden weil es noch keine 16 Gbit Chips als GDDR6X gibt
Zum Streit mit der CPU beim Testsystem.
Weder PCGH oder andere, noch CB machen etwas grundlegend falsch.
Beide Testarten sind OK. Nur CB ist realitätsnaher, es zeigt das was 99 % der User an Leistung erwarten können. All die User die keinen wassergekühlten 5,2 GHz Brecher im System haben.
Wenn jetzt mit der mega CPU getestet wird und es kommt raus Beispiel 40% mehr Leistung. Dann kommt User Karl Heinz mit seinem 3600X. Kauft sich die Karte und wundert sich, hey ich hab nur 30% mehr Leistung. Wäre ihm beim CB Test nicht passiert.
So zu testen ist nicht falsch, nur anders. Wer einen Test mit max. CPU Power will kann zur Not ja noch zahlreiche andere Tests anschauen.
Außerdem ist Ryzen 4000 auch nicht mehr weit, da kann CB ja leicht aufrüsten.
Zuletzt bearbeitet:
Hektor26
Lieutenant
- Registriert
- Juli 2014
- Beiträge
- 717
Keiner merkt es die Custom Modelle gehen schon bis 900€ und da steht kein TI am ende ich frage mich warum sich alle über die ach so günstigen NV karten freuen im endeffekt sind die meiner Meinung nach noch teurer geworden den die 3090 ist ja die TI und die kratzt als Custom an der 2k € grenze.
Und wenn wie NV sagt die 3080 der TI nachfolger ist dann ist es eine frechheit nur 10Gb speicher anzubieten!
Und wenn wie NV sagt die 3080 der TI nachfolger ist dann ist es eine frechheit nur 10Gb speicher anzubieten!
G
garbel
Gast
Cohen schrieb:In den Sommermonaten Konsolen spielen
Oder mal an die frische Luft gehen...
Problem gelöst
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Heschel
Lt. Commander
- Registriert
- Feb. 2017
- Beiträge
- 1.158
Wadenbeisser schrieb:Das ist jetzt aber auch nicht unbedingt schwierig aber zwischen den 90% aus der Präsentation, den 25% bei diesem Vergleich und den 10% @ Standard aus dem Test hier sind die Differenzen gravierend.
Vielleicht liegt es nur am eigenem Empfinden? Ich habe die Präsentation nicht richtig angeschaut - nur den Test von CB.
Die GeForce RTX 3080 ist eine Ultra-HD-Grafikkarte, anders kann man es nicht ausdrücken. Bereits für 2.560 × 1.440 wirkt das Ampere-Modell aufgrund der sehr hohen Frameraten etwas übertrieben
Diesen Satz find ich irgendwie etwas seltsam wenn nicht sogar "falsch". Selbst mit der 3080 gibt es in eurem Testparcour genug Spiele die unter 144 oder sogar 100 FPS liegen in 1440p. Meiner Meinung nach ist die 3080 eine gute 1440p Karte, bei der man nicht unbedingt viel an der Grafik runterdrehen muss um 144FPS zu haben.
Pizza! schrieb:Eine 3080 mit mehr Speicher braucht keine neuen größeren Speicherbausteine. Der Platz ist bereits ungenutzt vorhanden, man müsste nur wie bei der 3090 mehr drauf kleben, löten, nageln.
Nein! Die 3090 benutzt eine andere (teurere) Platine und damit einhergehend auch einen anderen Kühler.
Auf dem PCB der 3080 ist kein Platz dafür.
Eine 3080 mit mehr Speicher kann es also erst irgendwann im kommendem Jahr geben oder man baut eine 3080 Ti auf dem PCB der 3090, was extrem unwahrscheinlich ist.
Zuletzt bearbeitet:
W
Wadenbeisser
Gast
KlaraElfer schrieb:Die TDP ist aber nicht immer der exakte Verbrauch am Messgerät, das sollte man aber langsam schon mal wissen.
Wen juckts, der spielte hier angesichts der glatten Zahlen offensichtlich auch keine Rolle und es ändert nichts am Grundproblem.
mike2105
Lt. Junior Grade
- Registriert
- Feb. 2008
- Beiträge
- 311
So wie das für mich aussieht gibt es genug Leute die jetzt richtig Schotter in eine Neue Grafikkarte investieren werden (und vielleicht noch einen 4K Monitor dazu).
Da wird viel Geld umsonst den Bach runter gehen. In ein paar Monaten, wenn Nvidia wieder von AMD Druck bekommt, wird es spannend.
Da wird viel Geld umsonst den Bach runter gehen. In ein paar Monaten, wenn Nvidia wieder von AMD Druck bekommt, wird es spannend.
Xes
Admiral
- Registriert
- Nov. 2013
- Beiträge
- 7.693
Mein Problem damit ist mehr die Abwärme:White Cobra schrieb:LoL Gamer die sich wegen Stromverbrauch Gedanken machen![]()
Im Sommer hat mein Rechner mit einer Vega 64 das Wohnzimmer innherhalb kürzester Zeit von 28°C auf 36°C hochgeheizt. Bei den Temperaturen macht daddeln echt keinen Spaß mehr. Mit der deutlich sparsameren GTX 1070 vorher ging das noch besser.
Die RTX 3080 erzeugt nochmal mehr Abwärme wie die Vega 64.
Da wir aktuell schon Mitte September haben und draußen teils immernoch die 30°C Marke erreicht wird muss ich zukünftig halt auch einplanen, dass eine Graka mit derartigem Verbrauch bedeutet, das ich die Leistung über die Monate Juni-September (immerhin ein Drittel des Jahres) teilweise garnicht nutzen kann/will.
Wenn die RTX 3070 hier deutlich sparsamer wird nehme ich gerne eine Nummer kleiner. (Auch wenn mir der geringe VRAM etwas Kopfschmerzen bereitet.)
Hektor26
Lieutenant
- Registriert
- Juli 2014
- Beiträge
- 717
Ich werde mir auch in der Bucht eine gebrauchte 2080ti vorerst kaufen und damit überbrücken bis es die Modelle mit mehr Vram von NV gibt das mach ich nicht mit mit den 10gb der 3080 vor allem nicht da ich spaß am Modden von Skyrim bekommen habe in Qhd da kann mehr speicher als Ultra in 4k erforderlich sein hab ich gemerkt
MeisterOek
Commander
- Registriert
- Nov. 2014
- Beiträge
- 3.031
Ich möchte mit dem Kauf eines neuen Netzteils erstmal warten, bis es einige mit dem 12Pin-Anschluss gibt.
Werde ich mit meinem 480Watt Netzteil zocken können, wenn ich das Dind undervolte und nen Framecap einstell oder dreht das Ding beim hochfahren des Rechners hoch, bzw. kommt es trotzdem zu hohen Lastspitzen?
Mein aktuelles Netzteil ist 8 Jahre alt. Sollte eh ein neues her.
Werde ich mit meinem 480Watt Netzteil zocken können, wenn ich das Dind undervolte und nen Framecap einstell oder dreht das Ding beim hochfahren des Rechners hoch, bzw. kommt es trotzdem zu hohen Lastspitzen?
Mein aktuelles Netzteil ist 8 Jahre alt. Sollte eh ein neues her.