Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Bentica schrieb:
Das macht mir auch Sorgen. Ich brauche jetzt eine Glaskugel wie viel leiser die Customs werdenund welche kein Spulenfiepen hat.
Also ich habe momentan die MSI Trio im Auge, die war in den Vorgängermodellen zumindest wirklich silent, wenn man so liest, ansonsten die asus strix für 925€. Ziemlich teuer. Aber lieber jetzt bisl mehr Moneten flattern lassen, als jahrelang die Ohren...
 
  • Gefällt mir
Reaktionen: Bentica
SPECIALIZED- schrieb:
Für gewöhnlich hab ich beim Zocken nen Headset auf, das Teil könnte auch Musik machen es wäre mir egal höre ich sowieso nicht

Und ich habe ein 5.1 System dran. Mich würde es massiv stören wenn man es aus dem Gehäuse raushört.
Für den Preis sollte man schon ein wenig erwarten können, dass die verbauten Teile bestmöglich Spulengeräusche verhindern.

Cunhell
 
aldaric schrieb:
Naja Huang sprach aber auch von x1.9 fach erhöhter Effizienz. Wo soll die denn nun sein? 10% effizienter als Turing ist x1.1 und weit entfernt von x1.9
Die Folie sagt 1.9x Effizient bei 2x Leistung aber bezieht sich mit Sicherheit auf spezielle RTX-Fälle.

Smashing performance records, the GeForce RTX 3090, 3080 and 3070 GPUs offer up to 2x the performance and 1.9x the power efficiency over the previous Turing-based generation. The GPUs take advantage of the second generation of NVIDIA RTX™ — the world’s most powerful PC gaming platform — to provide unprecedented levels of real-time ray tracing and AI gaming.
 
5ive7even schrieb:
NVIDIA empfiehlt ein 750w Netzteil. Blöderweise habe ich jetzt vor kurzem einen Rechner zusammengestellt bzw gekauft:

Bequiet Dark pro 11 650 Watt
MSI MEG X570 Unify
Ryzen 7 3700x (Stock)
4x 8GB G.Skill Trident Z RGB DDR4-3200 DIMM CL14
2x SATA SSDs

Meint ihr, dass die 3080 noch passen würde?

Ich denke, dass es reichen sollte. Der 3700X ist ja auch sehr genügsam. Mein System zieht im CPU-Stresstest zwischen 136 und 140W.
Dann nimmste 200W im Worstcase für dein System ohne GPU .... dann haste noch 450W für die GPU. Solltest ausreichend Reserven haben.

Die 750W von nVidia beruhen halt auch darauf, dass Leute eben nen 12Kerner oder nen süffigen 10900K betreiben können.
 
  • Gefällt mir
Reaktionen: McFritte, Cpt.Willard und 5ive7even
m.Kobold schrieb:
Im schnitt nur 20% schneller als meine 2080Ti, ich wußte es doch...

Aber auch dann wird nvidia die Leistung mit ihren Fake Benches Präsentieren (mit freundlicher unterstützung von Digital Foundry) und die gut gläubigen verarscht werden mit angeblichen 60% Mehrleistung :D

Der Vergleich von DF war mit einer NORMALEN 2080 und da passt die Mehrleistung perfekt.
Und es ist doch schön, dass du die GPU-Generation überspringen kannst, dafür hast du für die Karte auch über 1000€, vermutlich sogar 1300€ bezahlt, dafür bekommt man jetzt fast 2 x 3080 mit eben mehr Leistung...
 
  • Gefällt mir
Reaktionen: .Sentinel. und Kenjiii
über 1000 Kommentare und (das meine ich mit aller Liebe und dem maximalen möglichen Respekt) ... soviel Bullshit und Hate und komplett falsche Äußerungen die hier getätigt werden... da kann man sich nur an den Kopf fassen.
Bei manchen Äußerungen kann ich mir nicht einmal nen Reim drauf machen wie man auf sowas überhaupt kommt... um Gottes Willen... wenn man keine Ahnung hat ... bitte ... das ist ja nicht schlimm, niemand weiß alles und keiner ist perfekt... aber verbreitet doch euer ausgedachtes Wissen nicht einfach so im Internet wo es andere eventuell lesen und den Kram dann auch noch glauben.
Das ist hier Computerbase und kein wackeliger Tisch an Harrys Hähnchen Bude wo man in ner gepflegten 3er Runde, mit nem Bier in der Hand nur Stuss von sich gibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: robertsonson, AUTScarab, Jan und 6 andere
jk1895 schrieb:
1. wurde die 3900 XT CPU als möglicher Bottleneck besprochen? Wird ein Vergleichstest mit einem 10900K gemacht?
2. gab es eine Empfehlung wie stark das Netzteil sein sollte? Reichen 650 Watt als Neuanschaffung?
Gibts bei Igor auf der Seite. Er hat sowohl 10900K als auch 3900XT getestet. Beide in etwa gleich. Netzteilempfehlung auch da zu finden.
 
  • Gefällt mir
Reaktionen: ahuev0, McTheRipper, Pisaro und eine weitere Person
Dural schrieb:
Da gpu nie 100% skalieren, und überhaubt die 3080 rennt oft im cpu limit.
Wie ich an anderer Stelle schonmal vorgerechnet hatte lag die Skalierung zwischen RX 5500 XT (Navi 14) und RX 5700 XT (Navi 10) bei ca. 96%. Zwar keine 100% aber mehr als genug wenn man noch die angekündigten Effizienz und IPC Verbesserungen einbezieht.
 
jk1895 schrieb:
2. gab es eine Empfehlung wie stark das Netzteil sein sollte? Reichen 650 Watt als Neuanschaffung?

Kann man so pauschal nicht beantworten. Hängt von Deinen Nebenverbrauchern ab, und welche CPU Du nutzt. ... und ob Du OC betreibst. Nen Threadripper... überall OC .... Wasserkühlung inkl. Pumpen, Lüfter etc. da sind 650W zu wenig.
 
  • Gefällt mir
Reaktionen: jk1895
duskstalker schrieb:
Wenn man sich mal ansieht, wie wenige 02er Chips für eine 3090 taugen, ist klar, wieso bei der 3080 so viel deaktiviert ist

Hast du dafür eine Quelle?
duskstalker schrieb:
Trotzdem isses der 02er Chip und nicht der 04er.

Es gibt noch einen größeren Chip mit 850mm². Eventuell bringt Nvidia diesen auch als neue Titan.
 
Daniel D. schrieb:
Schaue Dir mal das Video an:

Hmmm könnte eng werden...
 
xexex schrieb:
Je höher die Qualität des Netzteils, desto weniger relevant ist diese Kalkulation. Netzteile nach 80 Plus Titanium sind selbst noch bei 10% Last effizient.

Die höheren Anschaffungskosten machen aber das nicht wieder wett. Mehr als Gold brauch man nicht. Selbst Silber und Bronze sind noch top. (solang es Marken NT sind.)
 
Spulenfiepen ist scheinbar ein Tabu-Thema in Reviews und wird heutzutage selten darauf eingegangen.
Will keinem was unterstellen, aber vielleicht mögen die GPU-Hersteller nicht, wenn man sowas erwähnt.
Ist ein technisches Problem, welches schwer in den Griff zu bekommen ist, würd ich behaupten.
Und wenn einfach ein hoher %-Satz von Karten jeder Preis-Klasse davon betroffen ist, dann ist auch klar, warum das wie ein Tabu-Thema behandelt wird. Zumal man als Kunde nicht wenig Geld auf den Tisch haut.

Man kann dem Spulenfiepen entgegenwirken, wenn man die MOSFETs wärmer laufen lässt als vom Hersteller vorgesehen; einfach mal schlechtere Wärmeleitpads draufmachen als für Speicher und VRMs (Tipp von Igor).
 
  • Gefällt mir
Reaktionen: McTheRipper
Wird die karte von nem 4770k ausgebremst? Ich habe noch ne gtx 1070 und möchte die 3080 holen. Gezockt wird in der wqhd Auflösung.
 
Nahrungsmittel schrieb:
Der Preis hat damit absolut nichts zutun.
Wenn die Jungs bei der QA auch mal die Spulen fixieren würden und sowas nicht an den Endkunden weiter gereicht werden würde, hätten wie dieses Problem gar nicht. Hat schon nen Grund warum man sowas aus Kulanz gerne umtauscht, weil das einfach ein weggelassener Arbeitsschritt ist, es geht auch ohne. Aber dafür fehlt wohl das Geld, welches bei den Herstellern immer knapper wird, weil Nvidia die Konditionen bestimmt und mehr vom Kuchen haben will.
 
Gute Grafikkarte. Gratulation an Nvidia :daumen:Danke an CB für den ausführlichen Test.
 
  • Gefällt mir
Reaktionen: Jan
Zurück
Oben