Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

bad_sign schrieb:
Ich kann mir ehrlich gesagt nicht vorstellen, dass der Takt erhöht wird, eher gehalten, im best Case (Stock)
Es gibt ja (bereits dementierte) Gerüchte, das die PS5 schlecht laufen soll, aufgrund schlechter Ausbeute. Das würde wohl am ehesten am hohen Takt liegen.
jop, die chips sind da aber die güte passt nicht, sie erreichen nicht den Takt...
 
gr1nd schrieb:
Wirtschaftlich wird es am sinnvollsten sein, jetzt zu verkaufen und für gar nicht so viel Aufpreis die 3080 zu kaufen
Wirtschaftlich am sinnvollsten ist es, die 2080 Ti zu behalten und Ampere zu überspringen.
 
  • Gefällt mir
Reaktionen: McTheRipper
Laphonso schrieb:
1000 Euro für 2 Jahre sind hier sowas von am Ende der Liste. It's not even close. Worüber reden wir? (Ja, alles eine Einkommenfrage etc. )
Beim Auto läuft es ja auch meistens so(abgesehen von Leasing), dass man nach dem Kauf direkt anfängt, langsam auf das nächste Auto zu sparen, was man dann im Schnitt nach 6 Jahren kauft.

Würden die Leute das auch bei so kleinen Beträgen wie einer GPU machen, würde das gar nicht auffallen, in 2 Jahren jeden Monat 45€ zur Seite legen.
 
Holindarn schrieb:
dann solltest du dir vielleicht mal eine andere Marke raus suchen :evillol:
Also ich muss Leasing, Steuern, Versicherungen und Benzin und Parkplatzmiete etc zahlen.

Nehmen wir Strom mit rein und sagen einfach mal fett 2000.
Welche Marke schafft das unter 2000 Euro in 2 Jahren inkl. der der Fixkosten??
Bin echt gespannt ;)
 
bad_sign schrieb:
Ich kann mir ehrlich gesagt nicht vorstellen, dass der Takt erhöht wird, eher gehalten, im best Case (Stock)
Es gibt ja (bereits dementierte) Gerüchte, das die PS5 schlecht laufen soll, aufgrund schlechter Ausbeute. Das würde wohl am ehesten am hohen Takt liegen.
Das kann bei so einem extremen Custom Design alle möglichen Gründe haben, die RDNA2 Desktop Karten werden sich ja enorm vom PS5 Chip unterscheiden.

Irgendwas zwischen 2 und 2,2 Ghz werden wir Stock denke ich auf jeden Fall sehen.

Und soweit mir bekannt hat Sony dieses Gerücht auch bereits dementiert.
 
Morgen kommen die Custom 3080er Tests, die bis dann da waren, richtig?
 
Avarios schrieb:
320 Watt.... ich erinnere mich an den AMD aufschrei, hier keiner ?
Also ich warte dann doch auf AMD und schaue was die auf die Straße bringen

da ich dieses bekloppten vergleich jetzt hier schon zum 4. lese...

der unterschied ist die LEISTUNG. nvidia schafft es mit viel verbrauch viel leistung zu liefern. amd hat mit viel verbrauch die 1080 eingeholt. und das ein halbes jahr später.

oder anderst:

ein ferrari darf 20 liter saufen. ein golf 4 nicht.

gruß,
 
  • Gefällt mir
Reaktionen: SPECIALIZED-, Trinoo, ron89 und 2 andere
Also:

Laut Testbericht bietet die 3080 exakt die gleiche Leistung per Watt wie die 2080 Ti.
Das ist bei Anno 1800 und anderen Games unter Vollast zu sehen.
Ebenso als Vergleich bei Wolfenstein @60FPS, wo dann beide Karten auf rund 80 Watt laufen.

Wo ist da der Fortschritt?

Im Prinzip kann man die 3080 einfach als eine um 30% hochgedrehte Version der 2080 Ti sehen, quasi eine 2080 Ti Super Duper. ^^

Außerdem ist das der heißeste Kamin aller Zeiten.
Erinnert ihr euch noch, wie ihr alle über die AMD Vega 64 gelästert oder geschmimpft habt?
Laut Testbericht verbraucht in einem Spiel die Vega 64 im Gesamtwert "lediglich" 350 Watt, während die 3080 auf superhotte 420 Watt hochbruzzelt.
Das sind noch einmal 70 Watt mehr.
Meine 1080 , als ein Vorgängermodell, verbrauchte bereits 180 Watt Standard, 220 Watt OC.
Nun braucht die 3080 bereits 320 Watt Standard, 350-370 Watt OC?
Jungens, merkt ihr was?
Das ist eine noch schlimmere Wattkeule als Intel mit seinem i9 9900KS mit weit über 200 Watt unter Vollast durchzieht.
Wenn sich jeder jetzt so einen PC zusammenstellt, brauchen wir später gar nicht mehr über das Abschmelzen vom Nordpol reden, der ist dann schon längst weg.
Die Gesamtperformance mag zwar ok sein, die Effizienz ist aber nicht gestiegen, Speicher gibts bei den normalen Karten auch (schon wieder) nicht wirklich mehr, letztres führt in einigen Spielen sogar schon dazu, dass die Streamingengines wegen Speichermangel anfangen details zu reduzieren.
Wurde auch schon getestet.
Die Karten sind also reine Rohrkrepierer, die an den Leistungsanforderungen der zukünftigen Spiele gnadenlos zerschellen werden, so wie die 2060 6GB bereits jetzt schon in FullHD abgesagt ist, so wird es der 3070 sehr bald nach Erscheinen passieren, udn das noch, bevor die 4070 raus kommt.
Da gebe ich Brief und Siegel drauf.
Man kann also nur hoffen, dass man noch Ti Versionen mit doppelt RAm nachlegt.
So wäre zumindest die Leistung auch durch ruhige Frametimes und weniger Detailschwund gesichert.
Demgegenüber müsste man noch höhere Stromaufnahmen hinnehmen, was bei der 3080 sicherlich dann äüßerst kritisch zu sehen wäre, weil der hochgezüchtete RAm sich sicherlich nicht mit 10 Watt zufrieden geben wird.
Ach egal, machen se halt 3 mal 8 Pin drauf und geben 425 Watt im OC frei.
Offener Kühlschrank danebenstellen, passt schon. LOL
 
  • Gefällt mir
Reaktionen: ron89, rasenschach und Mcr-King
0-8-15 User schrieb:
Wirtschaftlich am sinnvollsten ist es die 2080 Ti zu behalten und Ampere zu überspringen.
Rechne am besten nochmal nach. Das wirtschaftlichste wäre es, die 2080ti zum Launch gekauft zu haben und Ende August verkauft zu haben. Dann die 3080 am 17. und nach 2 Jahren wieder zu ähnlichem Zeitpunkt verkaufen. Und selbst wenn man bis zum Erhalt der 3080 wartet, lohnt es sich noch immer. Denn anderweitig hat man 1200 für die 2080ti ausgegeben, bekommt nach 4 Jahren vielleicht noch 100€ = 1100€ verlust. 2 Jahre High-End, 2 Jahre obere Mittelklasse.
Mit meiner Variante hast du 1200 Ausgegeben, 500€ kassiert, 300€ draufgelegt und bekommst zum 4080 launch vielleicht noch 250€.

1200-500+300-250=750€ Verlust in 4 Jahren. 350€ weniger Verlust und mindestens 3 Jahre High End.

Edit: Danke für den Hinweis, die Rechnung ist natürlich Quatsch:
-1200-700+500+250 = 100 :)

Gebrauchtkauf ist ein anderes Thema, das lassen wir mal außen vor.
 
Zuletzt bearbeitet von einem Moderator:
DrFreaK666 schrieb:
Und dein Link führt nicht zur NDA ;)
Aber das ist eigentlich unwichtig

ich habe doch garkein link gepostet

ich hatte @Pisaro nach nem link gefragt, wo das NDA einsehbar ist. da kam dann aber nicht mehr viel
 
MiaSanMiaaa schrieb:
Lies lieber mal, was du da zitiert hast. Man ist das mühsam mit dir. Merkst du eigentlich, was du für peinlichen Mist von dir gibst?
Ich hab meinen Beitrag sofort nach 10sec geändert, weil ich es selber gemerkt habe das es falsch war....
aber dein Kindliches verhalten ist das einzige was hier peinlich ist... und dafür gibts jetzt nen report.
 
Schon eine ziemliche Ansage! Danke für den Test, insbesondere daß ihr (CB) auch die Anwendungen mit einbezogen habt; diese sind für mich uU kaufentscheidend, denn für mich gibt's nur eine GraKa pro PC. Jetzt warte ich aber noch gespannt auf die 3070, vielleicht kann's ja dann doch 1x neue GraKa und 1x neue Xbox sein. Die 3090 wäre sicher toll, aber auch teuer. Hoffe, die 3070 schlägt sich wacker genug am 15.10.
 
xexex schrieb:
Die Effizienzkurve wird sich nicht relevant unterscheiden, aber der problematische Bereich unter 20% Last reicht bei einem 1000W Netzteil logischerweise bis 200W. Wenn der Rechner die meiste Zeit mit wenig Last läuft, verschwendet man Energie.

Umgekehrt ist es aber wenn du den Rechner nur zum Spielen benutzt. Dann wird möglicherweise das stärkere Netzteil im effizienteren Bereich genutzt.

Je höher die Qualität des Netzteils, desto weniger relevant ist diese Kalkulation. Netzteile nach 80 Plus Titanium sind selbst noch bei 10% Last effizient.
Verstehe, danke für die Erklärung.

Hatte nämlich schon bedenken als ich die 5700XT in meinem Rechner hatte, dass mein 550Watt Netzteil oft unter Last läuft, wobei mein Rechner zu 80% zum browsen, arbeiten und Filme schauen genutzt wird.
Daher tendiere ich eher dazu 100-200 Watt mehr als empfohlen zu nehmen, um sich darüber keine Gedanken machen zu müssen. Durch die geringere Last sollte man dann auch die Lautstärke und das Spulenfiepen eindämmen können.
Hatte gelesen das ein schwaches Netzteil eher ein Spulenfiepen bei der Grafikkarte auslöst.
 
Taxxor schrieb:
Ich glaube eher der absolut attraktive Spot wird bei 250W liegen
Liegt der Sweetspot nicht automatisch beim niedrigsten Powertarget, welches die gewünschte Performance erzielt? Denn umso niedriger das Powertarget und damit Takt und Spannung sind, umso höher die Performance pro Watt.
 
.Sentinel. schrieb:
Nein- Gibts nicht. Keine Messwerte. Nur der Hinweis, dass er ganze Messreihen gestrichen hat, weil beide CPUs ins Limit liefen.
Was gibts nicht? Die Netzteilempfehlung? Wohl. Die Aussage, im Video, dass das keinen Unterschied macht? Auch vorhanden. Eine Tabelle die das gleiche Sagt wie der Autor? Stimmt. Gibt es nicht. Brauche ich aber auch nicht gedruckt. Glaube dem Author auch so.
 
BxBender schrieb:
Im Prinzip kann man die 3080 einfach als eine um 30% hochgedrehte Version der 2080 Ti sehen,
Naja, also Chips und VRAM sind da schon jetzt die Iteration neuer und besser, und mal sehen was Treiber noch rauskitzeln.


Die 1080Ti sah ja anfangs gut aus gegen die 2080 und ist in den aktuellen DX12 engines dann doch auf 2070S Niveau abgefallen. Da hieß es auch, das sei nur eine Pascal aufgefrischt mit Raytracing.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Taxxor schrieb:
Erstens sind es je nach Spiel bis zu 20% und zweitens geht es da um das Prinzip von ordentlichen Tests und nicht um die persöhnliche Wahrnehmung als Privatnutzer.
Aber der GPU Test wird doch auch Schlussendlich über ALLE getesteten Spiele gemittelt...warum machst du das dann bei einen "möglichen" CPU Bottleneck immer nur an einem Spiel fest mit deinen 20%?! Gemittelt ist Intel also auch nur 10% schneller....siehe Hardware Unboxed oder Igorslab.
Verstehe dieses Rumreiten darauf nicht.
Die Balken wäre vll nen ticken länger...aber von den Abständen zu anderen Karten wäre es kaum ein Unterschied.

Wenn man Intel nehmen würde , dann müsste man nach deinen "je nach Spiel" auch in Speicherintensiven Games wieder 4-6% Leistung abziehen, was durch PCIe 3.0 verloren geht.
Also WO und WIE soll man es denn allen inkl. Dir Recht machen!?

Was ist da jetzt ein "ordentlicher Test" wenn Intel bzw. AMD es beide nicht vereinbaren können alle Vorteile zu besitzen?!

Wir wissen alle was du meinst, aber das Genörgel geht halt schon seit dem neuen GPU Bench letzte Woche so...

Wenn Zen3 rauskommt dann ändert sich wohl vieles....ST/Gaming Leistung ist dann auf Intel Niveau oder drüber UND es gibt noch PCIe4 dazu.

Willst dann immer noch auf Biegen und Brechen auf Intel setzen?
 
FormatC schrieb:
Quatsch. [...] Heises Interpretation richtig [...] im Knast sitzen. Das NDA [...] geprüft [...] amüsiert. [....]. Der Redakteur [...] gewisse Unterwürfigkeit [...] längst Geschichte. [..]. Jetzt [...] gleiche Stelle Herr Spille, Ex-PCGH-Redakteur. Samples [....] Heise [...] nicht von NV.

Naivität und schlechtes Langzeitgedächtnis ist aber auch so eine deutsche Tugend oder sollte man sagen Spezialität? Ich kenne die aktuelle Version eines solchen NVIDIA Dokumentes nicht. Vielleicht drängte man auch drauf es danach etwas leiser über die Bühne zu bringen.

Ist das mit dem Verweis auf PCGH wertend zu verstehen gewesen? Es liest sich in meinen Augen zumindest genau so. Meiner Meinung nach wäre es sowieso besser, wenn sich jeder Tester unabhängige Exemplare beschafft. Wer kann schon Manipulationen vom Hersteller, die die jeweiligen Hardware besser ins Licht rücken in Gänze ausschließen? Hier noch mal der Hinweis auf Naivität!

Edit: Zitat an CB angepasst, aber damit gegen jede andere Zitierregel verstoßen.
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
  • Gefällt mir
Reaktionen: m.Kobold
Ich bin irgendwie hin und her gerissen. Die Wärme, die diese Karte abgibt ist echt nichts für heiße Sommer.
Ja die Leistung stimmt, TDP nein. Was Igor da gemessen hat gefällt mir gar nicht. 8nm von Samsung ist einfach enttäuschend.

Im Test hier wird von 65% Upgrade zur 2080 gesprochen und mit dem Leistungsanstieg der 980 zur 1080 verglichen. Das ist schon etwas befremdlich.
Erstens kommt die 3080 im Vergleich zur 2080 so gut weg, weil Turing weder vom Preis noch Leistung gut da stand.
Zweitens verkauft man den größeren Chip jetzt als 3080. Vorher waren die 102er immer Ti oder Titan Chips. Nvidia hat sich nur von der Melkepisode zu Turingzeiten auf ein "Pascal-Niveau" zurückbegeben und malt das besonders schön an, indem man sich das "Ti" spart. Also bitte spart euch die Lobpreisungen. Das Melken geht weiter....


Naja dann einfach mal schauen was die Alternative ist. Irgendeinen tot wird man sterben müssen.
Hype Train Runde 2 AMD - ChooChoo....
 
Klasse Leistung für den Preis aber die Abwärme ist echt extrem.
Daran werden so einige Netzteile aber auch Gehäuse mit zu schwachem Airflow scheitern...
 
  • Gefällt mir
Reaktionen: Öcher Tivoli
Zurück
Oben