Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Taxxor schrieb:
Also ich hab ja auch mitgelesen und er hat da gar nichts ignoriert, er hat doch sogar erklärt, warum es nicht am VRAM liegen kann, eben weil es dann bei 2080 vs 2080Ti ebenso stark auftreten müsste.

Das Problem hier liegt einfach in der Vega Architektur, bei der die Radeon VII in niedrigen Auflösungen viel Performance einbüßt weil sie ihren Taktvorteil nicht ausspielen kann, wenn die Shader nicht ausgelastet werden.
Das schafft sie erst in 4K wirklich.
Er/sie/es wollte Beispiele für den speicherbedingten Einbruch weil angeblich keine zu finden gewesen wären, ch habe sie geliefert und als Ergebnis wurden sie konsequent ignoriert.

Auch sind die Eigenarten der Vega Architektur dafür irrelevant weil sowohl die Vega64, als auch die VII darauf basierten, der nächste Punkt der ignoriert wurde.

Bei diesen Beispielen udn mehreren anderen Spielen stieg der Abstand zwischen der Vega64 und der VII @ UHD deutlich an, teilweise sogar bei konstantem Abstand bei den beiden anderen Auflösungen was natürlich ignoriert wurde.

Er/sie/es schreibt einfach über alle möglichen anderen Modelle um bloß nicht darauf einzugehen und in der Versenkung verschwinden zu lassen.

Wie gesagt, ich habe selbst Erfahrungen mit beiden Modellen sammeln können und da kamen noch offensichtlichere Nebenerscheinungen wie Nachladeeffekte zum Vorschein die bei der VII ganz einfach fehlten.
 
  • Gefällt mir
Reaktionen: Mcr-King
Vendetta schrieb:
Unter TSMC hättest du aber die Karte nicht für 699 bekommen, eher für 899 oder mindestens 799. Man könnte natürlich fast argumentieren, dass man den günstigeren Preis jetzt mit Stromkosten zahlen muss...

Wer sagt dass denn kennst du die Preise von Samsung und du darfst nicht vergessen Hisilcon und co brechen weck Handys um 30 Prozent weniger und und 😉

TSMC braucht Gewinn und nicht weniger 😉
 
Krautmaster schrieb:
Nein. Aber so schnell wie ein Stock und da ist der Unterschied schon überschaubar.
Warum sollte man den 3900XT fürs GPU Testsytstem optimieren aber den 10900K dann Stock betreiben?

4133er RAM, 5.2GHz und ab gehts^^
 
  • Gefällt mir
Reaktionen: gesperrter_User, Esenel, .Sentinel. und 3 andere
KlaraElfer schrieb:
Nein, der Intel ist mindestens 20% schneller, das sollte man doch mittlerweile wissen.
Zeig her.

Kenne keinen guten Vergleich eines optimierten 3900XT (Ink Subtimings) und ebenso moderat optimierten 10900k.

Mal PCIE 4.0. für GPU M2 außen vor...

Fast jeder testet die 3080 wie CB. Und selbst Igor sagt es macht quasi keinen Unterschied.

Weiter dürfte dafür allenfalls in 1080p noch größere Unterschiede auftun. Und die 20% möchte ich sehen.
 
  • Gefällt mir
Reaktionen: ahuev0, McTheRipper, eXe777 und 6 andere
denbaschu schrieb:
Ich finde es erschreckend wie viele hier im Forum den Verbrauch als vollkommen legitim hinstellen, nur weil das mit der Performancekrone einhergeht. 19% Mehrverbrauch zur 2080ti, 34% zur 2080 (CB Messwerte nicht TDP) und die 3090 kommt erst noch. @Stock ist der Effizienzgewinn für eine neue Architektur mit Shrink einfach nicht gut.

Ich finde die Leistung der Karte beeindruckend darüber muss man nicht diskutieren. Aber 320 Watt @Stock sind alles andere beeindruckend.

Man hätte die 3080 bei 270 Watt belassen und die 3090 als Enthusiastenmodell bringen sollen, in Bezug auf Leistung und Verbrauch.

Die 50W mehr machen es ja auch am Ende bei dem gesamten System ... :rolleyes:
 
Taxxor schrieb:
Ein GPU Testsystem sollte man danach ausrichten, was es tun soll, nämlich GPUs maximal zu befeuern und dafür hätte hier ein 10900K rein gehört

Viel Spass beim lesen: https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/

Und um noch auf deinen Kommentar zu antworte:

3080 = 4K Karte - bei 4K spielt es keine Rolle ob 10900K oder AMD 3900XT

headert_2.jpg
 
  • Gefällt mir
Reaktionen: McTheRipper, A.Xander, GUN2504 und eine weitere Person
Miuwa schrieb:
Ist die Aussage nicht auf übertaktete/Boardpartnerkarten bezogen?

Nein, er hat die FE gemessen und dabei Leistungsspitzen in Höhe von bis zu knapp 500 Watt abgerufener
Leistung gemessen, diese Spitzen sind zwar nur einige Millisekunden lang,
können aber ausreichen, um von einem 500 oder 600 Watt Netzteil in diesen Millisekunden
zu wenig Power zu bekommen bei hinzurechnen von 150 bis 200 Watt für das weitere System inkl. CPU.

Igorslab kommt daher praktisch zur Bestätigung der Nvidia Empfehlung von 750 Watt Netzteilleistung.
 
  • Gefällt mir
Reaktionen: Holindarn
  • Gefällt mir
Reaktionen: adAstra, voalirus, KlaraElfer und 2 andere
In Anbetracht dessen, das die GPU immer wieder mal ins CPU Limit rennt, stellt sich mir die Frage ob eine 3090 überhaupt die vermuteten 20% mehr noch erreichen kann? Prognosen hierzu? :o Hatte mit der eigentlich geliebäugelt, aber irgendwie erscheint mir das langsam sinnloser :(
 
  • Gefällt mir
Reaktionen: adAstra, Celinna, .Sentinel. und eine weitere Person
Harsiesis schrieb:
Viel Spass beim lesen: https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/

Und um noch auf deinen Kommentar zu antworte:

3080 = 4K Karte - bei 4K spielt es keine Rolle ob 10900K oder AMD 3900XT

Davon hab ich ja bereits Benches gepostet, und nein für mich wäre die 3080 keine 4K Karte und für viele andere auch nicht.
Und in 1440p stehen am Ende eben auch über alle Spiele hinweg 7% mehr FPS für den 10900K, mit einzelnen Spielen wo es eben bis zu 20% sind.
 
  • Gefällt mir
Reaktionen: KlaraElfer, .Sentinel. und Payne19
Laphonso schrieb:
RDNA 2 soll laut Gerüchten (aus dem Frühsommer) "bis zu 50%" mehr fps als die 2080TI liefern.
Waren das nicht +50% pro Watt?
Ausgehend von den 225W für die 5700XT und einer angenommenen TDP von 300W würden auf die Gesammtsumme nochmal gute 30% drauf kommen. Da läppert sich was zusammen denn bis zur 2080Ti waren es ja nur gute 50% und schon sitzen wir im Bereich der 3080er.
 
Ein korrekter UV-Test:

0,800v (statt 0,925v) gleicher Durchschnittstakt wie ohne UV (1800 MHz)
Gleiche Leistung, 50 Watt weniger.

Das resultiert natürlich in weniger Geräusche oder eine niedrigere Temperatur.
 
  • Gefällt mir
Reaktionen: akuji13, Ben81, MeisterOek und 8 andere
Taxxor schrieb:
Davon hab ich ja bereits Benches gepostet, und nein für mich wäre die 3080 keine 4K Karte und für viele andere auch nicht.
Doof nur dass Nvidia diese als solche bewirbt.
 
  • Gefällt mir
Reaktionen: McTheRipper
Wadenbeisser schrieb:
Er/sie/es wollte Beispiele für den speicherbedingten Einbruch weil angeblich keine zu finden gewesen wären, ch habe sie geliefert und als Ergebnis wurden sie konsequent ignoriert.

Nein, ich habe sie aus dem Performancerating entnommen und geprüft, wie sich das auswirkt, deine Beispiele.
Jetzt lügst du schon zum zweiten mal, ist das bei dir eigentlich eine Pathologie?

Wadenbeisser schrieb:
Auch sind die Eigenarten der Vega Architektur dafür irrelevant weil sowohl die Vega64, als auch die VII darauf basierten, der nächste Punkt der ignoriert wurde.

Die Eigenarten einer Architektur sind sicherlich nicht irrelevant, denn das würde vorraussetzen dass sich eine Architektur bezüglich des V-ram Managements Hersteller intern und Herstellerübergreifend nie ändern darf, was also vollkommen hanebüchen wäre.

Wadenbeisser schrieb:
Bei diesen Beispielen und mehreren anderen Spielen stieg der Abstand zwischen der Vega64 und der VII @ UHD deutlich an...

Im Mittel tut er das nicht, nein. Außer du möchtest Erbsenzählen und mit 1% argumentieren.

Wadenbeisser schrieb:
, teilweise sogar bei konstantem Abstand bei den beiden anderen Auflösungen was natürlich ignoriert wurde.

Auch falsch.
Wadenbeisser schrieb:
Er/sie/es schreibt einfach über alle möglichen anderen Modelle um bloß nicht darauf einzugehen und in der Versenkung verschwinden zu lassen.

Nochmal, ich habe exakt deine Beispiele verwendet und sie aus dem Testparkour entfernt!
Trotzdem bleibt der Abstand so groß.
Wadenbeisser schrieb:
Wie gesagt, ich habe selbst Erfahrungen mit beiden Modellen sammeln können und da kamen noch offensichtlichere Nebenerscheinungen wie Nachladeeffekte zum Vorschein die bei der VII ganz einfach fehlten.

Was interessiert bei deiner These eigentlich Vega und die Seven, wenn du behauptest hast, dass es allen 8GB Modellen so ginge? ;)
 
  • Gefällt mir
Reaktionen: adAstra
@ Taxxor

Also eher denn 9900K verwenden oder? Beim 10900k müsste durch den längeren Ring die Latenz etwas leiden.

Naja, bei nem GPU Test macht das wie gesagt allenfalls in 720p und 1080p einen Unterschied. Und ob ich deswegen auf quasi veraltete Schnittstellen und weniger Threads setzen würde. Vermutlich nicht.

Mit der Entscheidung steht CB auch nicht alleine da.

Es werden hier und da sicher 2 bis im Extremfall auch Mal 10% dazu kommen. Für nen Release Test der aber quasi auch PCIe 4.0 beinhalten sollte verstehe ich den Test so wie er ist.
 
  • Gefällt mir
Reaktionen: Setting und gesperrter_User
Taxxor schrieb:
Und das war der 9900K, der 10900K mit gleichem RAM wird da nochmal drüber liegen,
Ist ja auch egal. Jedenfalls sind die aktuell schnellsten CPUs offensichtlich nicht in der Lage die 3080 komplett zu befeuern.
Mal sehen, ob RAM ocen bisschen hilft.
 
  • Gefällt mir
Reaktionen: gesperrter_User
Zurück
Oben