Test High-End-Grafikkarten im Test: AMD und Nvidia im neuen Testparcours im Vergleich

Mich würde interessieren ob schon einmal "Dauerleihgaben" zurückverlangt wurden bei Testergebnissen die für den Hersteller nicht zufriedenstellend waren.
Ergänzung ()

5hred schrieb:
Jayz2Cents hat mal eine shit storm kassiert, als er sehr gelinde über einen Corsair-Kühler geurteilt hat

Schau Dir mal dieses Video an, da liegt alles "Intel Confidential" Zeug was Jay jemals bekommen hat.
Auch alles noch da. (Dauerleihgabe)

 
Zuletzt bearbeitet:
Die „Dauerleihgaben“ nehme ich gerne - verspreche dafür auch absolut objektive Testergebnisse, Ehrenwort! :daumen:
 
Computerbase und Jay machen das sicher korrekt und kaufen die Hardware im Bedarfsfall auch selber.

Aber bei drittklassigen Youtubern ist das sicher nicht immer der Fall.

Das ganze "Intel Confidential" Zeug hat noch einen anderen Beigeschmack.
Könnten die CPUs eventuell selektiert sein, wenn Intel Confidential drauf steht? (Auf der CPU eingebrannt)

AMD schickt immer Retail CPUs in Retail Verpackung, wie man in dem Video auch gut sieht.
 
Zuletzt bearbeitet:
Netzteil mit 1500W? Wollt ihr 3090 im SLI testen? :o
 
  • Gefällt mir
Reaktionen: H3llF15H
Explizite RT und DLSS Tests halt ich für sinnvoll, da aber nochmal ne Frage; Gab es eigentlich schon Aussagen zur Kompatibilität zukünftiger Versionen mit "alten" Grafikkarten?

ZeroStrat schrieb:
@Heschel Dich zappeln zu sehen ist manchmal echt unterhaltsam.
Unabhängig der Positionen war das ein richtiger Müll-Kommentar. :stock:
 
Flowerpower77 schrieb:
Ampere ist einfach von den Zahlen mächtig. Mit besseren CPUs wird Ampere erst richtig glänzen. War mit der 8800 GTX auch so. Es gibt schlichtweg keine CPU die Ampere 100% ausreizt.

Ich gehe jede wette ein das ich in meinen 3440x1440 und meinem I7 7700K (gut, der kommt bald weg) selbst eine RTX 3090 in irgendeinem Spiel mit maximalen Settings klein kriege ;)

Flowerpower77 schrieb:
wer holt sich Ampere für FullHD? Derjenige muss falsch beraten sein.

Mit besseren CPUs wird Ampere noch schneller. Mark my words!

Warum? Wird doch auch bestimmt eine RTX 3060 und ähnliches geben.

Flowerpower77 schrieb:
Alles auf Anschlag hoch gedreht. Nix hat geruckelt.

Interessant. Ich meine, Crysis 1 lief mit der 8800GTX nicht am Anschlag mit 60 FPS ;) Aber ja, war schon eine sehr geile Karte. Allerdings gibt es IMMER ein Game, welches die GPU unter 60 FPS drückt.
 
Zuletzt bearbeitet:
incurable schrieb:
Wenn eine Veränderung des CPU-Setups geplant ist, dann landen alle alten Daten in der Tonne, egal ob vor der Änderung eine 3900XT oder 10900K eingesetzt wurde.
Richtig - und trotzdem ist der Austausch der AMD CPUs einfacher und billiger... Und man kann die alte CPU gegen die neue Stellen... Hilft also schon bald die Leistung der neuen Zen sauber ins Verhältnis zu den alten zu setzen.
 
  • Gefällt mir
Reaktionen: McTheRipper und Wintermute
Im Idealfall ist man finanziell so gut aufgestellt, dass man alle Hardware auf eigene Kosten erwirbt. Einen ehrlichen und objektiven Test raushaut und darauf pfeift wie der Hersteller auf den Test reagiert.
Denn man ist nicht auf review samples angewiesen. Blöd nur, wenn alle anderen schon sofort nach NDA-lift den Test online stellen und alle klicks kassieren und man mit der GPU aus dem Online-Shop erst eine Woche später oder noch später am Start ist. So ist man halt auf review samples angewiesen, wenn man unter den Ersten sein will.
Was aber keinesfalls über die Integrität und Objektivität eines Testes aussagen muss. Review-Samples sind vollkommen ok, der Normalfall (denk ich mal).
Wie man den Test durchführt (Methode) und was und wie man über das Produkt schreibt (im engl. nennt sich das "narrative", also ob man etwas positiv oder negativ auslegt), lässt darauf schließen wie objektiv und korrekt der Test war. Als Leser oder Viewer darf man eben nicht das Gefühl bekommen, der Tester hat für den Test bewusst eine Methodik angewendet, die dem Produkt zugute kommt oder ein Detail ausgelassen, welches das Produkt schlecht darstehen lassen könnte. Sowas fällt auf, wenn man einen Test mehreren anderen gegenüberstellt und feststellt, da fehlt doch was Wichtiges oder Werte fallen aus dem Rahmen...
Man kann es sich auch leicht machen und als Tester ein easy Urteil fällen: "Just buy it!" :)
 
Relak schrieb:
Wenn eine 3090 getestet wird und mit AMD 5% weniger FPS raus haut als mit Intel. Was bringt einem dieses Wissen? Wenn die 3090 die aktuell beste GPU ist (hypothetisch gesprochen) sind 5% mehr oder weniger absolut irrelevant.
Ich freu mich auf die Tests mit dem neuen Testsystem.
Worst Case und bedeutend schlimmer... Stellt Euch mal vor, die ganze Fuhre läuft wegen PCIe 4.0 vielleicht sogar noch schneller als das Intel Gespann...:king:
 
  • Gefällt mir
Reaktionen: CableGuy82
Du meinst, alle Hochleistungsgamer werden genötigt sein, auf ein Ryzen-System umsteigen zu müssen um noch mehr Hochleistung erfahren zu dürfen? :)
 
  • Gefällt mir
Reaktionen: NJay
jk1895 schrieb:
Ja, ganz bestimmt! Deswegen hat Nvidia ihre Demos auch mit Gen 3 aufgenommen für die Präsentation.
Meinst Du, dass NVidia bei der Vorstellung ihrer neuen Grakas ein AMD System verwendet???
 
Bin schon echt gespannt wie sich da die neuen Grafikkarten machen werden.

Aber noch mal zu den Alten ;)
@Wolfgang: Bei F1 2020 in FHD ist euch scheinbar ein Fehler unterlaufen. Für die Vega 64 scheint ihr laut den Werten hier DX12 zu verwenden. Da ihr bei jeder Grafikkarte die schnellste API verwenden wolltet, müsstet ihr bei F1 2020 für die Vega DX11 nutzen, da DX11 laut eurem Test zum Spiel die schnellere API für die Vega 64 ist.

Eine andere Sache betrifft Horizon Zero Dawn:
Im Test zum Spiel schneidet die Vega 64 unterirdisch ab - die 1080 FE ist in FHD 46% schneller. Im neuen Test sind die Werte für die Vega in FHD nun ganze 50% höher und auf Augenhöhe mit der 1080 FE. Auch in WQHD und UHD sind beide Grafikkarten nun auf Augenhöhe. Der Treiber der Vega ist in beiden Tests identisch (Adrenalin 20.8.1).
Hat sich die Performance im Spiel mittlerweile wirklich so stark verbessert? Die Patch-Notes zum Spiel lasen sich bis jetzt eher weniger so als ob die Patches große Performance Verbesserungen gebracht hätten.

Da werde ich wohl bald mal ins Spiel schauen, ob sich das ganze nun angenehmer spielt, als noch zu Release.
Vielen Dank auf jeden Fall für den spannenden Test! :)
 
  • Gefällt mir
Reaktionen: Colindo
Pinsel schrieb:
Meinst Du, dass NVidia bei der Vorstellung ihrer neuen Grakas ein AMD System verwendet???

Sollte Zen 3 wirklich so einschlagen wie überall kolportiert wird dann wird auch Nvidia für die Präsentation auf AMD setzten aktuell dürfte das noch ein Intel system sein.
Die wollen vor allem eins Grafikkarten verkaufen da spielt das Kindesche Red Team/ Green Team verhalten keine Rolle.
 
  • Gefällt mir
Reaktionen: Celinna und milliardo
Die Leistungsaufnahme an einem 3er oder gar 4er Monitorset wäre sehr interessant.
Meine GTX980ti nimmt nur 15W an 2 Monitoren. Doch deren 70 bei 3..
 
Bisher fand ich die 10 GB VRAM der 3080 zwar nicht optimal, aber als noch ausreichend, schließlich würde ich sie voraussichtlich nicht länger als 2 Jahre verwenden. Das hiesige Testkapitel mit RTX bewegt mich dahingehend etwas zum Umdenken. Die Testergebnisse legen nämlich nahe, dass hier tatsächlich mehr als 10 GB belegt und nicht nur reserviert werden. Genaueres wird garantiert der Test der 3080 zeigen, anhand der Zuwächse gegenüber der 2080 Ti. Falls der Unterschied zwischen 10 und 11 GB nicht richtig zur Geltung kommt, dann zumindest eine Woche später mit der Analyse der 3090. Vorher lasse ich die Finger von der 3080, insofern schon einmal herzlichen Dank für diesen Artikel.
 
  • Gefällt mir
Reaktionen: Londo Mollari
Colindo schrieb:
@Cardhu auch dich weis ich gern auf den High-FPS Test vom Juni hin, wo in niedrigeren Einstellungen getestet wurde.
Dann weise ich dich einfach mal darauf hin, dass eine Ausnahme selten die Regel ist. Und ich hätte einfach gerne, dass es in den üblichen Benchmarkablauf mit aufgenommen wird. Oh nein, wie schlimm von mir, wenn da doch mal sowas getestet wurde! Wurde früher auch sehr oft gemacht, aber eben die letzten Jahre nicht mehr.
 
Zurück
Oben