Test High-End-Grafikkarten im Test: AMD und Nvidia im neuen Testparcours im Vergleich

Schade, die von VideoCardz geleakte RTX 3060Ti bekommt auch nur magere 8GB, angelehnt wohl an die (zuerst) bestenfalls nur mit 8GB erhaeltliche RTX 3070.

Ich hatte mir da einen spaeteren Marktstart einer RTX 3060Ti mit 12 GB zusammen mit der kolportierten RTX 3070Ti mit 16GB erhofft, so wird das wohl nicht mit einer 60er 12GB Variante, wie es aussieht (da nVidia da wohl keinen Markt sieht oder 12 GB bei der Leistungsfarehigkeit der Karte - vermutlich irgendwo im Bereich einer RTX2080 Super angesiedelt bzw. ganz leicht darueber - nicht fuer sinnvoll haelt).

Den beschleunigten Starttermin der RTX 3070 und das dafuer vorgezogene Ende des NDA, sehe ich nicht tragisch oder als so clever an, denn dadurch erhoeht sich evt. nur die RMA-/Umtausch-Rate von zurueckgeschickten/vorbestellten RTX 3070 Karten, wenn die AMD/RTG Vorstellung einen Nerv treffen sollte hinsichtlich der Big Navi Karten, zumal diese ja direkt mit 16GB Speicher kommen duerften im Gegensatz zu einer mit mickrigen 8GB bestueckten RTX 3070 ;).

Die RTX 3070 ist von nVidia ganz klar als das teuerste Brot- und Butter-Model (untere Oberklasse eben) anvisiert, welches man in Massen verkaufen moechte, aber eine RTX 3060(Ti) (obere) Mittelklasse-GPU mit ebenso 8GB Speicher ist da evt. noch interessanter.

Was bringt es einem, wenn man eine teurere, leistungsfaehigere Karte hat, die aber vom Speicher genauso eingeschraenkt werden duerfte in Spielen (bspw. Horizon Zero Dawn), wie darunter liegende guenstigere GPUs und somit keinen oder kaum Mehrwert bietet ;).
 
Zuletzt bearbeitet:
Mal sehen wo sich 3060 und co. Dann einsortieren. Was auch interessant wäre wäre die Leistungsfähigkeit Einer 75W Ampere. Ich hoffe dass beide Hersteller Karten mit diesem Powerlimit vorstellen. Für viele OEM Kisten ein guter Upgradepfad
 
  • Gefällt mir
Reaktionen: CableGuy82 und Chismon
Asghan schrieb:
Bis er kaufbar ist wirds wohl Januar, und bis die BIOSe stabil sind (ich erinnere mich nur zu gut an das 3000er Debakel) dauerts nochmal 2-3 Monate.

Welches Debakel? Dieses rumgeweine weil der versprochene Boost-Takt nicht eingehalten wurde? lol das war so unfassbar unnötig aufgebauscht. mimimi meine CPU taktet 50 MHz zu niedrig, da fehlt mir jetzt soooo viel Leistung whaaa whaaaa



Ach, anscheinend wurde das Test-NDA von Ampere nach hinten verschoben, auf den 16.09 Nvidia GeForce RTX 3080 Reviews Delayed to September 16

Wieder auf COVID schieben und delayed Shipping :freaky: Ich glaub ja eher, dass da bei den Testern paar Bugs aufgefallen sind und man jetzt noch schnell am Treiber bastelt.
 
  • Gefällt mir
Reaktionen: Kodak, Thorque, CableGuy82 und 2 andere
Moin,

einfach mal bei youtube gucken wer nicht warten kann. Gibt genügend 3080 bench leaks.


Results- Firestrike - 200fps+, 31919 score, 25% faster than 2080Ti Firestrike Extreme - 1440p, 20101 score, 24% faster than 2080Ti , 45% faster than 2080S Firestrike Ultra - 2160p, 11049 score, 36% faster than 2080Ti, 64% faster than 2080S Timespy - 1440p, DX12, 17428 score, 28% faster than 2080Ti, 49% faster than 2080S Timespy Extreme - 4K DX12, 8548 score, 38% faster than 2080Ti, 59% faster than 2080S Port Royal - 1440p, 11455 score, 45% faster than 2080Ti, 64% faster than 2080S Farcry 5 - 4K, GPU maxed at 99% (throttling), 5GB Video Memory used, 62% faster than 2080S Borderlands 3 - 4K, DX12, GPU maxed at 100% (throttling), 7.4GB Video Memory used, 56% faster than 2080S Horizon Zero Dawn - 4K, GPU maxed at 99% (throttling), 9.9G Video Memory used, 76FPS average Assasins Creed Odyssey - 4K, GPU at 97%, 7GB Video mem, 67fps average, 48% faster than 2080S Forza Horizon 4 - 4K, 143fps, GPU at 97%, 48% faster than 2080S Shadow of the Tomb Raider - 4K, DLSS ON GPU @ 99% with 99fps, DLSS OFF GPU @ 99% with 113fps, 7GB video memory used Control - 4K, DLSS ON GPU @ 99% with 101fps, DLLS OFF GPU @ 99% with 59fps, 7.5GB video memory used Death Stranding - 4K, DLSS ON GPU @ 99% with 170fps, DLLS OFF GPU @ 99% with 123fps, 5.1GB video memory used Sources - Game benchmarks - https://videocardz.com/newz/alleged-g... 3D mark Benchmarks -https://twitter.com/harukaze5719/stat...



Natürlich auf eigene Gefahr :p

Ich glaube dieses Video ist aber echt ;) bzw. die benchs
 
HAse_ONE schrieb:
Welches Debakel? Dieses rumgeweine weil der versprochene Boost-Takt nicht eingehalten wurde? lol das war so unfassbar unnötig aufgebauscht. mimimi meine CPU taktet 50 MHz zu niedrig, da fehlt mir jetzt soooo viel Leistung whaaa whaaaa
Die @4.6GHz Boost des R9 3900X waren nun mal verarsche. Die wurden von den meisten nicht
mal erreicht, wenn die CPU nichts zu tun hatte. Geschweige denn unter Last. Und wir reden
hier nur von einem Kern. Und dann stellt sich Robert Hallock noch frech hin und erzählt was von
@4.75GHz Boost.

Also ja...etliche ZEN2 Besitzer kamen sich schon verarscht vor.
 
  • Gefällt mir
Reaktionen: Esenel
Thorque schrieb:
toll, dass Computerbase da nun auch in diesem Bereich testen wird.

Ich habe das ja hier und da schon mal geschrieben: Mir würden hier auch mal wirklich handfeste Wünsche helfen. nicht "Premiere Pro" oder "DaVinci". Also, her damit! Sonst machen wir hier einen Akt und dann war's am Ende genau die falsche Funktion, der falsche Filter, das falsche Dateiformat etc. pp....
 
  • Gefällt mir
Reaktionen: nighteeeeey, evilhunter, CableGuy82 und eine weitere Person
ro///M3o schrieb:
Ich verstehe das Problem nicht. Soll doch ein GPU Bench sein? Sprich die GPU ausgelastet werden und am Limit laufen und nicht die CPU? Was juckt es da eigentlich dann was für ne CPU im System steckt??? Ist doch absolut schnell genug dafür wie es auch im Artikel
Nein sie ist nicht schnell genug dafür, was du alleine schon daran siehst, wie viel näher die Karten in 1080p und teilweise auch 1440p jetzt schon mit der 2080Ti als beste Karte rücken.

Und noch besser siehst du es an der Tatsache, dass die Tests, um die CPU zu testen, mit einer 2080Ti in 1080p gemacht werden. Würde man hier immer im GPU Limit liegen wären die CPUs im Ranking alle gleich schnell.

ro///M3o schrieb:
Kommende GPUs benutzt wohl keiner für FHD.
Wieso? Weil niemand mehr als 60fps braucht?
Und hier gilt das gleiche wie auch beim CPU Test: Mache ich einen GPU Test, dann möchte ich die Leistung der GPU sehen, ohne Limits durch die CPU.
Das funktioniert je nach Spiel auch mit einem 10900K und RAM OC nicht immer, aber sehr viel öfter als mit einem Stock 3900XT.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Esenel
cruse schrieb:
Keine Wiederholgenauigkeit, Wolfgang hat es in Post164 erklärt und ich kann es durchaus nachvollziehen.
Danke, das hatte ich völlig überlesen!
 
  • Gefällt mir
Reaktionen: CableGuy82
Unglaublich wie sich hier Intel Fanboys beschweren und ins out schiessen. Zu einem Test gehört auch der aktuelle Stand der Technik herangezogen und ein paar % kann jeder selber hinzufügen. Es ist unglaublich wie schlecht „umständlich“ hier manche agieren nur weil eine Meinung wieder mal vor Vernunft geht.
Am Ende des Tages wird man mit einer AMD 3900 CPU sicher nicht viel falsch machen, denn es wird Pcie 4.0 verwendet und es kommt zu echten Ergebnissen, die auch die Leute da draußen haben wenn sie JETZT ihr System aufbauen, ein paar % auf oder ab (einzelne FPS) muss man immer berücksichtigen.

Intel wird schon wieder neu auferstehen, habt halt Geduld und lasst mal AMD für einen Moment gewähren.
 
  • Gefällt mir
Reaktionen: Londo Mollari, Fuchiii und m2020
meXP schrieb:
und ein paar % kann jeder selber hinzufügen.

Weil man ja auch einfach auf jede GPU die gleichen "paar Prozent" draufgeben kann.
Weißt du denn zu wieviel % eine 2080S durch den 3900XT limitiert wird? Zu wieviel % eine 2080Ti? Und eine 3080?

Wenn eine 3080 30% vor der 2080Ti landet, wurde dann nur die 3080 limitiert und es sind eigentlich 45%?
Oder wurde schon die 2080Ti etwas limitiert und es sind doch nur 35%?

Wozu einen Performance Test machen, wenn die Nutzer dann am Ende selbst irgendwie herausfinden müssen, wie viele Prozente hier wo verlorengegangen sind?
Ergänzung ()

@Wolfgang Da ihr ja CX sowieso zum loggen für die GPU Taktraten nutzt, wäre die "Time in GPU Load Limit" Angabe für die einzelnen Spiele oder den Schnitt daraus in den einzelnen Auflösungsratings doch hier auch sehr interessant.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra, KlaraElfer, Esenel und eine weitere Person
meXP schrieb:
Intel wird schon wieder neu auferstehen, habt halt Geduld und lasst mal AMD für einen Moment gewähren.
AMD wischt mit Intel seit 2 Jahren den Boden auf, und das sage ich als 9900 Käufer.
Die Handvoll fps retten Intel einfach noch im Gaming Bereich (abseits der OEM Massen) und sind die einzigen Gründe für 9900 und 10900 sales.
Die Architektur ist am Ende, und nach fast 10 Jahren werde ich auf einen 4000er Ryzen umsteigen, denn offensichtlich attackiert AMD damit endgültig auch den letzten fps Vorsprung von Intel.
 
  • Gefällt mir
Reaktionen: meXP
Zespire schrieb:
Genau sobald eine Diskussion einen gewissen Unterhaltungswert hat gleich dicht machen oder einen Moderator zwischen schalten.😴


Nee, daß ist absolut nicht der Grund, der grund ist viel mehr:
wegen so einer Belanglosigkeit wie
Zespire schrieb:
Genau sobald eine Diskussion einen gewissen Unterhaltungswert hat gleich dicht machen oder einen Moderator zwischen schalten.😴

Wenn Du das eine Diskussion nennst...hier werden nur Standpunkte dargelegt, so wie ich jetzt auch.
Werden unschöne Wörter in de Mund genommen, weil plötzlich eine AMD- CPU verwendet wird..da wird aus
dieser Seite dann plötzlich AMD- Base.

Muss es denn immer in Fangebashe ausarten?
Grade bei solchen Kleinigkeiten wie verwendete GPU.

Ich kann mich nicht dran entsinnen, daß damals ein Edward Snowden Artikel solch massige Kommentare erhalten hat.

Scheinbar ist für die meisten User hier nur der Hardwaresektor und eine FPS- Zahl von Interesse, zeugt eigentlich davon, was man von der heutigen Generation zu erwarten hat.

Und ja, jetzt kannst Du mich fertig machen, weil ich völlig am Thema vorbei schlittere und auch Andere
beleidige.
 
  • Gefällt mir
Reaktionen: guru_meditation
Man sieht doch auch wie hart es noch Limitierungen gibt, wenn man einen 9900K/10900K nimmt und mit RAM OC anfängt und man in alltäglichen Configs (Auflösung/Details) noch bis zu 50% mehr Leistung in einem Spielebenchmark aus der CPU rauspressen kann. Und das mit nur einer 2080 ti.

Bei AMD geht eben nicht so viel, weil die Latenzen unterirdisch sind, durch die geringen Latenzen im Ringbus skaliert der Intel einfach unfassbar krank auf schnellen RAM, dass man selbst mit 5000CL16 mit straffen subs vermutlich immer noch durch das RAM limitiert würde. AMD kann da einfach nicht mithalten und es ist piss einfach für einen GPU Bench einen 5.2 ghz allcore Intel 8C/16T mit 2x8 GB 4600 CL16/17 mit straffen subs zu nehmen. AMD kann nicht im Ansatz die Spieleleistung so eines Systems liefern und man kann die GPUs wunderbar damit benchen. Und 4000CL16 ist fast schon ein Alltagssetup bei Intel geworden, vorrausgesetzt man kauft sich die Hardware... sowas könnte die Redaktion problemlos als Untersatz nehmen, selbst damit wischt man noch die AMDs auf, wir sind soch nicht bei computerbild, hier sollten doch fähige Leute sitzen die 10 Sachen im Bios einstellen können.

Gerade in Anbetracht der kommenden CPUs sollte man doch gefälligst die Grafikkarten korrekt benchen, denn in den nächsten 2 Jahren wird sich seitens Nvidia nichts mehr tun, aber es kommt der Ryzen 4xxx und viel wichtiger für Spielerechner aus der reinen Leistungsperspektive wird Rocket Lake mit der neuen Core Architektur und PCI-E 4.0 werden mit dem man endlich sehen kann, was die Icelake/Tigerlake Kerne mit hohem Takt tatsächlich in Spielen abliefern werden.

Die 2080 ti war die letzte Karte, wo der CPU flaschenhals noch nicht so stark zum Tragen kam, dadurch, dass Nvidia viel größere Sprünge als Intel mit den immer noch schnellsten Spiele CPUs in den letzten Jahren gemacht hat sind wir mit der 3090 nun an den Punkt gekommen wo das CPU Limit eklatant auffallen wird. Intel brachte uns alle 2 Jahre 10%, Nvidia 30-50%. Irgendwann liefert halt Nvidia so viel Leistung, dass selbst Intel nicht mehr hinterher kommt und man dringend die Willow Cove Kerne im Desktop mit 5 ghz braucht um die 3090 auszulasten...

Und was macht Computerbase? Wechselt beim Benchen zu „langsamen“ AMDs. 0,0 mitgedacht. Gratulation.
 
Zuletzt bearbeitet:
@gunmarine
Wie wenig alltagstauglich das für die meisten wäre muss ich dir jetzt aber auch nicht sagen oder?
Ein paar seriöse Quellen und Benchmarks gehören zu so einem Text aber schon dazu, oder sollen wir das jetzt einfach so glauben?
Mir stellt sich auch die Frage warum dann das PCGH Testsystem auch wechselt.
 
  • Gefällt mir
Reaktionen: PS828 und wayne_757
A.Xander schrieb:
Mir stellt sich auch die Frage warum dann das PCGH Testsystem auch wechselt.

Limitiert ja auch.
Schau dir doch den Community Benchmark zu BF V auf PCGH an.
Und dabei bringst du das PCGH System nicht mal durch Prime mit den 4.5GHz.
Die 10900K mit 5.3GHz halt schon.
 
  • Gefällt mir
Reaktionen: GroMag und DriveByFM
Es geht nicht darum wie alltagstauglich das Sytem für die meisten wäre, sondern um einen objektiven Vergleich von Grafikkarten. Und da eliminiert man das CPU Limit so gut es geht.

Gerade in Anbetracht der bald kommenden CPUs, Willow Cove bringt bis zu 30% IPC gegenüber den Skylake Refreshes bei gleichem Takt.

Da ist der Wechsel von Intel zu AMD einfach schlechte journalistische Arbeit. Genauso wie diese ständige Ignoranz Intel außerhalb der RAM Spezifikation zu testen und Benches mit der Zielgruppe DIY bereit zu stellen, die in Kaufberatungen schauen und dann zum besten P/L beim RAM greifen und irgendwas mit 3600 mittlerweile dann verbauen. Gute journalistische Arbeit wäre es zu erklären, dass Intel nur 2933 frei gibt um die User nicht mit 5 Abstufungen zu verwirren, weil man auch 4x32GB freigibt (ja deswegen gibt Intel nur 2933 frei und nicht 4000, weil der IMC das nicht packt) und dann trotzdem mit 3600 etc beide Systeme zu benchen.

Wenn das so weiter geht ist CB bald komplett für mich gestorben, weil die Benches einfach nichts mehr aussagen und nur noch für billige Mittelklasse PCs was taugen und die User, die sich für High End Hardware interessieren (10900K, Samsung B Dies, 3090) einfach nur einen Haufen Müll in den Testergebnissen lesen kann, weil schlecht gearbeitet wird.

Sorry für den Rant @ Computerbase, ihr macht in vielen Bereichen wirklich gute Arbeit und schreibt tolle Artikel, aber für Leute die sich hauptsächlich für schnelle CPUs und GPUs interessieren werdet ihr leider immer schlechter, es kann doch nicht sein, dass unbezahlte! Lesertests wie der RAM Test von Esenel und KlaraElfer bessere journalistische Arbeit um das Thema Leistungsfähigkeit von High End CPUs abliefern als die von euch.
 
Zuletzt bearbeitet:
Also erst einmal danke an Computerbase für die Vorbereitung auf diesen heißen Herbst. Spieleauswahl finde ich okay, gerade da eine manuelle Auswahl durch die Leser möglich ist.

Zum Thema CPU nur so viel: Ich halte das für eine representative Wahl, welche Performance für die meisten tatsächlich erreicht werden kann. Gerade in der Vergangenheit hat sich ja oft gezeigt, dass das CPU Limit bei unterschiedlichen GPU Architekturen und Treibern varieren kann. Das ist für viele von Interesse was dann passiert. Und in 4K werden wir sicher kein CPU Limit erleben, damit ist die relative Performance auch bekannt. Sehe das Problem überhaupt nicht, halte es sogar für aussagekräftiger so.
 
Zurück
Oben