Kacha schrieb:
Da koennen sie aber gleich eine neue Generation auflegen bei dem Aufwand.
Wäre dann wie damals mit Maxwell als 1. Iteration und 2. Iteration, die dann als die 9x0-Serie kam. Ungewöhnlich wäre es nicht, da Ampere als ganzes doch eher durchwachsen ist, aber mal abwarten.
Ampere ist durchaus leistungsstark, aber gemessen an den Rohdaten, die NVIDIA hier aufführt sogar echt enttäuschend. Ich bin von NVIDIA »technisch simple« dafür aber sehr leistungsstarke Produkte gewöhnt und jetzt? Kaum bringt NVIDIA »Komplexität« und »Flexibilität« in ihre Hardware, und schon kann AMD quasi über Nacht aufholen.
Langsam scheint sich das Lehrgeld bei GCN für AMD bezahlt zu machen. Mich würde es freuen, wenn AMD dieses Mal wirklich knapp hinter der »Massenkarte« 3080 ist. Aber man wird schauen müssen.
Vendetta schrieb:
Naja das sind -4 bis 10% langsamer als ne 3080, die Karte wird deutlich über der 3070 liegen und zwar in allen games.
Die -4 % und -10 % sind in dem Fall aber »interpoliert« aus zwei verschiedenen Testes um die Werte einzuordnen. Wie einige hier bisher mehrfach auch korrekt andeutet haben: Wir wissen nicht genau wie Vergleichbar die Tests wirklich sind.
Ich würde die Werte als das nehmen, was sie wirklich sind: Tendenzen. Nicht mehr, nicht weniger. Am Ende kann es sogar sein, dass die 3080 geschlagen wird, weil AMD zwar FPS drauf geschrieben hat, aber Min-FPS meinte oder 99,8 %. Dann sähe NVIDIA im wahrsten Sinne des Wortes nur noch rote Lichter, weil die 6000 auf der Überholspur der 3000er die Rücklichter zeigt.*
*Ein bisschen Spinnerei sei mir an dieser Stelle erlaubt.
Wir können hier nur Mutmaßungen äußern, ich habe aber bereits in mehreren Themen geschrieben, besonders nach den Tests der 3080: Die 3070 wird AMD auf jeden Fall schlagen, die 3080 ist ein realistisches Ziel. Dabei bleibe ich auch.
Vendetta schrieb:
AMD hat hier ja nichtmal cherrypicked benchmarks genommen, Borderlands ist ein Nvidia optimierter Titel, der auch wie die Sau durchs Dorf getrieben wurde auf Nvidias slides und trotzdem zieht die RX6000(Lederjacke kann beten, dass es die 6800 und nicht 6900 war) hier gleich oder sogar davon um ein paar Prozentchen.
Müsste es nicht anders heißen, die Lederjacke muss dafür beten, dass es die 6900 war und nicht die 6800? Weil wenn es nur die 6800 war, dann hat NVIDIA wirklich ein »Problem«.
Aber egal welche Grafikkarte es war, man darf hier eines nicht vergessen: Die Grafikkarte ist noch nicht auf dem Markt und in knapp einem Monat kann beim Treiber bei AMD durchaus noch einiges passieren. Klar auch bei NVIDIA kann sich beim Treiber nun noch einiges tun, es gibt aber Eigenschaften, die NVIDIA beim Treiber nicht einfach eliminieren kann. Ich kann sogar relativ gut erklären, warum die 3080 als auch die 3090 sich zum Beispiel in 1080p und 1440p bei manchen Spielen nicht so »deutlich« von der 2080 Ti absetzten können.
Am Ende bleibt es aber eben dabei: Die 3070, wie manche NV-Boys hier schwabuliert haben, war nie der Gegner der großen Navi2-Karten, dafür muss man sich nur RDNA1-CU/WGP gegen Turing-SM ansehen und was beide Karten aus ihren Ressourcen rausgeholt haben. Und es war klar, dass AMD mit RDNA2 weiter die CU/WGP verbessert und auch an anderen Sachen der GPU arbeitet. Wer bisher ernsthaft - auch jetzt noch - behauptet, dass AMD die 2080Ti nicht schlagen kann, sollte sich ernsthaft lieber aus solchen Diskussionen raushalten und sich direkt den Fanboy-Aufkleber von NVIDIA auf die Stirn kleben. Selbst einer der größten NV-Fanboys, die ich kennen, geht sogar hier davon aus, dass RDNA2 zumindest nahe an die 3080 kommt. (
@.Sentinel. ja, du bist gemeint. Nein, das ist nicht böse gemeint oder so, aber ein paar deiner Beiträge hab ich echt noch im Kopf zu RDNA2. Ich bin, was sowas angeht ein Elefant, aber wenn selbst du nun eher zur 3080 tendierst, sollte das doch manchem NV-Jüngling zu denken geben.
Ich bin aber voll bei dir, ich sehe hier auch eher eine 6900XT als eine 6800. Hoffend auf mehr, erwarte ich aber nur 0,9 * 3080, dann kann ich nicht enttäuscht werden, nur positiv überrascht.)
Gleichzeitig bleibe ich allerdings bei bestimmten Games pessimistisch und auch das hat einen guten Grund: Viele kleinere und mittlere A- und AA-Studios sowie viele kleine »Indi-Studios« testen primär auf Intel und NVIDIA Hardware und gerade wenn diese Studios noch ihre eigene Engines bauen, fällt die AMD-Hardware gerne hinten runter und läuft mehr schlecht als recht.
SKu schrieb:
Ob RDNA2 hier anders abschneiden würde, müssten Tests zeigen. Tendenziell würde ich aber eher konservativ davon ausgehen, dass Nvidia nach wie vor unter DX11 die bessere Leistung auf den Monitor zaubern wird - wobei bei Borderlands 3 die Framtimes unter Verwendung der DX12 API auch bei Nvidia besser ausfallen.
Na ja, mit RDNA hat AMD selbst bei vielen DX11-Titeln zu Nvidia aufgeholt, gleichzeitig kann Ampere bei DX11 nicht wirklich von den mehr Shadern profitieren, weil man sich hardwaretechnisch doch AMD angenähert hat mit zwei voneinander unabhängig arbeitenden Blöcken pro Shader.
Das Borderlands bei NVIDIA nun - Turing/Ampere - auch in DX12 besser läuft hat genau mit diesem Umstand zu tun, in dem man voneinander unabhängige Shader (PROGRAMM!) nun parallel laufen lassen kann, auch wenn der andere Shader nicht viel Rechenleistung benötigt.
Ich würde hier nicht pauschal von DX11 und DX12 ausgehen, sondern eher davon, dass AMD gerade von kleineren Studios mit eigener Engine nicht wirklich gut supportet wird und man daher dort eher schlechter abschneidet.